lunes, 16 de marzo de 2026

Meta invierte 27 mil millones en IA un acuerdo masivo

Meta ha sellado un acuerdo monumental con el operador de neocloud Nebius por un valor de hasta $27 mil millones a lo largo de cinco años. Este pacto estratégico, que amplía una relación comercial ya existente, se perfila como uno de los mayores acuerdos de infraestructura de inteligencia artificial registrados hasta la fecha.

Meta invierte $27 mil millones en IA: un acuerdo masivo

El convenio se divide en dos partes clave. En primer lugar, Nebius se compromete a proporcionar $12 mil millones en capacidad de cómputo dedicada, que comenzará a implementarse a principios de 2027. Esta infraestructura se basará en la innovadora plataforma Vera Rubin de Nvidia, la última generación de aceleradores especializados en IA de la compañía. La segunda parte del acuerdo contempla que Meta adquiera capacidad adicional de otros clústeres de Nebius hasta alcanzar los $15 mil millones adicionales durante el mismo periodo de cinco años. Nebius priorizará la venta de esta capacidad a clientes externos, destinando a Meta cualquier remanente.

Esta expansión representa un crecimiento significativo respecto a un acuerdo inicial de $3 mil millones firmado en noviembre de 2025, elevando el gasto total contratado de Meta con Nebius a $30 mil millones. La inversión de Meta en IA se intensifica, con planes de destinar hasta $135 mil millones en gastos de capital para proyectos de IA solo en 2026. La creciente demanda de capacidad de cómputo para IA está impulsando a empresas como Nebius, posicionándolas como actores cruciales en la construcción de la infraestructura tecnológica del futuro. El acuerdo también resalta la importancia de la plataforma Vera Rubin de Nvidia, indicando el acceso de Nebius a hardware de vanguardia y el deseo de Meta de operar en la frontera de la capacidad de cómputo disponible.

Fuente Original: https://thenextweb.com/news/meta-nebius-27-billion-ai-infrastructure-deal

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

AI Startup Alomana Secures 4M for Autonomous Enterprise Workflows

Italian AI startup Alomana has successfully closed a seed funding round, securing €4 million. This significant investment was led by CDP Venture Capital, with participation from other notable investors including Italia Venture II and Founders Factory. Alomana is focused on revolutionising enterprise automation with its innovative AI operating layer, named Alo.

AI Startup Alomana Secures €4M for Autonomous Enterprise Workflows

Alo is designed to go beyond the typical AI copilot by enabling autonomous AI workflows. It operates across an enterprise's entire tech stack, seamlessly integrating with data, documents, applications, and code. The platfor m's key capability is its ability to execute complex tasks independently. This includes performing in-depth data analysis on vast datasets, generating complete software applications, creating bespoke AI agents for specific teams, and automating critical operational processes such as financial controls, risk management, and security protocols. Alomana's core proposition is to drastically reduce the complexity and time typically involved in deploying AI solutions at scale, allowing businesses to integrate personalised AI quickly and achieve measurable results.

The company's CEO, Giuseppe Ettorre, highlights that Alomana aims to shift the paradigm from AI being a tool that companies use, to something they actively run. Alo has already been implemented in sectors like finance, manufacturing, and pharmaceuticals, with claims of delivering tangible EBITDA improvements for over 500 enterprise clients. The experienced founding team, with backgrounds at institutions like Bloomberg, the European Central Bank, and NASA, brings a wealth of expertise to the venture. This new funding will fuel the expansion of Alo's enterprise AI capabilities, enhance its autonomy features, and support its international growth, particularly beyond Italy. The investment underscores the growing interest in AI solutions that offer practical, autonomous execution for businesses.

Fuente Original: https://thenextweb.com/news/italian-ai-startup-alomana-raises-e4m

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

IA Exitosa 3 Cambios Cruciales para Empresas Hoy

Los recientes informes sobre fracasos en proyectos de Inteligencia Artificial (IA) han puesto de manifiesto que las causas no siempre son técnicas, sino más bien culturales y organizacionales. A menudo, vemos que los equipos de ingeniería desarrollan modelos que los gerentes de producto no saben cómo utilizar, o que los científicos de datos crean prototipos difíciles de mantener para los equipos de operaciones. La falta de involucramiento de los usuarios finales en la definición de lo que significa 'útil' también conduce a aplicaciones de IA que terminan infrautilizadas.

IA Exitosa: 3 Cambios Cruciales para Empresas Hoy

Las organizaciones que realmente obtienen valor de la IA han logrado una colaboración efectiva entre departamentos y han establecido una responsa bilidad compartida por los resultados. La tecnología es importante, pero la preparación organizacional lo es igualmente. Para superar estas barreras, es fundamental implementar tres prácticas clave.

En primer lugar, es esencial ampliar la alfabetización en IA más allá del departamento de ingeniería. Cuando solo los ingenieros comprenden el funcionamiento y las capacidades de un sistema de IA, la colaboración se resiente. Los gerentes de producto no pueden evaluar las compensaciones, los diseñadores no pueden crear interfaces intuitivas y los analistas no pueden validar los resultados. La solución no es convertir a todos en científicos de datos, sino asegurar que cada rol entienda cómo la IA se aplica a su trabajo específico. Esto fomenta un vocabulario compartido, permitiendo que la IA sea vista como una herramienta para toda la organización.

En segundo lugar, se deben establecer reglas claras para la autonomía de la IA. Muchas empresas caen en los extremo s: o revisan humanamente cada decisión de la IA, creando cuellos de botella, o permiten que los sistemas operen sin supervisión. Lo que se necesita es un marco que defina dónde y cómo la IA puede actuar de forma autónoma, estableciendo reglas sobre si puede aprobar cambios, implementar actualizaciones o desplegar código, siempre considerando la auditabilidad, la reproducibilidad y la observabilidad.

Finalmente, es crucial crear 'playbooks' multifuncionales. Cuando cada departamento desarrolla su propio enfoque para trabajar con sistemas de IA, se obtienen resultados inconsistentes y esfuerzos redundantes. Estos 'playbooks', desarrollados colaborativamente, deben responder a preguntas prácticas sobre cómo probar recomendaciones de IA, qué hacer en caso de fallos en despliegues automatizados, quién interviene al anular una decisión de IA y cómo incorporar feedback para mejorar el sistema. El objetivo es asegurar que todos entiendan cómo la IA se integra en su trabaj o y qué hacer ante resultados inesperados, transformando la cultura organizacional tanto como la implementación técnica.

Fuente Original: https://venturebeat.com/technology/fixing-ai-failure-three-changes-enterprises-should-make-now

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

NVIDIA GTC 2026 El Evento que Definira la IA

San José se convierte nuevamente en el epicentro tecnológico mundial con la inauguración de NVIDIA GTC 2026, el evento más esperado de la industria que reúne a 30,000 asistentes presenciales y cientos de miles en línea. Durante cuatro días, del 16 al 19 de marzo, el centro de convenciones de la ciudad y el SAP Center se transforman en el escenario donde Jensen Huang, CEO de NVIDIA, revelará la próxima fase de la infraestructura de inteligencia artificial que modelará los próximos dos años del sector.

NVIDIA GTC 2026: El Evento que Definirá la IA

NVIDIA llega a este evento con un impulso impresionante. Su informe de ganancias del cuarto trimestre de 2025 mostró ingresos de $68.1 mil millones, un aumento del 73% interanual, consolidando su posición como el proveedor fundamental del poder de cómputo sobre el cual se construye la revolución de la IA global. La compañía ha registrado récords de ingresos en cada uno de los últimos trimestres, demostrando que, a pesar de las fluctuaciones del mercado y las presiones geopolíticas, su posición fundamental permanece intacta.

Este año, GTC 2026 se centra en un concepto transformador: la IA ya no es simplemente una aplicación o un modelo, sino infraestructura esencial. Como señaló Huang, todas las empresas la usarán y todas las naciones la construirán. El programa incluye más de 1,000 sesiones distribuidas en diez sedes del centro de San José, abarcando temas cruciales como IA física, robótica, sistemas autónomos, gemelos digitales y computación cuántica.

Entre los aspectos más destacados se encuentran presentaciones de líderes de Tesla, Waabi, Skild AI, Disney Research Imagineering y Johnson & Johnson. Particularmente notable es la sesión de Disney, que mostrará cómo la compañía utiliza robótica física impulsada por IA para llevar personajes animados a entornos del mundo real. Además, la presencia de Dario Gil, subsecretario del Departamento de Energía de Estados Unidos, subraya que el consumo energético de los centros de datos de IA se ha convertido en una cuestión tanto política como técnica.

Lo que distingue a GTC 2026 de ediciones anteriores no es la escala de los anuncios, sino la madurez de la tecnología discutida. Con Blackwell ya probado, Vera Rubin en producción, y posibles lanzamientos como NemoClaw y acuerdos estratégicos significativos, NVIDIA demuestra que no solo suministra las herramientas para la fiebre del oro de la IA, sino que cada vez más define cómo se construye la mina misma. Este evento establecerá la dirección de la industria de IA para los próximos años.

Fuente Original: https://thenextweb.com/news/nvidia-gtc-2026-opens-today

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

FSF Threatens Anthropic Share AI Models Freely

The Free Software Foundation has issued a striking ultimatum to Anthropic, the artificial intelligence company currently embroiled in copyright infringement litigation. The FSF announced on Friday that Anthropic's training data for its large language models apparently included 'Free as in Freedom: Richard Stallman's Crusade for Free Software', a book for which the FSF holds copyright. This discovery comes as Anthropic attempts to settle a 2024 lawsuit over claims it violated copyrights whilst training its LLMs.

FSF Threatens Anthropic: Share AI Models Freely

The book in question was published by O'Reilly and the FSF under the GNU Free Documentation Licence, a free licence that permits use of the work for any purpose without payment. However, the FSF argues that merely using the work isn't sufficient compliance. According to their interpretation, proper adherence to the licence would require Anthropic to share the complete training inputs with every user of the LLM, together with the complete model, training configuration settings, and accompanying software source code.

In their announcement, the FSF urged Anthropic and other LLM developers who train models using massive datasets downloaded from the internet to provide these LLMs to their users 'in freedom'. The organisation acknowledged its limited resources and the need to be selective about legal battles. However, they made their position crystal clear: if the FSF were to participate in a lawsuit such as Bartz v. Anthropic and find their copyright and licence violated, they would request user freedom as compensation rather than monetary damages.

The FSF's headline captures their philosophy succinctly: 'The FSF doesn't usually sue for copyright infringement, but when we do, we settle for freedom.' This stance presents a unique challenge for Anthropic's settlement strategy, as the FSF's demands diverge significantly from typical copyright settlements that involve financial compensation. The situation highlights the growing tension between proprietary AI development and open-source principles in the rapidly evolving landscape of artificial intelligence.

Fuente Original: https://news.slashdot.org/story/26/03/16/0539240/fsf-threatens-anthropic-over-infringed-copyright-share-your-llms-freely?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

domingo, 15 de marzo de 2026

IA Publica en Canada Infraestructura Nacional o Peligro

La inteligencia artificial (IA) se está convirtiendo en una parte integral de nuestra sociedad, y surge un debate importante sobre quién debe controlarla. Mientras los líderes de la industria de la IA temen la nacionalización, expertos canadienses como Bruce Schneier y Nathan Sanders proponen audazmente una IA pública y nacionalizada para Canadá.

IA Pública en Canadá: ¿Infraestructura Nacional o Peligro?

Argumentan que las empresas de IA actuales, al ser entidades con fines de lucro, no siempre alinean sus intereses con el bien colectivo. Proponen crear un modelo de IA construido y financiado por Canadá, para los canadienses, considerándolo una infraestructura pública esencial, al igual que el transporte o la electricidad. Esto permitiría a los ciudadanos canadienses beneficiarse de la IA sin depender de otros países y aseguraría que los modelos se optimicen para el uso práctico en Canadá, no para el lucro global.

Esta IA pública ofrecería ventajas significativas, como un mayor control democrático y la capacidad de abordar éticamente cuestiones complejas como el sesgo, el uso de datos de entrenamiento con derechos de autor y la distribución equitativa del acceso. Canadá ya cuenta con instituciones de investigación de IA de primer nivel y financiación considerable, lo que proporciona una base sólida. La clave ahora es redirigir esta inversión hacia un modelo de IA completamente abierto y público.

Sin embargo, existen preocupaciones. Algunos, como el lector de Slashdot sinij, ven esto como un escenario distópico donde la IA podría negar servicios esenciales basándose en criterios de alineación o un supuesto "mayor bien". A pesar de estas preocupaciones, la propuesta busca reasignar la autoridad de toma de decisiones y el valor de la tecnología de IA de las corporaciones extranjeras a las instituciones públicas nacionales, ofreciendo una alternativa para la propiedad y el control de esta tecnología crucial.

Fuente Original: https://news.slashdot.org/story/26/03/15/0647257/does-canada-need-nationalized-public-ai?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

AI Weapons Train in PUBG Hanwha Aerospaces Gaming Gambit

In a fascinating intersection of gaming and defence technology, Hanwha Aerospace is leveraging the popular virtual battleground of PUBG (PlayerUnknown's Battlegrounds) to train and test its advanced artificial intelligence (AI) weapon systems. This innovative approach aims to create more realistic and dynamic training scenarios for AI, moving beyond traditional simulation methods.

AI Weapons Train in PUBG: Hanwha Aerospace's Gaming Gambit

The core idea is to expose the AI to the complex, unpredictable environments and strategic decision-making inherent in a battle royale game. By adapting the AI to the challenges presented within PUBG's virtual world, Hanwha Aerospace anticipates developing more robust and adaptable AI for real-world defence applications. This includes training AI to identify targets, make rapid tactical choices, a nd operate effectively in chaotic situations, all within a safe and controlled virtual space.

This strategic partnership highlights a growing trend of defence companies exploring unconventional platforms for AI development. The engaging and inherently competitive nature of games like PUBG provides a rich dataset and a constant stream of diverse scenarios that are difficult to replicate through standard simulations alone. The goal is to enhance the learning curve for AI, ensuring it can perform optimally when deployed in critical defence missions, ultimately contributing to more sophisticated and efficient defence capabilities.

Fuente Original: https://news.google.com/rss/articles/CBMif0FVX3lxTE53cklpRVoyeGR2SkxTTk80RnV6eTFZZTBpakt RbTNRZ1BiXzdiM1lUcHBBVjJCQTlqMTVFN1NKYnlKMUxlLTVKNEtLbXViY3dHeFhvbTJNZ0FsYTZtODNCZGlsTUZWOGhjV0p6ODJkX1Q2dkNSUkl0ZWpFRDIzLXc?oc=5

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Ataque GlassWorm Desarrolladores en Peligro

Un ataque sofisticado de cadena de suministro, apodado GlassWorm, ha surgido como una amenaza seria para la comunidad de desarrolladores. Lo que hace a este ataque particularmente preocupante es su habilidad para explotar una vulnerabilidad significativa: el abuso de 72 extensiones de Open VSX. Esto significa que los atacantes están apuntando directamente a las herramientas que los desarrolladores utilizan a diario para construir software, abriendo una puerta trasera peligrosa para la introducción de código malicioso.

Ataque GlassWorm: ¡Desarrolladores en Peligro!

La técnica empleada por GlassWorm es insidiosa. Al comprometer estas exte nsiones de Open VSX, que son cruciales para la funcionalidad y la personalización de entornos de desarrollo, los atacantes pueden inyectar código dañino que se propaga a través de las extensiones legítimas. Esto crea un riesgo de propagación masiva, ya que cualquier desarrollador que utilice una extensión comprometida podría, sin saberlo, estar introduciendo malware en sus proyectos o en las redes de sus organizaciones. La naturaleza de la cadena de suministro significa que una sola vulnerabilidad puede tener un efecto dominó, afectando a un gran número de usuarios finales.

La investigación revela que este ataque se dirige a la confianza que los desarrolladores depositan en las extensiones de código abierto. Al manipular estas extensiones, los atacantes buscan obtener acceso no autorizado, robar información sensible o incluso interrumpir operaciones críticas. La magnitud del problema, con 72 extensiones afectadas, subraya la necesidad urgente de que los desarroll adores y las organizaciones fortalezcan sus defensas y revisen cuidadosamente las extensiones que instalan y utilizan. La seguridad de la cadena de suministro de software es un campo de batalla cada vez más importante, y GlassWorm es un recordatorio contundente de los riesgos que implica.

Fuente Original: https://thehackernews.com/2026/03/glassworm-supply-chain-attack-abuses-72.html

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Fallas en OpenClaw Inyeccion y Exfiltracion de Datos

Recientemente se han descubierto vulnerabilidades críticas en OpenClaw, un agente de inteligencia artificial que podría poner en riesgo la seguridad de los datos de numerosas organizaciones. Estas fallas permiten dos tipos de ataques particularmente peligrosos: la inyección de prompts maliciosos y la exfiltración no autorizada de información sensible. Los investigadores de seguridad han alertado sobre la gravedad de estas brechas, que podrían ser explotadas por actores maliciosos para manipular el comportamiento del agente de IA o extraer datos confidenciales sin autorización.

Fallas en OpenClaw: Inyección y Exfiltración de Datos

La inyección de prompts es una técnica mediante la cual los atacantes pueden insertar instrucciones maliciosas en las consultas realizadas al agente de IA, logrando que este ejecute comandos no autorizados o revele información que debería permanecer protegida. Este tipo de vulnerabilidad es especialmente preocupante en el contexto actual, donde los agentes de IA se integran cada vez más en procesos empresariales críticos y manejan datos sensibles de clientes y operaciones corporativas.

La exfiltración de datos representa otro riesgo significativo asociado con estas vulnerabilidades. Los atacantes podrían aprovechar las fallas de OpenClaw para extraer información confidencial de los sistemas donde el agente opera, incluyendo credenciales de acceso, datos personales de usuarios, secretos comerciales y otra información estratégica. En un entorno empresarial donde la protección de datos es fundamental y está regulada por normativas cada vez más estrictas, este tipo de brechas puede tener consecuencias devastadoras tanto a nivel económico como reputacional.

Los expertos recomiendan a las organizaciones que utilizan OpenClaw implementar medidas de seguridad adicionales, incluyendo modelos de confianza cero que verifiquen continuamente cada solicitud y transacción. También se aconseja mantener actualizados todos los sistemas de IA, realizar auditorías de seguridad periódicas y establecer controles estrictos sobre qué datos pueden acceder estos agentes inteligentes. La combinación de inteligencia artificial con arquitecturas de Zero Trust se presenta como una estrategia efectiva para mitigar estos riesgos emergentes.

Fuente Original: https://thehackernews.com/2026/03/openclaw-ai-agent-flaws-could-enable.html

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

AI Transforms Programming Into Conversational Architecture

The landscape of software development is undergoing a profound transformation as artificial intelligence reshapes how programmers work. Veteran tech journalist Clive Thompson's extensive investigation, featuring interviews with over 70 developers from tech giants and start-ups alike, reveals a startling reality: many Silicon Valley programmers are now barely writing code in the traditional sense. Instead, they're engaging in what can only be described as deeply unusual work—having conversations with AI assistants to generate software.

AI Transforms Programming Into Conversational Architecture

This shift represents perhaps the strangest evolution in programming's 80-year history. Developers are transitioning from construction workers who build code line by line to architects who design, direct, and judge AI-generated output. Programming legend Kent Beck himself has embraced this change, reporting that large language models have reinvigorated his productivity, allowing him to complete more projects than ever before. The experience, he notes, has an addictive quality reminiscent of slot machines.

The productivity gains are substantial but varied. Google's chief executive Sundar Pichai reports a 10 per cent increase in engineering velocity across the company's 100,000-plus developers, with simple tasks now completing tens of times faster whilst major changes proceed more cautiously. At start-ups, the transformation is even more dramatic, with some founders reporting nearly 100 per cent of their code being AI-generated, compared to just under 50 per cent at Google. One Amazon senior principal engineer celebrates how projects that seemed perpetually out of reach now require merely a six-minute conversation.

However, this revolution isn't without concerns. Some developers report feeling their traditional coding skills atrophying from disuse. Critics worry about the environmental cost of training AI models, the copyright issues surrounding training data, and the risk of producing poorly optimised code at scale. There's also fear that tech companies might weaponise AI agents to suppress worker demands. A minority of programmers refuse to use AI entirely, though industry veterans like Thomas Ptacek suggest these holdouts are experiencing the five stages of grief. Despite the controversies, most developers express satisfaction with their new role, still experiencing the thrill of creation even when AI writes the actual code. This transformation in programming may well foreshadow changes coming to countless other professions.

Fuente Original: https://developers.slashdot.org/story/26/03/14/2137238/will-ai-bring-the-end-of-computer-programming-as-we-know-it?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

sábado, 14 de marzo de 2026

Reglas de Exportacion de IA Gobierno de EE UU Cede Ante Controversia

El gobierno de Estados Unidos ha revocado una regla de exportación de hardware de inteligencia artificial (IA) que había generado considerable controversia. Esta regla, de carácter provisional, requería que las empresas extranjeras que invirtieran en ciertas tecnologías de IA estadounidenses compartieran detalles de sus inversiones. La decisión de retirar esta norma, anunciada por el Departamento de Comercio, responde a las críticas recibidas y a la falta de claridad sobre su aplicación.

Reglas de Exportación de IA: Gobierno de EE. UU. Cede Ante Controversia

La regla controvertida, que formaba parte de un conjunto más amplio de normativas de control de exportaciones de semiconductores, buscaba prevenir que adversarios extranjeros accedieran a tecnología avanzada de IA y hardware que pudiera ser utilizada con fines milita res o de vigilancia. Sin embargo, la comunidad tecnológica y las empresas expresaron preocupación por la vaguedad de la normativa, los posibles obstáculos a la inversión extranjera y la dificultad para cumplir con los requisitos de notificación.

Si bien esta regla específica ha sido retirada, el Departamento de Comercio ha afirmado que continuará trabajando en la elaboración de nuevas regulaciones para el control de exportaciones de tecnología de IA. El objetivo sigue siendo proteger la seguridad nacional y mantener la ventaja tecnológica de Estados Unidos, pero se espera que las futuras normativas sean más claras y tengan un enfoque más directo en las tecnologías críticas y los riesgos específicos. La administración subraya la importancia de un equilibrio entre la seguridad y la promoción de la innovación y la inversión en el sector de la IA.

Fuente Original: https://news.google.com/rss/articles/CBMiwwJBVV95cUxOUjN2QXphTmlqUEVWSWxmOTJmRjdtVDhFYjhqN0VWUUQ5UUdXVHNlbVk5UHNGRWpFeWtiblZNei0zbFZZejlPU0hMTldJdEhVZ3JFRHlUSjJFc1BtZ0FncDh3dEdyRExZa1ZNNjZ4eXNPZVJuNWJpbnlRREVqbTYzcm1KdzNIRUp3NUtKa2otTktoUjQzaGtMTWFsd0hPZldlaURPSmpUVHJ4RkNPbzhpZUg0YVpFSGxqaTVhOXhFdS1GUDZDWE9Nc0Nuazl1NG9FTFpKNzZ2LTNsRVItVGxVX0V1ZWpZSjFoS0NUUFBlRzJhTnA3VmNwU1EyX2hiTGVvQnBuUHhaSXVqOFFjRzRPWF9WTDJRTkNxaTgtZGJRVXhlNDlDblVUclNyTzFfeWU3ZnpCbTNLM0tqR3FWSi1xZ0ZUcw?oc=5

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Metas Big AI Costs Trigger Major Layoff Plans

It appears Meta is gearing up for significant workforce reductions, with reports suggesting the tech giant could be looking to cut 20% or more of its staff. This comes as the company grapples with the substantial costs associated with its ambitious artificial intelligence infrastructure investments.

Meta's Big AI Costs Trigger Major Layoff Plans

Sources familiar with the matter indicate that Meta's leadership has begun signalling these potential cuts to other senior executives, urging them to develop strategies for streamlining operations. The exact timing and final scale of these layoffs are still undetermined, but the move is reportedly aimed at offsetting the immense financial outlay required for AI development and to prepare for a future where AI-assisted employees enhance overall efficiency.

If the 20% figure is realised, these layoffs would represent the most substantial since Meta's "year of efficiency" restructuring in late 2022 and early 2023. At the close of last year, the company had nearly 79,000 employees. This potential downsizing follows recent reports from The New York Times suggesting that Meta has postponed the release of its next flagship AI model, having seemingly fallen behind key competitors like Google, OpenAI, and Anthropic in the AI race.

Fuente Original: https://tech.slashdot.org/story/26/03/14/012226/meta-plans-sweeping-layoffs-as-ai-costs-mount?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

INTERPOL Caza Ciberdelincuentes 45000 IPs Caidas

En una operación global sin precedentes, INTERPOL ha dado un golpe contundente contra el cibercrimen, desmantelando una red masiva de 45,000 direcciones IP maliciosas y logrando la detención de 94 individuos involucrados en actividades ilícitas en línea. Esta iniciativa, parte de un esfuerzo coordinado internacional, busca erradicar las amenazas digitales que afectan a empresas y usuarios en todo el mundo.

INTERPOL Caza Ciberdelincuentes: 45,000 IPs Caídas

La magnitud de esta operación subraya la creciente sofisticación y el alcance del cibercrimen, así como la determinación de las fuerzas del orden para combatirlo. Las IPs desm anteladas estaban siendo utilizadas para una variedad de fines delictivos, incluyendo la distribución de malware, el phishing, el fraude y la explotación de vulnerabilidades en sistemas informáticos. La acción conjunta de INTERPOL y las agencias de ciberseguridad de múltiples países ha sido crucial para identificar y neutralizar estas infraestructuras criminales.

Las detenciones representan un avance significativo en la lucha contra las organizaciones que se benefician de la explotación digital. INTERPOL ha enfatizado la importancia de la colaboración internacional y el intercambio de inteligencia para abordar eficazmente las amenazas cibernéticas transfronterizas. La operación no solo desarticula redes criminales existentes, sino que también envía un mensaje claro a otros actores maliciosos: la impunidad en el ciberespacio está llegando a su fin. Se espera que esta acción inspire a otras agencias a intensificar sus esfuerzos en la prevención y persecución del cibercrimen, protegiendo así la infraestructura digital global.

Fuente Original: https://thehackernews.com/2026/03/interpol-dismantles-45000-malicious-ips.html

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

viernes, 13 de marzo de 2026

NanoClaw y Docker Agentes IA Seguros en Contenedores

La adopción empresarial de agentes de Inteligencia Artificial (IA) se enfrenta a un gran obstáculo: cómo permitir que estos agentes operen libremente sin comprometer la seguridad de los sistemas. Para abordar esta preocupación, NanoClaw, una plataforma de agentes de IA de código abierto, se ha asociado con Docker, la reconocida plataforma de desarrollo en contenedores. Juntos, buscan transformar la forma en que las empresas despliegan agentes de IA, haciéndolos lo más seguros posible mediante el uso de entornos de "sandbox".

NanoClaw y Docker: Agentes IA Seguros en Contenedores

Históricamente, muchos sistemas de agentes de IA han dependido de salvaguardas a nivel de software, operando demasiado cerca de la máquina anfitriona. Esto presenta un riesgo significativo, ya que los agentes, a diferencia de las aplicaciones tradicionales, son dinámicos: modifican entornos, instalan paquetes, crean archivos y se conectan a sistemas externos. La integración de NanoClaw con Docker Sandboxes promete llevar esta seguridad a un nivel de infraestructura más robusto. Docker Sandboxes, que utiliza aislamiento basado en MicroVMs, proporciona un entorno seguro y aislado para ejecutar agentes de IA, manteniendo al mismo tiempo la familiaridad de los flujos de trabajo de Docker.

Esta colaboración responde a la creciente necesidad de las empresas de desplegar agentes capaces que puedan interactuar con datos en vivo y realizar tareas complejas sin exponerse a riesgos de seguridad. La promesa de los agentes de IA radica en su capacidad para realizar trabajos abiertos y flexibles, pero es precisamente esta flexibilidad la que crea nuevos desafíos de seguridad y gobernanza. La solución conjunta de NanoClaw y Docker ofrece una forma de desbloquear todo el potencial de estos agentes sin basar la seguridad en la confianza, sino en límites bien definidos y entornos aislados. Esto es crucial para las organizaciones que buscan gestionar múltiples agentes, cada uno con diferentes permisos y acceso a datos, garantizando que un agente comprometido o con mal funcionamiento no pueda propagarse a otros sistemas o exponer información sensible.

La asociación se destaca por su enfoque en el código abierto y la compatibilidad técnica, sin transacciones financieras directas. Nació de la comunidad de desarrolladores, donde se demostró que NanoClaw funcionaba sin problemas dentro de Docker Sandboxes sin necesidad de cambios arquitectónicos en NanoClaw. Esto sugiere una alineación natural en la visión de cómo los agentes deben ser desplegados y aislados. El resultado es una solución que permite a los equipos ejecutar agentes de IA de forma segura en entornos aislados, simplificando el despliegue y fortaleciendo la postura de seguridad de las empresas. La iniciativa subraya un cambio fundamental en la industria de la IA, pasando de centrarse en la capacidad del modelo a la robustez del diseño del tiempo de ejecución y la infraestructura que lo soporta. Básicamente, las empresas necesitan no solo agentes más inteligentes, sino también "cajas" más seguras y confiables para albergarlos.

Fuente Original: https://venturebeat.com/infrastructure/nanoclaw-and-docker-partner-to-make-sandboxes-the-safest-way-for-enterprises

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT