jueves, 12 de marzo de 2026

NVIDIA Invests 2 Billion in AI Cloud Giant Nebius

NVIDIA is making a significant splash in the AI cloud infrastructure space with a massive $2 billion investment in Nebius Group. This isn't just a cash injection; it's a deep technical partnership aimed at supercharging Nebius's capabilities. The deal will see Nebius deploy over 5 gigawatts of NVIDIA-powered compute capacity by the end of 2030, a truly ambitious goal.

NVIDIA Invests $2 Billion in AI Cloud Giant Nebius

The investment was structured as a private placement, where NVIDIA acquired warrants for Nebius shares. This mechanism provides Nebius with immediate capital while NVIDIA gains a substantial stake. Beyond the funding, the partnership covers several key areas. Nebius will benefit from NVIDIA's expertise in AI factory design and support, including early access to new hardware. They'll also collaborate on AI stack development, leveraging NVIDIA's latest software and optimized models. Furthermore, Nebius gains early access to upcoming NVIDIA platforms like Rubin and Vera CPUs, and will utilise NVIDIA's tools for fleet management to optimise its large-scale GPU clusters.

Nebius plans to use this substantial funding to develop its full-stack AI cloud platform and construct new greenfield data centres. The company, which has roots in the restructuring of Yandex, already operates large-scale AI facilities in the US and is expanding its footprint. This strategic move by NVIDIA highlights a growing trend of major tech players investing heavily in AI infrastructure providers, aiming to secure computing power and foster innovation in the burgeoning field of agentic AI. The investment follows similar large-scale commitments NVIDIA has made to other AI infrastructure companies, underscoring its commitment to building out the foundational elements of the AI revolution.

Fuente Original: https://thenextweb.com/news/nvidia-invests-2-billion-in-nebius

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Claude Flujos de Trabajo Inteligentes entre Excel y PowerPoint

Anthropic ha dado un paso significativo para potenciar a su modelo de IA Claude, integrándolo de forma más profunda en el ecosistema de Microsoft Office. Las nuevas capacidades permiten a Claude mantener un contexto compartido entre Microsoft Excel y PowerPoint, lo que se traduce en la creación de flujos de trabajo reutilizables y eficientes directamente dentro de estas aplicaciones empresariales. Esta actualización, disponible para usuarios de planes de pago en Mac y Windows, representa una apuesta estratégica de Anthropic por expandir su presencia en el sector corporativo y, al mismo tiempo, competir en el emergente mercado de asistentes de IA para aplicaciones de productividad.

Claude: Flujos de Trabajo Inteligentes entre Excel y PowerPoint

La funcionalidad clave de esta actualización reside en la habilidad de Claude para transferir información, instrucciones e historial de tareas entre un documento de Excel y una presentación de PowerPoint sin necesidad de copiar y pegar manualmente. Esto significa que un usuario puede, por ejemplo, extraer datos de una hoja de cálculo, utilizarlos para diseñar una diapositiva en PowerPoint y, todo ello, dentro de una única sesión continua con Claude. Un ejemplo práctico dado por Anthropic es el de un analista financiero que puede solicitar a Claude que recopile datos financieros de empresas comparables en Excel, cree tablas de valoración y luego inserte un resumen en una presentación de PowerPoint, e incluso redacte un correo electrónico relacionado, todo ello sin cambiar de aplicación o tener que reintroducir la información.

Además de la continuidad del contexto, Anthropic introduce la función "Skill s" (Habilidades). Esta característica permite a los equipos construir y guardar flujos de trabajo estandarizados dentro de las barras laterales de Excel y PowerPoint. Estos "Skills" pueden ser desde análisis de varianza específicos hasta plantillas de presentación aprobadas, y una vez guardados, se convierten en acciones de un solo clic accesibles para toda la organización. Esto elimina la necesidad de volver a cargar referencias o reintroducir instrucciones para tareas recurrentes, democratizando procesos complejos y asegurando la consistencia. Anthropic también proporciona un conjunto inicial de "Skills" preinstaladas para tareas comunes como la auditoría de modelos en Excel o la revisión de materiales de banca de inversión en PowerPoint. Esta expansión posiciona a Claude como una herramienta cada vez más integrada y valiosa para las operaciones empresariales, compitiendo directamente con soluciones similares de Microsoft y Google que buscan aportar inteligencia artific ial a los flujos de trabajo diarios.

Fuente Original: https://venturebeat.com/orchestration/anthropic-gives-claude-shared-context-across-microsoft-excel-and-powerpoint

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Nvidia Lanza NemoClaw Plataforma de Agentes IA

Nvidia se prepara para revolucionar el mercado de inteligencia artificial empresarial con el lanzamiento de NemoClaw, una plataforma de código abierto diseñada para competir directamente con OpenClaw. Esta nueva herramienta permitirá a las empresas de software corporativo desplegar agentes de IA para ejecutar tareas específicas dentro de sus propias organizaciones, marcando un giro estratégico significativo para el gigante tecnológico.

Nvidia Lanza NemoClaw: Plataforma de Agentes IA

Lo más destacado de esta iniciativa es que NemoClaw será accesible para cualquier compañía, independientemente de si utilizan los procesadores de Nvidia o no. Esta apertura representa un cambio importante en la estrategia tradicional de la empresa, que históricamente ha dependido de CUDA, su plataforma propietaria que mantenía a los desarrolladores vinculados exclusivamente a sus GPUs. El movimiento hacia código abierto busca consolidar el dominio de Nvidia en la infraestructura de IA frente a la creciente competencia de laboratorios que desarrollan sus propios chips personalizados.

Según informes de Wired, Nvidia ha iniciado conversaciones con empresas líderes del sector tecnológico, incluyendo Salesforce, Cisco, Google, Adobe y CrowdStrike, para establecer asociaciones estratégicas relacionadas con esta plataforma de agentes. Aunque no se ha confirmado si estas conversaciones han resultado en acuerdos oficiales, se espera que los socios obtengan acceso anticipado y gratuito a cambio de contribuir al desarrollo del proyecto de código abierto.

El anuncio de NemoClaw se producirá durante la conferencia anual de desarrolladores de Nvidia en San José la próxima semana. La plataforma incluirá herramientas especializadas de seguridad y privacidad, elementos cruciales para atraer a empresas corporativas preocupadas por la protección de datos sensibles. Esta estrategia demuestra el compromiso de Nvidia por ofrecer capas adicionales de seguridad que diferencien su propuesta en el competitivo mercado de agentes de inteligencia artificial empresarial.

Fuente Original: https://slashdot.org/story/26/03/11/177232/nvidia-is-planning-to-launch-its-own-open-source-openclaw-competitor?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Nvidias Nemotron 3 Super Revolutionises AI Efficiency

Nvidia has unveiled Nemotron 3 Super, a groundbreaking 120-billion-parameter hybrid AI model designed to tackle one of enterprise artificial intelligence's most pressing challenges: the explosive cost of multi-agent systems. These systems, which handle complex, long-horizon tasks such as software engineering and cybersecurity triaging, can generate up to 15 times the token volume of standard chatbots, making them prohibitively expensive for many organisations. Nvidia's latest release aims to deliver the depth required for sophisticated agentic workflows without the typical computational bloat, all whilst maintaining commercial viability through an open weights licence.

Nvidia's Nemotron 3 Super Revolutionises AI Efficiency

At the heart of Nemotron 3 Super lies a sophisticated triple hybrid architecture that represents a significant departure from traditional AI model design. The system combines three distinct architectural approaches: state-space models, transformers, and a novel Latent Mixture-of-Experts design. The Hybrid Mamba-Transformer backbone interleaves Mamba-2 layers—which handle the bulk of sequence processing with linear-time complexity—with strategically placed Transformer attention layers that act as "global anchors" for precise fact retrieval. This architecture enables the model to maintain a massive 1-million-token context window without the memory footprint typically associated with such capabilities, solving the classic "needle in a haystack" problem that plagues many enterprise applications.

The Latent Mixture-of-Experts component further distinguishes Nemotron 3 Super from its competitors. Traditional MoE designs route tokens to experts in their full hidden dimension, creating computational bottlenecks as models scale. Nvidia's LatentMoE innovation projects tokens into a compressed space before routing, allowing the model to consult four times as many specialists for the same computational cost. This granularity proves vital for agents that must seamlessly switch between different reasoning modes—Python syntax, SQL logic, and conversational understanding—within a single interaction. Additionally, Multi-Token Prediction serves as a built-in draft model, enabling native speculative decoding that delivers up to three times faster wall-clock speeds for structured generation tasks.

Perhaps the most significant technical advancement is Nemotron 3 Super's optimisation for Nvidia's Blackwell GPU platform. Pre-trained natively in NVFP4 (4-bit floating point), the model achieves four times faster inference than 8-bit models running on the previous Hopper architecture, with no accuracy loss. In practical performance, the model currently holds the number one position on DeepResearch Bench and demonstrates throughput advantages of up to 2.2 times higher than GPT-OSS-120B and 7.5 times higher than Qwen3.5-122B in high-volume settings. Major enterprises including Siemens, Palantir, CodeRabbit, and Greptile are already integrating the model for large-scale codebase analysis and complex workflow automation across manufacturing and cybersecurity applications.

Fuente Original: https://venturebeat.com/technology/nvidias-new-open-weights-nemotron-3-super-combines-three-different

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

miércoles, 11 de marzo de 2026

LeCun IA que entiende el mundo fisico capta mil millones

Yann LeCun, ex científico jefe de IA en Meta, ha cofundado una nueva empresa llamada Advanced Machine Intelligence (AMI) y ha recaudado más de mil millones de dólares. El objetivo de esta ambiciosa startup es desarrollar modelos de IA que comprendan verdaderamente el mundo físico, en contraste con los modelos de lenguaje actuales. LeCun argumenta que la inteligencia humana se basa fundamentalmente en la comprensión del entorno físico, no principalmente en el lenguaje, y que para alcanzar una inteligencia artificial de nivel humano es crucial construir estos modelos del mundo.

LeCun: IA que entiende el mundo físico capta mil millones

AMI, que ya ha sido valorada en 3.500 millones de dólares, cuenta con el respaldo de inversores de renombre como Cathay Innovation, Greycroft, Hiro Capital, HV Capital y Bezos Expeditions, adem� �s de figuras como Mark Cuban y Eric Schmidt. La empresa se define como una constructora de una nueva generación de sistemas de IA con memoria persistente, capacidad de razonamiento y planificación, y un fuerte enfoque en la seguridad y el control. Con sedes en París, Montreal, Singapur y Nueva York, AMI se propone desde el principio operar a escala global, con LeCun compaginando su rol de profesor en la Universidad de Nueva York con la dirección de la startup.

La estrategia de AMI se centrará en colaborar con industrias con grandes volúmenes de datos, como la manufactura, la biomedicina y la robótica. Un ejemplo práctico sería la creación de un modelo detallado de un motor de avión para ayudar a optimizar su eficiencia o fiabilidad. Si bien la empresa planea lanzar sus primeros modelos de IA rápidamente, su enfoque inicial será trabajar con socios como Toyota y Samsung para perfeccionar su tecnología antes de aplicarla de manera más generalizada. La visión a l argo plazo de AMI es desarrollar un "modelo del mundo universal", sentando las bases para un sistema de inteligencia general capaz de asistir a empresas de cualquier sector.

Fuente Original: https://slashdot.org/story/26/03/10/2055212/yann-lecun-raises-1-billion-to-build-ai-that-understands-the-physical-world?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

SUSE Sale EQT Eyes 6 Billion Enterprise Software Deal

It appears private equity giant EQT AB is considering offloading SUSE, the well-established open-source Linux company. Reports suggest EQT has engaged investment bank Arma Partners to gauge interest from other private equity firms for a potential sale. This move could see SUSE valued at a remarkable $6 billion, effectively doubling its valuation since EQT took it private just last year.

SUSE Sale: EQT Eyes $6 Billion Enterprise Software Deal

The discussions are reportedly in their nascent stages, and there's no guarantee a deal will materialise, especially given the current volatility in the software stock market. The broader sell-off has made mergers and acquisitions more challenging, partly due to investor concerns that emerging AI technologies might render some existing software products obsolete, thus impacting tech valuations. However, there's a counter-narrative suggesting SUSE could actually benefit from the AI boom. Its enterprise-grade infrastructure software is seen as crucial for companies developing and deploying AI applications, potentially driving increased demand.

SUSE, which generates around $800 million in revenue and over $250 million in EBITDA, could command a significant price tag in a sale, with estimates ranging from $4 billion to $6 billion. This potential transaction highlights the ongoing strategic shifts within the private equity landscape and the evolving perception of established software companies in the age of artificial intelligence.

Fuente Original: https://linux.slashdot.org/story/26/03/10/0450204/eqt-eyes-6-billion-sale-of-suse?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artí culos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

NVIDIA Revolucion IA con Plataforma de Agentes Empresariales

NVIDIA, el gigante indiscutible en hardware de inteligencia artificial, parece estar expandiendo su dominio al terreno del software. Según informes recientes, la compañía estaría desarrollando una plataforma de agentes IA de código abierto para empresas, apodada internamente 'NemoClaw'. Este movimiento estratégico busca establecer a NVIDIA no solo como el motor de la IA, sino también como su columna vertebral de software.

NVIDIA: ¿Revolución IA con Plataforma de Agentes Empresariales?

NemoClaw se presenta como una solución diseñada para que las empresas implementen agentes de IA capaces de realizar tareas complejas con mínima supervisión humana. Estas tareas incluirían el procesamiento de datos, la gestión de flujos de trabajo y la ejecución de instrucciones multifacéticas. Un aspecto crucial de esta plataforma, según las fuentes, es la inclusión de herramientas de seguridad y privacidad integradas. Esto responde directamente a las preocupaciones generadas por fallos de seguridad en herramientas de IA para consumidores, que han mermado la confianza en este tipo de tecnologías.

Lo que hace a NemoClaw particularmente interesante es su naturaleza potencialmente agnóstica al hardware. A diferencia de la dependencia histórica de NVIDIA de su ecosistema CUDA, esta nueva plataforma podría ser utilizada por empresas sin importar la infraestructura que posean. Esto se alinea con estrategias exitosas de otras compañías, como Meta con Llama, que buscan crear ecosistemas amplios al ofrecer software abierto. El nombre 'NemoClaw' combina la referencia al framework NeMo de NVIDIA y a la familia de modelos Nemotron, con la palabra 'Claw' que evoca el ecosistema de agentes de IA de código abierto que ha ganado popularidad recientemente.

La estrategia de código abierto podría traducirse en un modelo de colaboración donde los socios obtengan acceso temprano a cambio de contribuir al desarrollo. La filtración coincide con la proximidad de la conferencia GTC de NVIDIA, donde se espera que Jensen Huang, CEO de la compañía, presente las direcciones futuras de la empresa, incluyendo la IA agentiva. El mercado está cada vez más competido, con ofertas similares de OpenAI, Microsoft y Google, pero NVIDIA podría diferenciarse por su credibilidad en hardware y su apuesta por la neutralidad en el software, permitiendo que diversos proveedores construyan sobre su plataforma.

Fuente Original: https://thenextweb.com/news/nvidia-is-reportedly-building-an-enterprise-ai-agent-platform

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

IA Reescribe Codigo Abierto y Cambia Licencias

La inteligencia artificial está revolucionando el desarrollo de software, pero plantea interrogantes legales y éticos sin precedentes. Tradicionalmente, los programadores utilizaban la ingeniería inversa en "salas limpias" para replicar funcionalidades sin copiar código protegido por derechos de autor. Ahora, las herramientas de codificación con IA están transformando este proceso de manera radical, generando intensos debates en la comunidad de código abierto.

IA Reescribe Código Abierto y Cambia Licencias

El conflicto estalló con el lanzamiento de la versión 7.0 de chardet, una popular biblioteca de Python para detectar codificación de caracteres. El código original fue escrito por Mark Pilgrim en 2006 bajo licencia LGPL, que impone restricciones estrictas sobre su reutilización. Dan Blanchard, quien mantenía el proyecto desde 2012, utilizó Claude Code para reescribir completamente la biblioteca en solo cinco días, cambiando la licencia a MIT, mucho más permisiva. El resultado: un código 48 veces más rápido y supuestamente más preciso.

Pilgrim argumenta que esta nueva versión constituye una relicenciación ilegítima de su código original, ya que Blanchard tuvo amplia exposición al código LGPL. Según Pilgrim, usar un generador de código no otorga derechos adicionales para cambiar la licencia. Por su parte, Blanchard defiende que el nuevo código es "cualitativamente diferente" y estructuralmente independiente, citando estadísticas que muestran solo 1.29% de similitud máxima entre versiones, comparado con 80% en actualizaciones anteriores hechas por humanos.

El proceso que Blanchard denomina "sala limpia con IA" implicó comenzar con un repositorio vacío, instruyendo explícitamente a Claude a no basarse en código bajo licencias LGPL/GPL. Sin embargo, varios factores complican esta narrativa: Claude utilizó algunos archivos de metadatos de versiones anteriores, sus modelos fueron entrenados con datos de Internet que probablemente incluyen el código original de chardet, y Blanchard revisó e iteró profundamente sobre cada aspecto del código generado, a pesar de su conocimiento íntimo de las versiones previas.

La directora ejecutiva de la Free Software Foundation, Zoë Kooyman, afirma categóricamente que no hay nada "limpio" en un modelo de lenguaje que ha ingerido el código que se le pide reimplementar. Sin embargo, otros desarrolladores como Armin Ronacher argumentan que si todo el código se descarta y se comienza desde cero, aunque el resultado funcione igual, es efectivamente un nuevo proyecto. El estatus legal del código generado por IA permanece en gran medida sin resolver, con tribunales aún sin pronunciarse sobre las implicaciones de licenciamiento de software creado total o parcialmente por inteligencia artificial.

Las consecuencias prácticas de esta capacidad para reescribir y relicenciar rápidamente proyectos de código abierto son monumentales. El desarrollador Salvatore Sanfilippo sugiere que la naturaleza del software ha cambiado fundamentalmente y que es necesario construir nuevos modelos mentales en lugar de combatir cada manifestación de programación automática. Bruce Perens va más allá, declarando que "toda la economía del desarrollo de software está muerta", comparando este momento transformador con la invención de la imprenta o el método científico. La comunidad tecnológica enfrenta un punto de inflexión que redefinirá las reglas del desarrollo de software para siempre.

Fuente Original: https://arstechnica.com/ai/2026/03/ai-can-rewrite-open-source-code-but-can-it-rewrite-the-license-too/

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Mario Day 2026 LEGO Reveals and Gaming Deals

Mario Day 2026 has arrived with a spectacular array of announcements and offers for fans of the iconic plumber. This annual celebration, held on 10th March (MAR10), has become a beloved tradition amongst gaming enthusiasts, and this year's festivities promise exciting new merchandise, gaming deals, and product reveals that showcase the enduring popularity of Nintendo's most famous character.

Mario Day 2026: LEGO Reveals and Gaming Deals

The highlights of Mario Day 2026 include a highly anticipated LEGO reveal featuring new Super Mario minifigures. These collectible figures continue the successful partnership between LEGO and Nintendo, offering fans fresh ways to build and interact with their favourite Mushroom Kingdom characters. The LEGO Super Mario range has proven immensely popular since its introduction, combining the creative building experience with interactive gameplay elements that bring the digital world into physical form.

Gaming enthusiasts can also take advantage of significant discounts on Nintendo Switch titles throughout the Mario Day celebration. These deals provide an excellent opportunity for both newcomers and longtime fans to expand their Super Mario game collections at reduced prices. The offers span various titles in the franchise, ensuring there's something available for players of all ages and preferences.

Adding to the excitement, a new Yoshi game has been announced, marking another adventure for Mario's trusty dinosaur companion. Yoshi games have consistently delivered charming, family-friendly experiences with unique gameplay mechanics, and this latest entry promises to continue that tradition whilst introducing fresh ideas to the beloved series.

Mario Day has evolved into much more than a simple marketing exercise; it's become a genuine celebration of one of gaming's most enduring and influential franchises. From humble beginnings in the 1980s, Super Mario has grown into a cultural phenomenon that spans generations, and events like Mario Day 2026 demonstrate the character's continuing relevance in today's gaming landscape.

Fuente Original: https://news.google.com/rss/articles/CBMiigFBVV95cUxNaEFEcnlxZUxqMGhGTmtSRFJhUnE3WlE5NDdnVEhDV2Q1dVduN2lRem5rNDJSY0FzLXA4TmE5R3Raa3NQSUdUbTdZMEd4SkR5X0RvS25TOXdlbWFPa3FqajNPS0hjZFVuTDY4bHp2ZHhCYWFGOFZ3eWlqLWQ5MWtobFBIcnFjR1YzTUE?oc=5

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

martes, 10 de marzo de 2026

IA en Empresas Identidad Humana vs Agentes AI

El mundo de la seguridad empresarial está experimentando una transformación radical con la llegada de los agentes de Inteligencia Artificial (IA). Estos agentes, capaces de realizar acciones complejas como iniciar sesión, acceder a datos y ejecutar flujos de trabajo, están surgiendo más rápido de lo que los equipos de seguridad pueden controlar. El problema fundamental es que los sistemas de identidad y acceso, diseñados para usuarios humanos, no están preparados para gestionar la naturaleza autónoma y dinámica de estos agentes de IA. Las arquitecturas actuales asumen comportamientos predecibles y responsabilidades claras, características que los agentes de IA rompen por completo.

IA en Empresas: Identidad Humana vs. Agentes AI

La proli feración de herramientas de IA y agentes autónomos en las empresas supera la capacidad de los equipos de seguridad para instrumentarlos y gobernarlos. Los sistemas de identidad heredados se basan en supuestos de usuarios estáticos, cuentas de servicio de larga duración y roles fijos, incapaces de representar la autoridad delegada, los contextos de ejecución efímeros o los bucles de decisión rápidos de los agentes. Como resultado, los líderes de TI deben reconsiderar la capa de confianza fundamental. La arquitectura de Confianza Cero de NIST, que considera a todas las entidades no humanas como no confiables hasta su autenticación y autorización, subraya esta necesidad. En un mundo cada vez más influenciado por agentes de IA, estos sistemas deben poseer identidades propias, verificables y explícitas, en lugar de operar con credenciales compartidas o heredadas.

Los entornos de desarrollo son un primer punto de quiebre. Los Entornos de Desarrollo Integrado (IDE) evolu cionan para convertirse en orquestadores con capacidades de IA, introduciendo riesgos concretos de inyección de comandos. El contenido del proyecto, incluso de fuentes no confiables, puede alterar el comportamiento de los agentes de formas imprevistas. Los agentes ingieren datos de diversas fuentes, incluyendo documentación, archivos de configuración y metadatos de herramientas, influyendo en su toma de decisiones. La acumulación de agentes autónomos con privilegios elevados amplifica el riesgo, ya que carecen de contexto, moralidad y la capacidad de discernir la legitimidad de una solicitud de autenticación. Su naturaleza continua y su falta de responsabilidad humana complican enormemente la detección de anomalías y la rendición de cuentas.

La gestión tradicional de identidad y acceso (IAM) falla ante los agentes debido a varios factores: los modelos de privilegios estáticos no se adaptan a los flujos de trabajo dinámicos de los agentes; la rendición de cuentas h umana se desdibuja al no poder atribuir acciones a individuos específicos; la detección basada en el comportamiento es ineficaz contra la actividad continua y multifacética de los agentes; y las identidades de los agentes a menudo son invisibles para los sistemas IAM convencionales. Para abordar esto, se requiere un replanteamiento de la arquitectura de seguridad. La identidad debe convertirse en el plano de control para los agentes de IA, con políticas de acceso contextuales y granulares. Las credenciales deben manejarse bajo esquemas de conocimiento cero, y la auditabilidad debe capturar el quién, el bajo qué autoridad, el alcance y la cadena completa de acciones del agente. Establecer límites de confianza claros entre humanos, agentes y sistemas es crucial, separando la intención de la ejecución. El futuro de la seguridad empresarial reside en sistemas de identidad que puedan gestionar el contexto, la delegación y la rendición de cuentas en tiempo real, haciendo que lo s agentes sean gobernales y no una fuente de riesgo no gestionado.

Fuente Original: https://venturebeat.com/security/enterprise-identity-was-built-for-humans-not-ai-agents

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

LeCuns 1Bn Bet Rethinking AI Beyond LLMs

Yann LeCun, a celebrated Turing Award winner and former Meta AI chief, has embarked on a new venture, Advanced Machine Intelligence Labs (AMI), fuelled by an unprecedented $1.03 billion in seed funding. LeCun departed Meta convinced that the current dominance of large language models (LLMs) represents a fundamental misunderstanding of AI. He argues that LLMs, while impressive in their linguistic capabilities, are essentially statistical illusions, lacking true intelligence. His vision for AMI is to build a new generation of AI systems based on 'world models'.

LeCun's $1Bn Bet: Rethinking AI Beyond LLMs

AMI's core philosophy revolves around the Joint Embedding P redictive Architecture (JEPA), a framework LeCun has championed. Unlike LLMs that predict the next word in a sequence, JEPA aims to learn abstract representations of how the world operates, drawing parallels to how humans and animals learn through embodied experience and understanding physical reality, rather than solely through language. This approach seeks to overcome the limitations and "hallucinations" inherent in current generative AI models by focusing on understanding underlying principles rather than just surface-level predictions.

The substantial seed funding, the largest ever for a European startup, was co-led by major firms including Cathay Innovation, Greycroft, Hiro Capital, HV Capital, and Bezos Expeditions, with significant participation from industry giants like Nvidia and Toyota. AMI, headquartered in Paris, also plans offices in New York, Montreal, and Singapore, aiming to establish itself as a key European AI player, a deliberate counterpoint to the dominant American and Chinese tech powers. LeCun envisions AMI developing "fairly universal intelligent systems" within five years, positioning the company to be a primary provider of machine intelligence across various domains. The company's immediate focus will be on research and development, with LeCun acknowledging that world models represent a long-term scientific endeavour, signalling a patient, fundamental approach to AI innovation.

Fuente Original: https://thenextweb.com/news/yann-lecun-ami-labs-world-models-billion

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

NPM Roba Credenciales macOS Peligro Oculto

Los desarrolladores de software se enfrentan a una nueva amenaza en el ecosistema de Node.js. Un paquete malicioso, disfrazado de instalador legítimo para la herramienta de código abierto OpenClaw, ha sido descubierto propagando malware y robando credenciales sensibles de usuarios de macOS. Esta campaña de suministro de software, que aprovecha el popular gestor de paquetes npm, pone de manifiesto la constante evolución de las tácticas de los ciberdelincuentes.


El paquete malicioso, identificado con el nombre 'openclaw-installer', se hace pasar por una utilidad necesaria para instalar OpenClaw, una herramienta de código abierto para redes. Sin embargo, su verdadera intención es desplegar un RAT (Remote Access Trojan) en los sistemas de las víctimas. Una vez activo, es te malware tiene la capacidad de ejecutar comandos de forma remota, permitiendo a los atacantes tomar el control del equipo comprometido sin el conocimiento del usuario. Además, la amenaza va más allá, ya que el RAT está diseñado para exfiltrar información crítica, incluyendo las credenciales almacenadas en los llaveros de macOS, información de sesión de navegadores y datos de aplicaciones sensibles.

La sofisticación de este ataque reside en su método de distribución. Al ser publicado en el registro de npm, un repositorio ampliamente utilizado por desarrolladores de todo el mundo, el paquete malicioso puede ser fácilmente descargado e integrado en proyectos legítimos, extendiendo su alcance de manera silenciosa. Los investigadores de seguridad advierten que este tipo de ataques a la cadena de suministro de software representan un riesgo significativo, ya que explotan la confianza que los desarrolladores depositan en las bibliotecas de código abierto. La campaña busca principalmente obtener acceso a información financiera y de identificación personal, que luego puede ser vendida en la dark web o utilizada para otros fines ilícitos. Se recomienda a los desarrolladores que verifiquen cuidadosamente las dependencias que integran en sus proyectos y mantengan actualizadas tanto sus herramientas como sus sistemas de seguridad.

Fuente Original: https://thehackernews.com/2026/03/malicious-npm-package-posing-as.html

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Anthropic Lanza Code Review Mientras Demanda al Pentagono

Anthropic ha presentado Code Review, un sistema innovador de revisión de código integrado en Claude Code que utiliza múltiples agentes de inteligencia artificial para analizar cada solicitud de extracción en busca de errores que los revisores humanos suelen pasar por alto. Esta funcionalidad, disponible en vista previa para clientes de los planes Team y Enterprise, llega en un momento crucial: la compañía presentó simultáneamente demandas contra la administración Trump por su inclusión en una lista negra del Pentágono, mientras Microsoft anunció una asociación para integrar Claude en su plataforma Microsoft 365 Copilot.

Anthropic Lanza Code Review Mientras Demanda al Pentágono

Code Review funciona de manera diferente a las herramientas convencionales de revisión de código. Cuando un desarrollador abre una solicitud de extracción, el sistema despliega varios agentes de IA que operan en paralelo, buscando errores de forma independiente, verificando sus hallazgos entre sí para eliminar falsos positivos y clasificando los problemas restantes por gravedad. El proceso toma aproximadamente 20 minutos, mucho más lento que alternativas como GitHub Copilot, pero esto es intencional. Anthropic posiciona esta herramienta como un producto de seguro para la calidad del código, no como una herramienta de productividad para acelerar revisiones.

El precio de 15 a 25 dólares por revisión generará debate en la industria. Anthropic justifica este costo argumentando que es insignificante comparado con el precio de un error en producción, que puede incluir reversiones, correcciones urgentes y tiempo de ingenieros. Los datos internos de la compañía muestran que en solicitudes grandes de más de 1,000 líneas, el 84% recibe hallazgos con un promedio de 7.5 problemas por revisión. En cambio, en solicitudes pequeñas de menos de 50 líneas, solo el 31% recibe observaciones.

El lanzamiento coincide con una batalla legal sin precedentes. Anthropic demandó a la administración Trump tras ser designada como un riesgo para la cadena de suministro de seguridad nacional, una clasificación históricamente reservada para adversarios extranjeros. El conflicto surgió cuando las negociaciones con el Pentágono colapsaron debido a las líneas rojas de Anthropic: la compañía se negó a permitir que su IA se usara en armas totalmente autónomas o vigilancia masiva doméstica. Según la demanda, esta designación ya está causando cancelaciones de contratos y pone en riesgo cientos de millones de dólares en ingresos.

A pesar de la controversia gubernamental, los tres principales socios en la nube de Anthropic (Microsoft, Google y Amazon Web Services) confirmaron que Claude permanece disponible para sus clientes en cargas de trabajo no relacionadas con defensa. Microsoft llegó incluso más lejos al anunciar Copilot Cowork, que integra Claude en Microsoft 365 Copilot para tareas empresariales como crear presentaciones, manipular hojas de cálculo de Excel y coordinar reuniones. Esta reafirmación de compromiso por parte de gigantes tecnológicos envía una señal clara al mercado sobre el valor técnico de Claude y su confianza en la viabilidad legal de la compañía.

Fuente Original: https://venturebeat.com/technology/anthropic-rolls-out-code-review-for-claude-code-as-it-sues-over-pentagon

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

AI Agents Now Run Research Experiments Overnight

Andrej Karpathy, the former Tesla AI lead and OpenAI co-founder, has released a groundbreaking open-source project called 'autoresearch' that fundamentally changes how artificial intelligence research is conducted. This simple 630-line script, available on GitHub under an MIT licence, automates the scientific method using AI agents that work autonomously whilst humans sleep. The system creates an optimization loop where AI agents read their own source code, form hypotheses for improvement, modify the code, run experiments, and evaluate results—all without human intervention.

AI Agents Now Run Research Experiments Overnight

The autoresearch agent operates on a fixed compute budget, typically five minutes on a GPU. It measures success through validation loss improvements, keeping beneficial changes and reverting unsuccessful ones. In Karpathy's initial overnight run, the agent completed 126 experiments, reducing loss from 0.9979 to 0.9697. After running for two days, it processed approximately 700 autonomous changes, discovering roughly 20 additive improvements that transferred to larger models. This resulted in an 11 per cent efficiency gain, dropping the 'Time to GPT-2' metric from 2.02 hours to 1.80 hours on what Karpathy already considered a well-tuned project.

The implications extend far beyond computer science. Varun Mathur, CEO of Hyperspace AI, distributed the concept across a peer-to-peer network where 35 autonomous agents ran 333 experiments in a single night. These agents demonstrated remarkable emergent behaviour: CPU-only agents on laptops focused on clever initialization strategies whilst H100 GPUs used brute force approaches. Using gossip protocols, agents shared discoveries in real-time, with successful strategies spreading rapidly through the network. In just 17 hours, these agents independently rediscovered machine learning milestones that took human researchers at Google Brain and OpenAI nearly eight years to formalise.

The business world quickly recognised the revolutionary potential. Eric Siu, founder of Single Grain, applied autoresearch to marketing, arguing that whilst most marketing teams run 20 to 30 experiments annually, the next generation will run over 36,500 experiments per year. By replacing training scripts with marketing assets—landing pages, ad creatives, or email campaigns—agents can continuously test variables, measure response rates, and optimise performance autonomously. This creates a proprietary knowledge base that becomes a competitive advantage built on experimental history rather than human insight alone.

However, the GitHub community has raised important concerns. Researchers worry about over-optimisation, where parameters become tuned to validation set quirks rather than general performance. Questions remain about whether the gains are truly substantial or merely statistical artefacts. Despite these concerns, the shift is clear: human researchers are transitioning from experimenters to experimental designers, defining the constraints whilst AI agents execute the tedious work of iteration. As Karpathy noted, agents caught oversights in attention scaling and regularisation that he had missed manually over two decades of work. The bottleneck of AI progress is no longer human coding ability—it's our capacity to define meaningful search parameters for these autonomous systems.

Fuente Original: https://venturebeat.com/technology/andrej-karpathys-new-open-source-autoresearch-lets-you-run-hundreds-of-ai

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT