sábado, 14 de marzo de 2026

Reglas de Exportacion de IA Gobierno de EE UU Cede Ante Controversia

El gobierno de Estados Unidos ha revocado una regla de exportación de hardware de inteligencia artificial (IA) que había generado considerable controversia. Esta regla, de carácter provisional, requería que las empresas extranjeras que invirtieran en ciertas tecnologías de IA estadounidenses compartieran detalles de sus inversiones. La decisión de retirar esta norma, anunciada por el Departamento de Comercio, responde a las críticas recibidas y a la falta de claridad sobre su aplicación.

Reglas de Exportación de IA: Gobierno de EE. UU. Cede Ante Controversia

La regla controvertida, que formaba parte de un conjunto más amplio de normativas de control de exportaciones de semiconductores, buscaba prevenir que adversarios extranjeros accedieran a tecnología avanzada de IA y hardware que pudiera ser utilizada con fines milita res o de vigilancia. Sin embargo, la comunidad tecnológica y las empresas expresaron preocupación por la vaguedad de la normativa, los posibles obstáculos a la inversión extranjera y la dificultad para cumplir con los requisitos de notificación.

Si bien esta regla específica ha sido retirada, el Departamento de Comercio ha afirmado que continuará trabajando en la elaboración de nuevas regulaciones para el control de exportaciones de tecnología de IA. El objetivo sigue siendo proteger la seguridad nacional y mantener la ventaja tecnológica de Estados Unidos, pero se espera que las futuras normativas sean más claras y tengan un enfoque más directo en las tecnologías críticas y los riesgos específicos. La administración subraya la importancia de un equilibrio entre la seguridad y la promoción de la innovación y la inversión en el sector de la IA.

Fuente Original: https://news.google.com/rss/articles/CBMiwwJBVV95cUxOUjN2QXphTmlqUEVWSWxmOTJmRjdtVDhFYjhqN0VWUUQ5UUdXVHNlbVk5UHNGRWpFeWtiblZNei0zbFZZejlPU0hMTldJdEhVZ3JFRHlUSjJFc1BtZ0FncDh3dEdyRExZa1ZNNjZ4eXNPZVJuNWJpbnlRREVqbTYzcm1KdzNIRUp3NUtKa2otTktoUjQzaGtMTWFsd0hPZldlaURPSmpUVHJ4RkNPbzhpZUg0YVpFSGxqaTVhOXhFdS1GUDZDWE9Nc0Nuazl1NG9FTFpKNzZ2LTNsRVItVGxVX0V1ZWpZSjFoS0NUUFBlRzJhTnA3VmNwU1EyX2hiTGVvQnBuUHhaSXVqOFFjRzRPWF9WTDJRTkNxaTgtZGJRVXhlNDlDblVUclNyTzFfeWU3ZnpCbTNLM0tqR3FWSi1xZ0ZUcw?oc=5

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Metas Big AI Costs Trigger Major Layoff Plans

It appears Meta is gearing up for significant workforce reductions, with reports suggesting the tech giant could be looking to cut 20% or more of its staff. This comes as the company grapples with the substantial costs associated with its ambitious artificial intelligence infrastructure investments.

Meta's Big AI Costs Trigger Major Layoff Plans

Sources familiar with the matter indicate that Meta's leadership has begun signalling these potential cuts to other senior executives, urging them to develop strategies for streamlining operations. The exact timing and final scale of these layoffs are still undetermined, but the move is reportedly aimed at offsetting the immense financial outlay required for AI development and to prepare for a future where AI-assisted employees enhance overall efficiency.

If the 20% figure is realised, these layoffs would represent the most substantial since Meta's "year of efficiency" restructuring in late 2022 and early 2023. At the close of last year, the company had nearly 79,000 employees. This potential downsizing follows recent reports from The New York Times suggesting that Meta has postponed the release of its next flagship AI model, having seemingly fallen behind key competitors like Google, OpenAI, and Anthropic in the AI race.

Fuente Original: https://tech.slashdot.org/story/26/03/14/012226/meta-plans-sweeping-layoffs-as-ai-costs-mount?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

INTERPOL Caza Ciberdelincuentes 45000 IPs Caidas

En una operación global sin precedentes, INTERPOL ha dado un golpe contundente contra el cibercrimen, desmantelando una red masiva de 45,000 direcciones IP maliciosas y logrando la detención de 94 individuos involucrados en actividades ilícitas en línea. Esta iniciativa, parte de un esfuerzo coordinado internacional, busca erradicar las amenazas digitales que afectan a empresas y usuarios en todo el mundo.

INTERPOL Caza Ciberdelincuentes: 45,000 IPs Caídas

La magnitud de esta operación subraya la creciente sofisticación y el alcance del cibercrimen, así como la determinación de las fuerzas del orden para combatirlo. Las IPs desm anteladas estaban siendo utilizadas para una variedad de fines delictivos, incluyendo la distribución de malware, el phishing, el fraude y la explotación de vulnerabilidades en sistemas informáticos. La acción conjunta de INTERPOL y las agencias de ciberseguridad de múltiples países ha sido crucial para identificar y neutralizar estas infraestructuras criminales.

Las detenciones representan un avance significativo en la lucha contra las organizaciones que se benefician de la explotación digital. INTERPOL ha enfatizado la importancia de la colaboración internacional y el intercambio de inteligencia para abordar eficazmente las amenazas cibernéticas transfronterizas. La operación no solo desarticula redes criminales existentes, sino que también envía un mensaje claro a otros actores maliciosos: la impunidad en el ciberespacio está llegando a su fin. Se espera que esta acción inspire a otras agencias a intensificar sus esfuerzos en la prevención y persecución del cibercrimen, protegiendo así la infraestructura digital global.

Fuente Original: https://thehackernews.com/2026/03/interpol-dismantles-45000-malicious-ips.html

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

viernes, 13 de marzo de 2026

NanoClaw y Docker Agentes IA Seguros en Contenedores

La adopción empresarial de agentes de Inteligencia Artificial (IA) se enfrenta a un gran obstáculo: cómo permitir que estos agentes operen libremente sin comprometer la seguridad de los sistemas. Para abordar esta preocupación, NanoClaw, una plataforma de agentes de IA de código abierto, se ha asociado con Docker, la reconocida plataforma de desarrollo en contenedores. Juntos, buscan transformar la forma en que las empresas despliegan agentes de IA, haciéndolos lo más seguros posible mediante el uso de entornos de "sandbox".

NanoClaw y Docker: Agentes IA Seguros en Contenedores

Históricamente, muchos sistemas de agentes de IA han dependido de salvaguardas a nivel de software, operando demasiado cerca de la máquina anfitriona. Esto presenta un riesgo significativo, ya que los agentes, a diferencia de las aplicaciones tradicionales, son dinámicos: modifican entornos, instalan paquetes, crean archivos y se conectan a sistemas externos. La integración de NanoClaw con Docker Sandboxes promete llevar esta seguridad a un nivel de infraestructura más robusto. Docker Sandboxes, que utiliza aislamiento basado en MicroVMs, proporciona un entorno seguro y aislado para ejecutar agentes de IA, manteniendo al mismo tiempo la familiaridad de los flujos de trabajo de Docker.

Esta colaboración responde a la creciente necesidad de las empresas de desplegar agentes capaces que puedan interactuar con datos en vivo y realizar tareas complejas sin exponerse a riesgos de seguridad. La promesa de los agentes de IA radica en su capacidad para realizar trabajos abiertos y flexibles, pero es precisamente esta flexibilidad la que crea nuevos desafíos de seguridad y gobernanza. La solución conjunta de NanoClaw y Docker ofrece una forma de desbloquear todo el potencial de estos agentes sin basar la seguridad en la confianza, sino en límites bien definidos y entornos aislados. Esto es crucial para las organizaciones que buscan gestionar múltiples agentes, cada uno con diferentes permisos y acceso a datos, garantizando que un agente comprometido o con mal funcionamiento no pueda propagarse a otros sistemas o exponer información sensible.

La asociación se destaca por su enfoque en el código abierto y la compatibilidad técnica, sin transacciones financieras directas. Nació de la comunidad de desarrolladores, donde se demostró que NanoClaw funcionaba sin problemas dentro de Docker Sandboxes sin necesidad de cambios arquitectónicos en NanoClaw. Esto sugiere una alineación natural en la visión de cómo los agentes deben ser desplegados y aislados. El resultado es una solución que permite a los equipos ejecutar agentes de IA de forma segura en entornos aislados, simplificando el despliegue y fortaleciendo la postura de seguridad de las empresas. La iniciativa subraya un cambio fundamental en la industria de la IA, pasando de centrarse en la capacidad del modelo a la robustez del diseño del tiempo de ejecución y la infraestructura que lo soporta. Básicamente, las empresas necesitan no solo agentes más inteligentes, sino también "cajas" más seguras y confiables para albergarlos.

Fuente Original: https://venturebeat.com/infrastructure/nanoclaw-and-docker-partner-to-make-sandboxes-the-safest-way-for-enterprises

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

China Tightens AI Grip OpenClaw Banned New Security Rules

China is taking decisive action to regulate the rapidly expanding use of artificial intelligence agents, particularly in government sectors. In a significant move, the nation has banned the popular AI tool OpenClaw from all government computers. This ban comes amidst a growing frenzy of AI adoption across the country and highlights China's urgent efforts to establish control and ensure the security of its digital infrastructure.

China Tightens AI Grip: OpenClaw Banned, New Security Rules

The ban on OpenClaw is accompanied by the issuance of new security guidelines for AI adoption. This indicates a broader strategy to manage the risks associated with powerful AI technologies, which can be both a driver of innovation and a potential security vulnerability. The government's swift response suggests a concern that the rapid, unbridled i ntegration of AI tools could lead to unforeseen consequences or be exploited for malicious purposes. The new guidelines are expected to outline acceptable use cases, data handling protocols, and risk assessment procedures for AI systems deployed within government operations.

The adoption of AI tools like OpenClaw has been on a steep upward trajectory, with many anticipating significant productivity gains. However, China's decision to implement such stringent measures, including outright bans and detailed security mandates, signals a prioritisation of national security and control over immediate technological advancement. This proactive stance aims to prevent potential misuse, protect sensitive data, and maintain a secure environment as the nation navigates the evolving landscape of artificial intelligence.

Fuente Original: https://news.google.com/rss/articles/CBMi9wFBVV95cUxOUjd3Q2N4SHFuYjAxdmZaU2FqcUJEVl9BNWJoYVc0cWFLbVlXOWlhSUVZdE9pVGRMcVRVaUVVa3BOSDd1eXEybXJJanNCQU5FZlZUMmdpVFpKU2ZnOW9zUlFDQlAtekN0Y0FWMXZDYUVhbktBWW9uRUhsblV4aFdVbmwySTlSd1k4amVwcjFRSU1MSVdsVUotM3RmMzBvV190b0EwYWtaTzlwNDQ3WWd4MUUxQW8xbGtnTXBFZjhrWm1EaUltNEltRklzUlRHRkQ2RmMxcEVMNmgybFJUS1p4WUhfeGhERGZZU281aVduT1Z6ejNNOTR3?oc=5

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Vulnerabilidades AppArmor Riesgos de Seguridad en Linux Revelados

¡Atención, usuarios de Linux! Una profunda investigación ha destapado la existencia de nueve vulnerabilidades críticas dentro de AppArmor, el popular sistema de seguridad de Linux diseñado para proteger contra aplicaciones maliciosas. Estas fallas, bautizadas colectivamente como 'CrackArmor', tienen el potencial de ser explotadas por atacantes para escalar privilegios hasta obtener acceso de root en sistemas afectados, e incluso para evadir los mecanismos de aislamiento en contenedores.

Vulnerabilidades AppArmor: ¡Riesgos de Seguridad en Linux Revelados!

El equipo de seguridad que descubrió estas brechas ha detallado cómo las vulnerabilidades pueden permitir a un atacante, que ya ha logrado comprometer un sistema con privilegios limitados, obtener control total del mismo. Esto significa que un software aparentemente inofensivo podría ser utilizado como puerta de entrada para una invasión completa del sistema. Además, el impacto se extiende a entornos de contenedores, donde AppArmor se utiliza comúnmente para aislar aplicaciones y prevenir movimientos laterales, permitiendo a los atacantes romper estas barreras de seguridad.

La gravedad de estas fallas radica en su capacidad para socavar la seguridad fundamental de los sistemas Linux. AppArmor funciona mediante la aplicación de perfiles de seguridad que restringen las capacidades de los programas. Sin embargo, las vulnerabilidades CrackArmor permiten a los atacantes eludir estas restricciones, dando lugar a escenarios de escalada de privilegios y a la anulación del aislamiento de contenedores. La explotación exitosa podría tener consecuencia s devastadoras, desde el robo de datos hasta la interrupción total de servicios. Es crucial que los administradores de sistemas estén al tanto de estas vulnerabilidades y tomen las medidas necesarias para mitigar los riesgos, manteniendo sus sistemas actualizados y aplicando las políticas de seguridad más estrictas posibles.

Fuente Original: https://thehackernews.com/2026/03/nine-crackarmor-flaws-in-linux-apparmor.html

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Veeam Corrige 7 Fallas Criticas de Seguridad

Veeam, una de las empresas líderes en soluciones de respaldo y replicación de datos, ha lanzado parches de seguridad urgentes para corregir siete vulnerabilidades críticas en su plataforma Backup & Replication. Estas fallas representan un riesgo significativo para las organizaciones, ya que podrían permitir a atacantes remotos ejecutar código malicioso en los sistemas afectados sin necesidad de autenticación previa.

Veeam Corrige 7 Fallas Críticas de Seguridad

Las vulnerabilidades descubiertas en Veeam Backup & Replication son especialmente preocupantes debido a la naturaleza crítica de estos sistemas en la infraestructura empresarial moderna. Los sistemas de respaldo son objetivos prioritarios para los ciberdelincuentes, ya que comprometerlos no solo permite acceso a información sensible, sino que también puede facilitar ataques de ransomware más devastadores al impedir la recuperación de datos. La capacidad de ejecutar código de forma remota convierte estas fallas en una amenaza de máxima prioridad que requiere atención inmediata.

La empresa ha instado a todos sus clientes a aplicar las actualizaciones de seguridad lo antes posible para proteger sus entornos de respaldo. Este tipo de vulnerabilidades subraya la importancia de mantener todos los sistemas actualizados y seguir las mejores prácticas de seguridad, especialmente en soluciones que manejan datos críticos del negocio. Los administradores de sistemas deben priorizar la implementación de estos parches para evitar posibles explotaciones que podrían comprometer la integridad de sus copias de seguridad y, por extensión, toda su estrategia de recuperación ante desastres.

En el contexto actual de ciberseguridad, donde las amenazas evolucionan constantemente, la rápida respuesta de Veeam al identificar y corregir estas vulnerabilidades demuestra la importancia del monitoreo continuo y la gestión proactiva de parches de seguridad en cualquier organización que dependa de soluciones de respaldo empresarial.

Fuente Original: https://thehackernews.com/2026/03/veeam-patches-7-critical-backup.html

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

SocksEscort Proxy Botnet Disrupted Across 163 Countries

Law enforcement authorities have successfully disrupted a massive proxy botnet operation known as SocksEscort, which had compromised approximately 369,000 IP addresses spanning 163 countries worldwide. This significant takedown represents a major victory in the ongoing battle against cybercrime infrastructure that facilitates malicious activities across the globe.

SocksEscort Proxy Botnet Disrupted Across 163 Countries

The SocksEscort botnet operated as a proxy service, essentially allowing cybercriminals to route their internet traffic through infected devices to mask their true locations and identities. By exploiting hundreds of thousands of compromised systems, the operators created a vast network that could be rented out to other malicious actors for various nefarious purposes, including fraud, data theft, and launching cyberattacks whilst remaining anonymous.

This type of proxy botnet infrastructure is particularly dangerous because it enables a wide range of criminal activities. Attackers can use these compromised IP addresses to bypass security measures, conduct credential stuffing attacks, distribute malware, and carry out fraudulent transactions without being traced back to their actual location. The sheer scale of this operation, affecting nearly 370,000 devices across 163 countries, demonstrates the global reach and sophistication of modern cybercriminal networks.

The disruption of SocksEscort highlights the importance of international cooperation in combating cybercrime and the ongoing need for robust cybersecurity measures. As cyber threats continue to evolve, adopting a Zero Trust security framework combined with artificial intelligence capabilities has become increasingly crucial for organisations seeking to protect their digital assets and remain resilient against such widespread attacks.

Fuente Original: https://thehackernews.com/2026/03/authorities-disrupt-socksescort-proxy.html

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

jueves, 12 de marzo de 2026

Gemini Embedding 2 IA Multimodal para Empresas

Google ha lanzado Gemini Embedding 2, un modelo de embeddings que promete revolucionar cómo las empresas gestionan e interpretan sus datos. A diferencia de modelos anteriores, este nuevo sistema puede procesar y unificar información de texto, imágenes, video, audio y documentos en un único espacio numérico. Esto no solo mejora la eficiencia, sino que también reduce costos al eliminar la necesidad de modelos separados para cada tipo de dato.

Gemini Embedding 2: IA Multimodal para Empresas

Los embeddings son, en esencia, la forma en que la inteligencia artificial organiza la información por significado, no solo por metadatos. Imagina una biblioteca donde los libros se agrupan por su "esencia" o temática, no por su título o autor. Gemini Emb edding 2 convierte datos complejos en vectores numéricos, representando su posición en un mapa de alta dimensión. Si dos elementos son semánticamente similares, sus "coordenadas" estarán cerca. Esta tecnología es la base de motores de búsqueda más inteligentes, sistemas de recomendación personalizados y, crucialmente para las empresas, la Generación Aumentada por Recuperación (RAG), donde los asistentes de IA consultan bases de conocimiento internas para responder preguntas precisas.

Lo que hace a Gemini Embedding 2 tan especial es su naturaleza intrínsecamente multimodal. Puede entender el audio como ondas sonoras y el video como movimiento directamente, sin necesidad de transcribirlo a texto primero. Esto minimiza errores de "traducción" y captura matices que se perderían en un enfoque basado puramente en texto. Para los desarrolladores y las empresas, esto se traduce en flujos de trabajo de IA más eficientes. Ahora es posible realizar búsquedas 'transmodales ', como usar una consulta de texto para encontrar un momento específico en un video o una imagen que coincida con un sonido particular. El modelo incluso puede procesar solicitudes que mezclan modalidades, como una imagen de un coche antiguo y la pregunta "¿Cuál es el tipo de motor?". Además, incorpora la técnica 'Matryoshka Representation Learning', que permite anidar información importante en las primeras dimensiones del vector, ofreciendo flexibilidad para optimizar el almacenamiento y la precisión según las necesidades.

Las pruebas de rendimiento muestran que Gemini Embedding 2 establece un nuevo estándar, superando a modelos anteriores en tareas de recuperación de texto, imagen y video, especialmente en audio y video, donde su arquitectura nativa evita la degradación del rendimiento asociada a las transcripciones. Para las empresas, esto significa la posibilidad de crear una 'Base de Conocimiento Unificada', permitiendo a la IA comprender las relaciones entre d iferentes tipos de datos. Socios tempranos como Sparkonomy han reportado reducciones de latencia de hasta el 70%, y Everlaw, una firma de tecnología legal, lo usa para encontrar evidencia crucial en litigios que antes pasaría desapercibida. Si bien existen límites en la cantidad de datos que se pueden procesar en una sola solicitud (por ejemplo, 6 páginas de un PDF, 128 segundos de video), estos límites se refieren a la entrada por solicitud, no a la capacidad de almacenamiento general de la base de datos. El modelo ya está disponible en vista previa pública a través de la API de Gemini y Vertex AI, con modelos de precios que varían según el tipo de datos y la escala de uso, ofreciendo también licencias permisivas para su integración y modificación.

Fuente Original: https://venturebeat.com/data/googles-gemini-embedding-2-arrives-with-nat ive-multimodal-support-to-cut

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

NVIDIA Invests 2 Billion in AI Cloud Giant Nebius

NVIDIA is making a significant splash in the AI cloud infrastructure space with a massive $2 billion investment in Nebius Group. This isn't just a cash injection; it's a deep technical partnership aimed at supercharging Nebius's capabilities. The deal will see Nebius deploy over 5 gigawatts of NVIDIA-powered compute capacity by the end of 2030, a truly ambitious goal.

NVIDIA Invests $2 Billion in AI Cloud Giant Nebius

The investment was structured as a private placement, where NVIDIA acquired warrants for Nebius shares. This mechanism provides Nebius with immediate capital while NVIDIA gains a substantial stake. Beyond the funding, the partnership covers several key areas. Nebius will benefit from NVIDIA's expertise in AI factory design and support, including early access to new hardware. They'll also collaborate on AI stack development, leveraging NVIDIA's latest software and optimized models. Furthermore, Nebius gains early access to upcoming NVIDIA platforms like Rubin and Vera CPUs, and will utilise NVIDIA's tools for fleet management to optimise its large-scale GPU clusters.

Nebius plans to use this substantial funding to develop its full-stack AI cloud platform and construct new greenfield data centres. The company, which has roots in the restructuring of Yandex, already operates large-scale AI facilities in the US and is expanding its footprint. This strategic move by NVIDIA highlights a growing trend of major tech players investing heavily in AI infrastructure providers, aiming to secure computing power and foster innovation in the burgeoning field of agentic AI. The investment follows similar large-scale commitments NVIDIA has made to other AI infrastructure companies, underscoring its commitment to building out the foundational elements of the AI revolution.

Fuente Original: https://thenextweb.com/news/nvidia-invests-2-billion-in-nebius

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Claude Flujos de Trabajo Inteligentes entre Excel y PowerPoint

Anthropic ha dado un paso significativo para potenciar a su modelo de IA Claude, integrándolo de forma más profunda en el ecosistema de Microsoft Office. Las nuevas capacidades permiten a Claude mantener un contexto compartido entre Microsoft Excel y PowerPoint, lo que se traduce en la creación de flujos de trabajo reutilizables y eficientes directamente dentro de estas aplicaciones empresariales. Esta actualización, disponible para usuarios de planes de pago en Mac y Windows, representa una apuesta estratégica de Anthropic por expandir su presencia en el sector corporativo y, al mismo tiempo, competir en el emergente mercado de asistentes de IA para aplicaciones de productividad.

Claude: Flujos de Trabajo Inteligentes entre Excel y PowerPoint

La funcionalidad clave de esta actualización reside en la habilidad de Claude para transferir información, instrucciones e historial de tareas entre un documento de Excel y una presentación de PowerPoint sin necesidad de copiar y pegar manualmente. Esto significa que un usuario puede, por ejemplo, extraer datos de una hoja de cálculo, utilizarlos para diseñar una diapositiva en PowerPoint y, todo ello, dentro de una única sesión continua con Claude. Un ejemplo práctico dado por Anthropic es el de un analista financiero que puede solicitar a Claude que recopile datos financieros de empresas comparables en Excel, cree tablas de valoración y luego inserte un resumen en una presentación de PowerPoint, e incluso redacte un correo electrónico relacionado, todo ello sin cambiar de aplicación o tener que reintroducir la información.

Además de la continuidad del contexto, Anthropic introduce la función "Skill s" (Habilidades). Esta característica permite a los equipos construir y guardar flujos de trabajo estandarizados dentro de las barras laterales de Excel y PowerPoint. Estos "Skills" pueden ser desde análisis de varianza específicos hasta plantillas de presentación aprobadas, y una vez guardados, se convierten en acciones de un solo clic accesibles para toda la organización. Esto elimina la necesidad de volver a cargar referencias o reintroducir instrucciones para tareas recurrentes, democratizando procesos complejos y asegurando la consistencia. Anthropic también proporciona un conjunto inicial de "Skills" preinstaladas para tareas comunes como la auditoría de modelos en Excel o la revisión de materiales de banca de inversión en PowerPoint. Esta expansión posiciona a Claude como una herramienta cada vez más integrada y valiosa para las operaciones empresariales, compitiendo directamente con soluciones similares de Microsoft y Google que buscan aportar inteligencia artific ial a los flujos de trabajo diarios.

Fuente Original: https://venturebeat.com/orchestration/anthropic-gives-claude-shared-context-across-microsoft-excel-and-powerpoint

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Nvidia Lanza NemoClaw Plataforma de Agentes IA

Nvidia se prepara para revolucionar el mercado de inteligencia artificial empresarial con el lanzamiento de NemoClaw, una plataforma de código abierto diseñada para competir directamente con OpenClaw. Esta nueva herramienta permitirá a las empresas de software corporativo desplegar agentes de IA para ejecutar tareas específicas dentro de sus propias organizaciones, marcando un giro estratégico significativo para el gigante tecnológico.

Nvidia Lanza NemoClaw: Plataforma de Agentes IA

Lo más destacado de esta iniciativa es que NemoClaw será accesible para cualquier compañía, independientemente de si utilizan los procesadores de Nvidia o no. Esta apertura representa un cambio importante en la estrategia tradicional de la empresa, que históricamente ha dependido de CUDA, su plataforma propietaria que mantenía a los desarrolladores vinculados exclusivamente a sus GPUs. El movimiento hacia código abierto busca consolidar el dominio de Nvidia en la infraestructura de IA frente a la creciente competencia de laboratorios que desarrollan sus propios chips personalizados.

Según informes de Wired, Nvidia ha iniciado conversaciones con empresas líderes del sector tecnológico, incluyendo Salesforce, Cisco, Google, Adobe y CrowdStrike, para establecer asociaciones estratégicas relacionadas con esta plataforma de agentes. Aunque no se ha confirmado si estas conversaciones han resultado en acuerdos oficiales, se espera que los socios obtengan acceso anticipado y gratuito a cambio de contribuir al desarrollo del proyecto de código abierto.

El anuncio de NemoClaw se producirá durante la conferencia anual de desarrolladores de Nvidia en San José la próxima semana. La plataforma incluirá herramientas especializadas de seguridad y privacidad, elementos cruciales para atraer a empresas corporativas preocupadas por la protección de datos sensibles. Esta estrategia demuestra el compromiso de Nvidia por ofrecer capas adicionales de seguridad que diferencien su propuesta en el competitivo mercado de agentes de inteligencia artificial empresarial.

Fuente Original: https://slashdot.org/story/26/03/11/177232/nvidia-is-planning-to-launch-its-own-open-source-openclaw-competitor?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Nvidias Nemotron 3 Super Revolutionises AI Efficiency

Nvidia has unveiled Nemotron 3 Super, a groundbreaking 120-billion-parameter hybrid AI model designed to tackle one of enterprise artificial intelligence's most pressing challenges: the explosive cost of multi-agent systems. These systems, which handle complex, long-horizon tasks such as software engineering and cybersecurity triaging, can generate up to 15 times the token volume of standard chatbots, making them prohibitively expensive for many organisations. Nvidia's latest release aims to deliver the depth required for sophisticated agentic workflows without the typical computational bloat, all whilst maintaining commercial viability through an open weights licence.

Nvidia's Nemotron 3 Super Revolutionises AI Efficiency

At the heart of Nemotron 3 Super lies a sophisticated triple hybrid architecture that represents a significant departure from traditional AI model design. The system combines three distinct architectural approaches: state-space models, transformers, and a novel Latent Mixture-of-Experts design. The Hybrid Mamba-Transformer backbone interleaves Mamba-2 layers—which handle the bulk of sequence processing with linear-time complexity—with strategically placed Transformer attention layers that act as "global anchors" for precise fact retrieval. This architecture enables the model to maintain a massive 1-million-token context window without the memory footprint typically associated with such capabilities, solving the classic "needle in a haystack" problem that plagues many enterprise applications.

The Latent Mixture-of-Experts component further distinguishes Nemotron 3 Super from its competitors. Traditional MoE designs route tokens to experts in their full hidden dimension, creating computational bottlenecks as models scale. Nvidia's LatentMoE innovation projects tokens into a compressed space before routing, allowing the model to consult four times as many specialists for the same computational cost. This granularity proves vital for agents that must seamlessly switch between different reasoning modes—Python syntax, SQL logic, and conversational understanding—within a single interaction. Additionally, Multi-Token Prediction serves as a built-in draft model, enabling native speculative decoding that delivers up to three times faster wall-clock speeds for structured generation tasks.

Perhaps the most significant technical advancement is Nemotron 3 Super's optimisation for Nvidia's Blackwell GPU platform. Pre-trained natively in NVFP4 (4-bit floating point), the model achieves four times faster inference than 8-bit models running on the previous Hopper architecture, with no accuracy loss. In practical performance, the model currently holds the number one position on DeepResearch Bench and demonstrates throughput advantages of up to 2.2 times higher than GPT-OSS-120B and 7.5 times higher than Qwen3.5-122B in high-volume settings. Major enterprises including Siemens, Palantir, CodeRabbit, and Greptile are already integrating the model for large-scale codebase analysis and complex workflow automation across manufacturing and cybersecurity applications.

Fuente Original: https://venturebeat.com/technology/nvidias-new-open-weights-nemotron-3-super-combines-three-different

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

miércoles, 11 de marzo de 2026

LeCun IA que entiende el mundo fisico capta mil millones

Yann LeCun, ex científico jefe de IA en Meta, ha cofundado una nueva empresa llamada Advanced Machine Intelligence (AMI) y ha recaudado más de mil millones de dólares. El objetivo de esta ambiciosa startup es desarrollar modelos de IA que comprendan verdaderamente el mundo físico, en contraste con los modelos de lenguaje actuales. LeCun argumenta que la inteligencia humana se basa fundamentalmente en la comprensión del entorno físico, no principalmente en el lenguaje, y que para alcanzar una inteligencia artificial de nivel humano es crucial construir estos modelos del mundo.

LeCun: IA que entiende el mundo físico capta mil millones

AMI, que ya ha sido valorada en 3.500 millones de dólares, cuenta con el respaldo de inversores de renombre como Cathay Innovation, Greycroft, Hiro Capital, HV Capital y Bezos Expeditions, adem� �s de figuras como Mark Cuban y Eric Schmidt. La empresa se define como una constructora de una nueva generación de sistemas de IA con memoria persistente, capacidad de razonamiento y planificación, y un fuerte enfoque en la seguridad y el control. Con sedes en París, Montreal, Singapur y Nueva York, AMI se propone desde el principio operar a escala global, con LeCun compaginando su rol de profesor en la Universidad de Nueva York con la dirección de la startup.

La estrategia de AMI se centrará en colaborar con industrias con grandes volúmenes de datos, como la manufactura, la biomedicina y la robótica. Un ejemplo práctico sería la creación de un modelo detallado de un motor de avión para ayudar a optimizar su eficiencia o fiabilidad. Si bien la empresa planea lanzar sus primeros modelos de IA rápidamente, su enfoque inicial será trabajar con socios como Toyota y Samsung para perfeccionar su tecnología antes de aplicarla de manera más generalizada. La visión a l argo plazo de AMI es desarrollar un "modelo del mundo universal", sentando las bases para un sistema de inteligencia general capaz de asistir a empresas de cualquier sector.

Fuente Original: https://slashdot.org/story/26/03/10/2055212/yann-lecun-raises-1-billion-to-build-ai-that-understands-the-physical-world?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT