viernes, 20 de marzo de 2026

AI Cyber Attacks Understanding Behavioral Analytics

In the ever-evolving landscape of cybersecurity, artificial intelligence (AI) has become a double-edged sword. While it empowers defenders, it also equips attackers with sophisticated tools. The article "The Importance of Behavioral Analytics in AI-Enabled Cyber Attacks" delves into how understanding user and system behaviour is becoming a critical defence mechanism against these advanced threats.

AI Cyber Attacks: Understanding Behavioral Analytics

Traditionally, cybersecurity focused on perimeter defence, blocking known threats. However, AI-powered attacks are increasingly sophisticated, capable of bypassing these traditional measures by mimicking legitimate user activity. This is where behavioural analytics steps in. It moves beyond simply identifying what is known to be malicious, instead focusing on detecting anomalies – deviations from normal patterns of behaviour. By establishing a baseline of typical activity for users, devices, and applications, organisations can more effectively spot suspicious actions that might indicate a compromise, even if the specific attack vector is new.

The article highlights that AI-enabled attacks often involve subtle, multi-stage processes, making them difficult to detect with signature-based or rule-based systems. Behavioural analytics, on the other hand, can identify these low-and-slow attacks by flagging unusual sequences of actions, excessive data access, or logins from atypical locations. This proactive approach allows security teams to intervene before significant damage is done. Furthermore, the concept of Zero Trust Network Access (ZTNA) is linked to this defence s trategy, as it inherently relies on continuous verification of user and device behaviour to grant access, thereby minimising the risk of lateral movement once an initial breach occurs.

Implementing effective behavioural analytics requires robust data collection, sophisticated machine learning algorithms to analyse this data, and clear alerting mechanisms. The goal is to create a dynamic defence that adapts to new threats and learns from observed behaviours. As AI continues to drive innovation in cyberattacks, so too must the adoption of advanced analytical techniques like behavioural analytics to stay one step ahead.

Fuente Original: https://thehackernews.com/2026/03/the-importance-of-behavioral-analytics.html

Artículo generado mediante LaRebelionBOT

Cisco FMC Zero-Day Ransomware Interlock Ataca Criticamente

¡Atención administradores de red! La banda de ransomware Interlock ha estado explotando una vulnerabilidad crítica y hasta ahora desconocida (zero-day) en Cisco Secure Firewall Management Center (FMC). Este fallo, identificado como CVE-2026-20131, permite a atacantes remotos no autenticados tomar el control total de los sistemas FMC con privilegios de root, sin necesidad de credenciales.

Cisco FMC Zero-Day: Ransomware Interlock Ataca Críticamente

Lo más alarmante es que Interlock ha estado aprovechando esta brecha desde finales de enero de 2026, mucho antes de que Cisco publicara la vulnerabilidad y lanzara una solución el 4 de marzo de 2026. La interfaz web del FMC es el punto de entrada, permitiendo la ejecución remota de código Java arbitrario. Esto no solo compromete el propio dispositivo de gestión, sino que abre la puerta a modificaciones maliciosas de configuraciones, reglas de firewall y despliegues de ransomware en toda la red.

La inteligencia de amenazas reveló esta explotación silenciosa, destacando el peligro inherente de los ataques zero-day. Durante el tiempo que transcurre entre la explotación y la divulgación pública, las organizaciones quedan expuestas sin defensas específicas. La recomendación inmediata es actualizar y parchear todos los sistemas Cisco Secure FMC a las versiones recomendadas por Cisco para corregir CVE-2026-20131. Adicionalmente, se aconseja una revisión exhaustiva de logs, actividad anómala, integridad del sistema y cambios de configuración, asumiendo que una intrusión pudo haber ocurrido si el sistema no se actualizó desde enero.

Fuente Original: https://unaaldia.hispasec.com/2026/03/interlock-explota-como-zero-day-un-fallo-critico-de-cisco-secure-fmc-desde-enero.html?utm_source=rss&utm_medium=rss&utm_campaign=interlock-explota-como-zero-day-un-fallo-critico-de-cisco-secure-fmc-desde-enero

Artículo generado mediante LaRebelionBOT

DoJ Desmantela Botnet IoT de 3 Millones

El Departamento de Justicia de Estados Unidos ha logrado desarticular una masiva red de botnets compuesta por aproximadamente 3 millones de dispositivos del Internet de las Cosas (IoT) comprometidos. Esta red criminal fue responsable de orquestar ataques de denegación de servicio distribuido (DDoS) sin precedentes que alcanzaron la asombrosa cifra de 31.4 terabits por segundo, estableciendo un récord mundial en intensidad de ataques cibernéticos.

DoJ Desmantela Botnet IoT de 3 Millones

Esta operación representa un hito significativo en la lucha contra el cibercrimen a nivel global. Los dispositivos IoT comprometidos incluían cámaras de seguridad, routers domésticos, dispositivos de almacenamiento conectados y otros equipos inteligentes que fueron infectados y convertidos en armas digitales sin el conocimiento de sus propietarios. Los atacantes aprovecharon las vulnerabilidades de seguridad comunes en estos dispositivos, como contraseñas predeterminadas débiles y firmware desactualizado.

Los ataques DDoS de esta magnitud tienen el potencial de paralizar infraestructuras críticas, servicios en línea y redes corporativas en todo el mundo. Con 31.4 Tbps de tráfico malicioso, estos ataques superaron ampliamente los récords anteriores, demostrando la creciente sofisticación y escala de las amenazas cibernéticas modernas. Las víctimas potenciales incluyeron desde empresas multinacionales hasta instituciones gubernamentales y proveedores de servicios esenciales.

La intervención del DoJ subraya la importancia crítica de la seguridad en dispositivos IoT y la necesidad de que fabricantes, empresas y usuarios finales implementen mejores prácticas de seguridad. Esto incluye cambiar credenciales predeterminadas, mantener el firmware actualizado y segmentar adecuadamente las redes domésticas y empresariales para limitar el movimiento lateral de amenazas.

Fuente Original: https://thehackernews.com/2026/03/doj-disrupts-3-million-device-iot.html

Artículo generado mediante LaRebelionBOT

OpenAI Acquires Astrals Popular Python Development Tools

OpenAI has announced a significant acquisition that will reshape the landscape of AI-powered software development. The artificial intelligence giant has entered into an agreement to acquire Astral, the company behind some of the most widely-used open source Python development tools in the industry. This strategic move will see Astral integrated into OpenAI's Codex team, strengthening the company's position in the competitive AI coding assistant market.

OpenAI Acquires Astral's Popular Python Development Tools

Astral has become a household name amongst Python developers through its suite of powerful development tools. The company's flagship product, uv, is a Rust-based Python package manager that has attracted over 126 million monthly downloads by helping developers manage complex dependency networks. Their code formatter and linter, Ruff, has proven even more popular with 179 million monthly downloads, whilst their beta type-checker, Ty, has already garnered 19 million monthly downloads despite being in early development stages.

The acquisition's financial terms remain undisclosed, but OpenAI has made clear commitments about the future of Astral's products. Both companies have reassured the development community that these popular open source tools will continue to receive support and remain freely available. Charlie Marsh, who founded Astral three years ago with $4 million in seed funding, emphasised that the company will maintain its open source philosophy and continue building alongside the community for the broader Python ecosystem.

This acquisition is part of a broader strategy by OpenAI to enhance Codex's capabilities by enabling AI agents to work more directly with tools that developers rely on daily. The move comes during an intense rivalry with Anthropic's Claude Code for dominance in the AI-powered coding assistant market. Anthropic made a similar strategic acquisition in November when it purchased Bun, a JavaScript runtime with 7 million monthly downloads. OpenAI also recently acquired Promptfoo, makers of an open source security tool focused on large language models, demonstrating a pattern of strengthening its development tooling ecosystem through targeted acquisitions.

Fuente Original: https://arstechnica.com/ai/2026/03/openai-is-acquiring-open-source-python-tool-maker-astral/

Artículo generado mediante LaRebelionBOT

jueves, 19 de marzo de 2026

IA Reduce el Impacto Climatico del Vuelo Adios Estelas Nocivas

¿Sabías que las estelas de los aviones, esas largas huellas blancas en el cielo, contribuyen al cambio climático? Google ha estado investigando cómo la inteligencia artificial (IA) puede ser nuestra aliada para mitigar este impacto, y los resultados son prometedores. En un estudio reciente, se integraron los pronósticos de IA de Google directamente en las herramientas de planificación de vuelos de American Airlines.

IA Reduce el Impacto Climático del Vuelo: ¡Adiós Estelas Nocivas!

El objetivo era simple pero ambicioso: evitar la formación de estas estelas dañinas. En un ensayo que abarcó 2,400 vuelos transatlánticos, se observó una impresionante reducción del 62% en la formación de estelas en comparación con un grupo de control. Esto significa que, al planificar los vuelos de manera inteligente, utilizando la IA para predecir dónde se formarán las estelas y ajustando las rutas para evitarlas, podemos disminuir significativamente su efecto en el clima.

Este avance es especialmente importante porque automatiza un proceso que antes requería horas de coordinación manual. Si bien un estudio piloto anterior ya había demostrado una reducción del 54% en 70 vuelos, la integración directa en el software de las aerolíneas marca un paso gigantesco hacia la escalabilidad y la rentabilidad. Google está entusiasmado por seguir colaborando con la industria aérea para hacer de la evitación de estelas una realidad común, ofreciendo una solución práctica y efectiva para volar de forma más sostenible y reducir la huella climática de nuestros viajes aéreos.

Fuente Original: https://blog.google/innovation-and-ai/models-and-research/google-research/contrail-avoidance-research/

Artículo generado mediante LaRebelionBOT

MiniMax M27 Self-Evolving AI Redefines Research Workflow

Chinese AI startup MiniMax has unveiled its latest proprietary large language model, M2.7, marking a significant leap forward in AI development. What sets M2.7 apart is its groundbreaking 'self-evolving' capability. Instead of relying solely on human intervention for fine-tuning, M2.7 is instrumental in its own creation and optimisation. This sophisticated model can independently build, monitor, and refine its reinforcement learning harnesses, performing between 30% and 50% of its own development workflow.

MiniMax M2.7: Self-Evolving AI Redefines Research Workflow

This recursive self-improvement signifies a paradigm shift in the AI industry, moving towards a future where AI models are not just products of human research but also active participants in their own advancement. M2.7 is a reasoning-only text model that delivers intelligence comparable to leading AI systems while boasting superior cost efficiency. This proprietary model follows a trend seen in other Chinese AI firms, like z.ai, moving towards more proprietary frontier models, mirroring strategies adopted by US tech giants.

Technically, M2.7's self-evolution involves autonomously triggering log reading, debugging, and metric analysis. It optimises its programming performance by analysing failure patterns and planning code modifications through iterative loops. MiniMax's Head of Engineering, Skyler Miao, highlighted the model's intentional training for enhanced planning and user requirement clarification. M2.7 has also demonstrated impressive performance in complex environments, achieving a high medal rate in machine learning competitions designed to test autonomous research skills, placing it neck-and-neck with top-tier models from Google and Anthropic.

When compared to its predecessor, M2.5, M2.7 shows substantial improvements across various benchmarks. It excels in software engineering, achieving scores that match global leaders, and demonstrates high performance in professional office tasks, particularly document processing. A notable achievement is the significant reduction in its hallucination rate, a key metric for AI reliability. While not all benchmarks show M2.7 outperforming M2.5, its overall advancements and unique self-evolving architecture position it as a significant development in AI research and application.

Fuente Original: https://venturebeat.com/technology/new-minimax-m2-7-proprietary-ai-model-is-self-evolving-and-can-perform-30-50

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

IA Empresarial Microsoft Unifica la Realidad de los Agentes

En el vertiginoso mundo de la inteligencia artificial empresarial, los agentes de IA, al construirse en distintas plataformas, a menudo operan con "versiones de la realidad" diferentes. Esto se debe a que cada agente interpreta conceptos de negocio, como clientes u órdenes, a su manera, lo que genera inconsistencias y rompe las decisiones. Microsoft ha presentado una solución para este problema con una expansión significativa de Fabric IQ, su capa de inteligencia semántica.

IA Empresarial: ¡Microsoft Unifica la Realidad de los Agentes!

Fabric IQ ahora permite que cualquier agente, de cualquier proveedor, acceda a su ontología de negocio a través del estándar MCP (Microsoft Fabric). Esto significa que todos los agentes, independientemente de quién los haya desar rollado o para qué propósito, compartirán un conocimiento y contexto común. Además, Microsoft está integrando la planificación empresarial en Fabric IQ, unificando datos históricos, señales en tiempo real y objetivos organizacionales formales en una única capa consultable. La novedad del Database Hub también centraliza varias bases de datos de Azure bajo un mismo plano de gestión, fortaleciendo la estrategia de Fabric para ser una plataforma unificada.

La clave de esta evolución es el acceso a través de MCP, que convierte Fabric IQ en una infraestructura compartida para despliegues de agentes multi-proveedor. A diferencia de las técnicas como RAG (Retrieval-Augmented Generation), que son útiles para consultar grandes volúmenes de documentos, Fabric IQ se enfoca en proporcionar el estado del negocio en tiempo real y el contexto operativo fundamental que los agentes necesitan para funcionar de manera coherente. Los analistas ven el potencial de Microsoft, pero s eñalan que la adopción dependerá de la facilidad de integración y la capacidad de las organizaciones para gestionar esta nueva capa semántica como infraestructura de producción. La carrera por la plataforma de datos se centra ahora en quién puede ofrecer el contexto compartido más confiable a la mayor cantidad de agentes.

Fuente Original: https://venturebeat.com/data/enterprise-ai-agents-keep-operating-from-different-versions-of-reality

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Xiaomi Revoluciona IA con MiMo-V2-Pro Ultraeficiente

Xiaomi ha sorprendido al mundo de la inteligencia artificial con el lanzamiento de MiMo-V2-Pro, un modelo de lenguaje de 1 billón de parámetros que alcanza niveles de rendimiento comparables a GPT-5.2 y Claude Opus 4.6, pero a una fracción del costo. Dirigido por Fuli Luo, veterano del disruptivo proyecto DeepSeek R1, este modelo representa lo que Luo describe como una "emboscada silenciosa" en la frontera global de la IA. La compañía ha anunciado planes para liberar una versión de código abierto cuando el modelo alcance la estabilidad necesaria.

Xiaomi Revoluciona IA con MiMo-V2-Pro Ultraeficiente

MiMo-V2-Pro se distingue por su arquitectura dispersa innovadora: aunque contiene 1 billón de parámetros totales, solo 42 mil millones están activos durante cada procesamiento, haciéndolo tres veces más grande que su predecesor. El modelo utiliza un mecanismo de Atención Híbrida mejorado con una proporción 7:1, permitiendo gestionar una ventana de contexto masiva de 1 millón de tokens sin la degradación de rendimiento típica. Esta arquitectura permite al modelo mantener una "memoria" profunda de tareas prolongadas mientras optimiza recursos computacionales de manera eficiente.

En benchmarks de terceros verificados por Artificial Analysis, MiMo-V2-Pro alcanzó el puesto número 10 en el Índice Global de Inteligencia con una puntuación de 49, ubicándose en el mismo nivel que GPT-5.2 Codex. En tareas de agentes del mundo real medidas por GDPval-AA, logró un Elo de 1426, superando a sus principales competidores chinos como GLM-5 y Kimi K2.5. El modelo también demostró mejoras significativas con una tasa de alucinación reducida al 30 por ciento, comparado con el 48 por ciento de su versión Flash anterior.

El aspecto más disruptivo de MiMo-V2-Pro es su estrategia de precios agresiva. Ejecutar el índice completo de Artificial Analysis costó solo 348 dólares, en comparación con 2,304 dólares para GPT-5.2 y 2,486 dólares para Claude Opus 4.6, aproximadamente una séptima parte del costo. El modelo cobra 1 dólar por millón de tokens de entrada y 3 dólares por millón de tokens de salida para contextos de hasta 256K, posicionándose como una opción extremadamente competitiva frente a los gigantes occidentales de IA.

Xiaomi, reconocida como el tercer fabricante de smartphones más grande del mundo y una potencia emergente en vehículos eléctricos, está aplicando su experiencia en ingeniería del mundo físico a la IA. MiMo-V2-Pro está diseñado para ser el "cerebro" de sistemas complejos, desde la gestión de cadenas de suministro globales hasta agentes de codificación autónomos. Al enfocarse en el "espacio de acción" de la inteligencia en lugar del paradigma conversacional, Xiaomi intenta dar un salto cualitativo en cómo se aplica la IA en entornos empresariales y de producción.

Fuente Original: https://venturebeat.com/technology/xiaomi-stuns-with-new-mimo-v2-pro-llm-nearing-gpt-5-2-opus-4-6-performance

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

CISA Alerts Critical Zimbra and SharePoint Vulnerabilities

The Cybersecurity and Infrastructure Security Agency (CISA) has issued urgent warnings regarding active exploitation of critical security vulnerabilities affecting Zimbra and Microsoft SharePoint platforms. These alerts come alongside concerning reports of a Cisco zero-day vulnerability being leveraged in recent ransomware campaigns, highlighting the escalating threat landscape facing organisations worldwide.

CISA Alerts: Critical Zimbra and SharePoint Vulnerabilities

The vulnerabilities in question pose significant risks to enterprise communications and collaboration infrastructure. Zimbra, a widely-used email and collaboration platform, has been found to contain security flaws that threat actors are actively exploiting to gain unauthorised access to corporate networks. Similarly, Microsoft SharePoint, deployed across countless organisations for document management and collaboration, has been identified as having exploitable weaknesses that could allow attackers to compromise sensitive business data.

Perhaps most alarming is the revelation that cybercriminals have incorporated a Cisco zero-day vulnerability into their ransomware attack chains. This development demonstrates the sophisticated nature of modern cyber threats, where attackers combine multiple vulnerabilities to maximise their impact and evade detection. The use of previously unknown vulnerabilities in network infrastructure devices like Cisco equipment gives attackers powerful capabilities to move laterally across networks and establish persistent access.

Security professionals are being urged to prioritise patching these vulnerabilities immediately. CISA's warnings underscore the critical need for organisations to maintain robust vulnerability management programmes and implement zero-trust network architecture principles. The modern security paradigm emphasises moving away from traditional VPN-based access models towards comprehensive Zero Trust Network Access (ZTNA) solutions that connect users directly to applications, thereby eliminating opportunities for lateral movement within networks.

Organisations should conduct immediate audits of their Zimbra and SharePoint deployments, apply all available security patches, and review their network segmentation strategies. The convergence of these threats serves as a stark reminder that cybersecurity requires constant vigilance and proactive defence measures.

Fuente Original: https://thehackernews.com/2026/03/cisa-warns-of-zimbra-sharepoint-flaw.html

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

miércoles, 18 de marzo de 2026

IA Empresarial El Problema de Autorizacion que Puede Romperla

La inteligencia artificial (IA) generativa está revolucionando el mundo empresarial, pero trae consigo un desafío de seguridad fundamental: la gestión de la identidad y autorización de los agentes de IA. A medida que estos agentes interactúan con sistemas críticos como CRMs y bases de datos, surge la pregunta crucial: ¿quién o qué está autorizando estas acciones? La falta de un marco claro para definir la identidad y los permisos de los agentes de IA podría convertirse en un obstáculo insuperable para su adopción generalizada.

IA Empresarial: El Problema de Autorización que Puede Romperla

Las empresas se enfrentan a la necesidad de ir más allá de la simple autenticación. Mientras que otorgar credenciales a un agente puede ser relativamente sencillo, determinar qué acciones específicas tiene permitidas, bajo qué autoridad y durante cuánto tiempo, es un problema mucho más complejo. La tendencia actual de los desarrolladores a pegar directamente credenciales en las indicaciones de la IA, un riesgo de seguridad conocido, subraya la urgencia de soluciones robustas. Se está experimentando con estándares como SPIFFE y SPIRE, pero la adaptación a los agentes de IA no es directa. La clave reside en aplicar el principio de mínimo privilegio a las tareas específicas que el agente debe realizar, en lugar de otorgar permisos amplios basados en roles generales.

La dificultad no radica tanto en autenticar a un agente, sino en autorizar sus acciones de manera granular y auditable. Esto implica rastrear no solo qué agente actuó, sino también bajo qué autoridad y con qué credenciales. Se están explorando extensiones de OIDC como la solución principal, mientras que las propuestas propietarias de startups son vistas con escepticismo. A escala masiva, los casos límite se convierten en problemas reales que pueden causar un daño significativo. La solución definitiva pasará por construir una infraestructura de identidad desde cero, adaptada a la naturaleza de los agentes de IA, en lugar de intentar forzar las soluciones existentes diseñadas para humanos.

Fuente Original: https://venturebeat.com/security/the-authorization-problem-that-could-break-enterprise-ai

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Open AI Companies Embrace Risk for Innovation

In the rapidly evolving landscape of artificial intelligence, companies are increasingly opting for open AI models despite the inherent risks. This strategic choice is driven by a belief that the potential benefits of widespread access and collaborative development far outweigh the challenges.

Open AI: Companies Embrace Risk for Innovation

The article highlights that while open AI models offer significant advantages, such as fostering faster innovation and broader adoption, they also present considerable dangers. These risks include the potential for misuse, the spread of misinformation, and the development of harmful applications. However, many leading technology firms are willing to navigate these complexities, viewing them as necessary hurdles in the pursuit of groundbreaking advancements.

The decision to embrace open AI s ignifies a shift in how companies approach AI development. Instead of maintaining proprietary control, there's a growing trend towards sharing technology and knowledge, which proponents argue will accelerate progress and democratise access to powerful AI tools. This open approach allows a wider community of researchers and developers to contribute, identify vulnerabilities, and build upon existing frameworks, ultimately leading to more robust and beneficial AI systems. The underlying sentiment is that the collective intelligence and shared responsibility fostered by open models are crucial for unlocking AI's full potential, even with the associated security and ethical considerations.

Fuente Original: https://news.google.com/rss/articles/CBMiqwFBVV95cUxPbms3V2d3RjdVc0hnQlBLSTBfMHh2VHRGaGV2X2xQLUx6XzVDTDh6ZnBONy1mdTUzN0xFUzMwYXF0UFlyeGdhNVBmT3ROdXNrUUE2RnhZdkw1ZjVxbGRVaTUwWnFSemV6dnd3Yjk3Rk1HaUJtYTVXNlVDV19fTnZndUZTTEo1VThHdENKV1B0RnFpa0NuV1ZmQ0s1T3RMN2Y2emI0c0JmN09MS0U?oc=5

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Nvidia Desata Poderosas Claws IA Empresariales Seguras

Nvidia está revolucionando el panorama de la inteligencia artificial empresarial con el lanzamiento de NemoClaw, una plataforma diseñada para integrar y asegurar la creciente adopción de agentes autónomos de IA, conocidos como 'claws'. Estos 'claws' representan un salto cualitativo respecto a los asistentes de IA anteriores, ya que son capaces de planificar, ejecutar tareas complejas, escribir código, navegar por internet y encadenar acciones de forma independiente durante extensos períodos de tiempo, sin intervención humana. El CEO de Nvidia, Jensen Huang, ha calificado a esta tecnología como el "sistema operativo para la IA personal", marcando un "nuevo renacimiento en el software" y posicionando a Nvidia como un actor clave en su preparación para el entorno empresarial.

Nvidia Desata Poderosas 'Claws' IA Empresariales Seguras

NemoClaw no es un competidor de plataformas como OpenClaw, sino un "envoltorio empresarial" que añade las capas de seguridad y escalabilidad necesarias para que estos agentes operen de forma fiable en entornos corporativos. Sus dos componentes principales son Nvidia Nemotron, una familia de modelos de IA de código abierto que pueden ejecutarse localmente, y Nvidia OpenShell, un runtime de seguridad de código abierto. OpenShell actúa como un entorno seguro, aislando cada 'claw' dentro de un contenedor (similar a Docker) con políticas configurables en YAML. Esto permite a los administradores definir con precisión qué archivos, conexiones de red y servicios en la nube puede utilizar un agente, bloqueando cualquier acceso no autorizado y mitigando así la superficie de ataque que de otro modo sería considerable.

La integración de NemoClaw aborda directamente la preocupación gener alizada sobre la seguridad y la gobernanza de los agentes autónomos. Harrison Chase, fundador de LangChain, subraya la demanda existente de una versión segura de estas tecnologías en las empresas, siendo la falta de una capa de seguridad y gobernanza creíble el principal obstáculo. Nvidia responde a este desafío con NemoClaw, que no solo facilita la ejecución local de modelos de IA avanzados, sino que también incluye un "router de privacidad" que dirige consultas a modelos más potentes en la nube cuando es necesario, sin exponer datos sensibles. La plataforma se complementa con el Nvidia Agent Toolkit y cuenta con el respaldo de importantes socios como Box y Cisco, quienes ya están demostrando el potencial de los 'claws' en flujos de trabajo como la gestión de documentos empresariales o la respuesta automatizada a vulnerabilidades de seguridad, demostrando un compromiso integral de Nvidia para hacer que la IA autónoma sea segura, escalable y accesible para el mundo empre sarial.

Fuente Original: https://venturebeat.com/technology/nvidia-lets-its-claws-out-nemoclaw-brings-security-scale-to-the-agent

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Mistral AI Lanza Forge para Entrenar Modelos Propios

Mistral AI ha lanzado Forge, una plataforma empresarial de entrenamiento de modelos que permite a las organizaciones construir, personalizar y mejorar continuamente modelos de IA utilizando sus propios datos propietarios. Este movimiento posiciona al laboratorio francés de IA en competencia directa con los gigantes de la nube en uno de los mercados más importantes de la tecnología empresarial.

Mistral AI Lanza Forge para Entrenar Modelos Propios

Forge va significativamente más allá de las APIs de ajuste fino que Mistral y sus competidores han ofrecido durante el último año. La plataforma soporta el ciclo completo de entrenamiento de modelos: pre-entrenamiento con grandes conjuntos de datos internos, post-entrenamiento mediante ajuste fino supervisado, y lo más crítico, pipelines de aprendizaje por refuerzo diseñados para alinear modelos con políticas internas y objetivos operacionales a lo largo del tiempo. Según Elisa Salamanca, jefa de producto en Mistral AI, Forge permite a empresas y gobiernos personalizar modelos de IA para sus necesidades específicas utilizando metodologías que los científicos de IA de Mistral emplean internamente.

La distinción que Mistral está estableciendo entre el ajuste fino ligero y el entrenamiento completo de modelos es fundamental. Durante los últimos dos años, la mayoría de la adopción empresarial de IA ha seguido un patrón conocido: las empresas seleccionan un modelo de propósito general y aplican ajustes a través de una API en la nube. Sin embargo, Salamanca argumenta que este enfoque se estanca cuando las organizaciones intentan resolver sus problemas más difíciles. Los ejemplos de clientes incluyen una institución pública que trabajaba con manuscritos antiguos con texto faltante, Ericsson traduciendo código heredado a moderno, y fondos de cobertura desarrollando modelos para lenguajes cuantitativos propietarios que nunca exponen a servicios de IA alojados en la nube.

El modelo de negocio de Forge opera a través de varias fuentes de ingresos. Para clientes que ejecutan trabajos de entrenamiento en sus propios clusters de GPU, Mistral no cobra por el cómputo sino que cobra una tarifa de licencia por la plataforma Forge, junto con tarifas opcionales por servicios de pipeline de datos y científicos integrados que trabajan junto al equipo del cliente. La infraestructura es flexible: el entrenamiento puede ocurrir en los clusters de Mistral, en Mistral Compute, o completamente on-premise dentro de los centros de datos del cliente. Cuando los clientes entrenan en su propia infraestructura, Mistral nunca ve los datos, manteniéndolos completamente bajo control del cliente.

El lanzamiento de Forge llega junto con otros anuncios importantes de Mistral: el modelo Mistral Small 4, Leanstral (un agente de código open-source para verificación formal), y su unión a la Coalición Nemotron de Nvidia como co-desarrollador del primer modelo base abierto de frontera de la coalición. Estos movimientos pintan el cuadro de una compañía que ya no se contenta con competir solo en benchmarks de modelos, sino que corre para convertirse en la columna vertebral de infraestructura para organizaciones que quieren poseer su IA en lugar de rentarla. Forge representa una apuesta de que las empresas que posean sus modelos de IA serán las que ganen, especialmente aquellas sentadas sobre décadas de conocimiento propietario en dominios altamente especializados donde los modelos genéricos son menos suficientes.

Fuente Original: https://venturebeat.com/infrastructure/mistral-ai-launches-forge-to-help-companies-build-proprietary-ai-models

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Mamba 3 Revolutionises AI With Superior Efficiency

The artificial intelligence landscape has been dominated by Transformer architecture since Google's groundbreaking 2017 paper, but a new challenger has emerged that promises to reshape how we think about AI efficiency. Mamba 3, the latest iteration of the State Space Model architecture, has been released under an open-source Apache 2.0 licence, offering developers and enterprises a compelling alternative that delivers nearly 4% improved language modelling performance whilst significantly reducing computational costs and latency.

Mamba 3 Revolutionises AI With Superior Efficiency

Developed by researchers led by Albert Gu of Carnegie Mellon and Tri Dao of Princeton, Mamba 3 represents a fundamental shift from training efficiency to an "inference-first" design philosophy. Unlike Transformers, which require massive computational resources and suffer from quadratic compute demands, Mamba 3 functions as a high-speed "summary machine" that maintains a compact internal state rather than re-examining every piece of previously processed data. This State Space Model approach allows AI to process vast amounts of information with incredible speed and drastically lower memory requirements.

The breakthrough centres on three key technological innovations. First, exponential-trapezoidal discretisation provides more accurate mathematical approximations of the system. Second, complex-valued SSMs employing the "RoPE trick" enable the model to solve reasoning tasks that were impossible for previous versions, finally bridging the "logic gap" that plagued efficient Transformer alternatives. Third, the Multi-Input, Multi-Output formulation transforms how the model interacts with hardware, performing up to four times more mathematical operations in parallel without increasing user wait times.

At the 1.5-billion-parameter scale, Mamba 3's most advanced variant achieved 57.6% average accuracy across benchmarks, representing a 2.2-percentage-point improvement over industry-standard Transformers. Perhaps most impressively, it matches its predecessor's predictive quality whilst using only half the internal state size, effectively delivering the same intelligence with significantly less memory overhead. This efficiency translates directly into reduced costs for enterprises deploying AI at scale.

For businesses, Mamba 3 offers a strategic advantage in total cost of ownership for AI deployments. By matching performance with half the state size, it effectively doubles inference throughput for the same hardware footprint. This makes it particularly valuable for agentic workflows like automated coding or real-time customer service, where low-latency generation is critical. The researchers predict the future lies in hybrid models that combine Mamba 3's efficient memory with Transformers' precise storage capabilities, offering organisations the best of both approaches.

Fuente Original: https://venturebeat.com/technology/open-source-mamba-3-arrives-to-surpass-transformer-architecture-with-nearly

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT