miércoles, 11 de marzo de 2026

SUSE Sale EQT Eyes 6 Billion Enterprise Software Deal

It appears private equity giant EQT AB is considering offloading SUSE, the well-established open-source Linux company. Reports suggest EQT has engaged investment bank Arma Partners to gauge interest from other private equity firms for a potential sale. This move could see SUSE valued at a remarkable $6 billion, effectively doubling its valuation since EQT took it private just last year.

SUSE Sale: EQT Eyes $6 Billion Enterprise Software Deal

The discussions are reportedly in their nascent stages, and there's no guarantee a deal will materialise, especially given the current volatility in the software stock market. The broader sell-off has made mergers and acquisitions more challenging, partly due to investor concerns that emerging AI technologies might render some existing software products obsolete, thus impacting tech valuations. However, there's a counter-narrative suggesting SUSE could actually benefit from the AI boom. Its enterprise-grade infrastructure software is seen as crucial for companies developing and deploying AI applications, potentially driving increased demand.

SUSE, which generates around $800 million in revenue and over $250 million in EBITDA, could command a significant price tag in a sale, with estimates ranging from $4 billion to $6 billion. This potential transaction highlights the ongoing strategic shifts within the private equity landscape and the evolving perception of established software companies in the age of artificial intelligence.

Fuente Original: https://linux.slashdot.org/story/26/03/10/0450204/eqt-eyes-6-billion-sale-of-suse?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artí culos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

NVIDIA Revolucion IA con Plataforma de Agentes Empresariales

NVIDIA, el gigante indiscutible en hardware de inteligencia artificial, parece estar expandiendo su dominio al terreno del software. Según informes recientes, la compañía estaría desarrollando una plataforma de agentes IA de código abierto para empresas, apodada internamente 'NemoClaw'. Este movimiento estratégico busca establecer a NVIDIA no solo como el motor de la IA, sino también como su columna vertebral de software.

NVIDIA: ¿Revolución IA con Plataforma de Agentes Empresariales?

NemoClaw se presenta como una solución diseñada para que las empresas implementen agentes de IA capaces de realizar tareas complejas con mínima supervisión humana. Estas tareas incluirían el procesamiento de datos, la gestión de flujos de trabajo y la ejecución de instrucciones multifacéticas. Un aspecto crucial de esta plataforma, según las fuentes, es la inclusión de herramientas de seguridad y privacidad integradas. Esto responde directamente a las preocupaciones generadas por fallos de seguridad en herramientas de IA para consumidores, que han mermado la confianza en este tipo de tecnologías.

Lo que hace a NemoClaw particularmente interesante es su naturaleza potencialmente agnóstica al hardware. A diferencia de la dependencia histórica de NVIDIA de su ecosistema CUDA, esta nueva plataforma podría ser utilizada por empresas sin importar la infraestructura que posean. Esto se alinea con estrategias exitosas de otras compañías, como Meta con Llama, que buscan crear ecosistemas amplios al ofrecer software abierto. El nombre 'NemoClaw' combina la referencia al framework NeMo de NVIDIA y a la familia de modelos Nemotron, con la palabra 'Claw' que evoca el ecosistema de agentes de IA de código abierto que ha ganado popularidad recientemente.

La estrategia de código abierto podría traducirse en un modelo de colaboración donde los socios obtengan acceso temprano a cambio de contribuir al desarrollo. La filtración coincide con la proximidad de la conferencia GTC de NVIDIA, donde se espera que Jensen Huang, CEO de la compañía, presente las direcciones futuras de la empresa, incluyendo la IA agentiva. El mercado está cada vez más competido, con ofertas similares de OpenAI, Microsoft y Google, pero NVIDIA podría diferenciarse por su credibilidad en hardware y su apuesta por la neutralidad en el software, permitiendo que diversos proveedores construyan sobre su plataforma.

Fuente Original: https://thenextweb.com/news/nvidia-is-reportedly-building-an-enterprise-ai-agent-platform

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

IA Reescribe Codigo Abierto y Cambia Licencias

La inteligencia artificial está revolucionando el desarrollo de software, pero plantea interrogantes legales y éticos sin precedentes. Tradicionalmente, los programadores utilizaban la ingeniería inversa en "salas limpias" para replicar funcionalidades sin copiar código protegido por derechos de autor. Ahora, las herramientas de codificación con IA están transformando este proceso de manera radical, generando intensos debates en la comunidad de código abierto.

IA Reescribe Código Abierto y Cambia Licencias

El conflicto estalló con el lanzamiento de la versión 7.0 de chardet, una popular biblioteca de Python para detectar codificación de caracteres. El código original fue escrito por Mark Pilgrim en 2006 bajo licencia LGPL, que impone restricciones estrictas sobre su reutilización. Dan Blanchard, quien mantenía el proyecto desde 2012, utilizó Claude Code para reescribir completamente la biblioteca en solo cinco días, cambiando la licencia a MIT, mucho más permisiva. El resultado: un código 48 veces más rápido y supuestamente más preciso.

Pilgrim argumenta que esta nueva versión constituye una relicenciación ilegítima de su código original, ya que Blanchard tuvo amplia exposición al código LGPL. Según Pilgrim, usar un generador de código no otorga derechos adicionales para cambiar la licencia. Por su parte, Blanchard defiende que el nuevo código es "cualitativamente diferente" y estructuralmente independiente, citando estadísticas que muestran solo 1.29% de similitud máxima entre versiones, comparado con 80% en actualizaciones anteriores hechas por humanos.

El proceso que Blanchard denomina "sala limpia con IA" implicó comenzar con un repositorio vacío, instruyendo explícitamente a Claude a no basarse en código bajo licencias LGPL/GPL. Sin embargo, varios factores complican esta narrativa: Claude utilizó algunos archivos de metadatos de versiones anteriores, sus modelos fueron entrenados con datos de Internet que probablemente incluyen el código original de chardet, y Blanchard revisó e iteró profundamente sobre cada aspecto del código generado, a pesar de su conocimiento íntimo de las versiones previas.

La directora ejecutiva de la Free Software Foundation, Zoë Kooyman, afirma categóricamente que no hay nada "limpio" en un modelo de lenguaje que ha ingerido el código que se le pide reimplementar. Sin embargo, otros desarrolladores como Armin Ronacher argumentan que si todo el código se descarta y se comienza desde cero, aunque el resultado funcione igual, es efectivamente un nuevo proyecto. El estatus legal del código generado por IA permanece en gran medida sin resolver, con tribunales aún sin pronunciarse sobre las implicaciones de licenciamiento de software creado total o parcialmente por inteligencia artificial.

Las consecuencias prácticas de esta capacidad para reescribir y relicenciar rápidamente proyectos de código abierto son monumentales. El desarrollador Salvatore Sanfilippo sugiere que la naturaleza del software ha cambiado fundamentalmente y que es necesario construir nuevos modelos mentales en lugar de combatir cada manifestación de programación automática. Bruce Perens va más allá, declarando que "toda la economía del desarrollo de software está muerta", comparando este momento transformador con la invención de la imprenta o el método científico. La comunidad tecnológica enfrenta un punto de inflexión que redefinirá las reglas del desarrollo de software para siempre.

Fuente Original: https://arstechnica.com/ai/2026/03/ai-can-rewrite-open-source-code-but-can-it-rewrite-the-license-too/

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Mario Day 2026 LEGO Reveals and Gaming Deals

Mario Day 2026 has arrived with a spectacular array of announcements and offers for fans of the iconic plumber. This annual celebration, held on 10th March (MAR10), has become a beloved tradition amongst gaming enthusiasts, and this year's festivities promise exciting new merchandise, gaming deals, and product reveals that showcase the enduring popularity of Nintendo's most famous character.

Mario Day 2026: LEGO Reveals and Gaming Deals

The highlights of Mario Day 2026 include a highly anticipated LEGO reveal featuring new Super Mario minifigures. These collectible figures continue the successful partnership between LEGO and Nintendo, offering fans fresh ways to build and interact with their favourite Mushroom Kingdom characters. The LEGO Super Mario range has proven immensely popular since its introduction, combining the creative building experience with interactive gameplay elements that bring the digital world into physical form.

Gaming enthusiasts can also take advantage of significant discounts on Nintendo Switch titles throughout the Mario Day celebration. These deals provide an excellent opportunity for both newcomers and longtime fans to expand their Super Mario game collections at reduced prices. The offers span various titles in the franchise, ensuring there's something available for players of all ages and preferences.

Adding to the excitement, a new Yoshi game has been announced, marking another adventure for Mario's trusty dinosaur companion. Yoshi games have consistently delivered charming, family-friendly experiences with unique gameplay mechanics, and this latest entry promises to continue that tradition whilst introducing fresh ideas to the beloved series.

Mario Day has evolved into much more than a simple marketing exercise; it's become a genuine celebration of one of gaming's most enduring and influential franchises. From humble beginnings in the 1980s, Super Mario has grown into a cultural phenomenon that spans generations, and events like Mario Day 2026 demonstrate the character's continuing relevance in today's gaming landscape.

Fuente Original: https://news.google.com/rss/articles/CBMiigFBVV95cUxNaEFEcnlxZUxqMGhGTmtSRFJhUnE3WlE5NDdnVEhDV2Q1dVduN2lRem5rNDJSY0FzLXA4TmE5R3Raa3NQSUdUbTdZMEd4SkR5X0RvS25TOXdlbWFPa3FqajNPS0hjZFVuTDY4bHp2ZHhCYWFGOFZ3eWlqLWQ5MWtobFBIcnFjR1YzTUE?oc=5

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

martes, 10 de marzo de 2026

IA en Empresas Identidad Humana vs Agentes AI

El mundo de la seguridad empresarial está experimentando una transformación radical con la llegada de los agentes de Inteligencia Artificial (IA). Estos agentes, capaces de realizar acciones complejas como iniciar sesión, acceder a datos y ejecutar flujos de trabajo, están surgiendo más rápido de lo que los equipos de seguridad pueden controlar. El problema fundamental es que los sistemas de identidad y acceso, diseñados para usuarios humanos, no están preparados para gestionar la naturaleza autónoma y dinámica de estos agentes de IA. Las arquitecturas actuales asumen comportamientos predecibles y responsabilidades claras, características que los agentes de IA rompen por completo.

IA en Empresas: Identidad Humana vs. Agentes AI

La proli feración de herramientas de IA y agentes autónomos en las empresas supera la capacidad de los equipos de seguridad para instrumentarlos y gobernarlos. Los sistemas de identidad heredados se basan en supuestos de usuarios estáticos, cuentas de servicio de larga duración y roles fijos, incapaces de representar la autoridad delegada, los contextos de ejecución efímeros o los bucles de decisión rápidos de los agentes. Como resultado, los líderes de TI deben reconsiderar la capa de confianza fundamental. La arquitectura de Confianza Cero de NIST, que considera a todas las entidades no humanas como no confiables hasta su autenticación y autorización, subraya esta necesidad. En un mundo cada vez más influenciado por agentes de IA, estos sistemas deben poseer identidades propias, verificables y explícitas, en lugar de operar con credenciales compartidas o heredadas.

Los entornos de desarrollo son un primer punto de quiebre. Los Entornos de Desarrollo Integrado (IDE) evolu cionan para convertirse en orquestadores con capacidades de IA, introduciendo riesgos concretos de inyección de comandos. El contenido del proyecto, incluso de fuentes no confiables, puede alterar el comportamiento de los agentes de formas imprevistas. Los agentes ingieren datos de diversas fuentes, incluyendo documentación, archivos de configuración y metadatos de herramientas, influyendo en su toma de decisiones. La acumulación de agentes autónomos con privilegios elevados amplifica el riesgo, ya que carecen de contexto, moralidad y la capacidad de discernir la legitimidad de una solicitud de autenticación. Su naturaleza continua y su falta de responsabilidad humana complican enormemente la detección de anomalías y la rendición de cuentas.

La gestión tradicional de identidad y acceso (IAM) falla ante los agentes debido a varios factores: los modelos de privilegios estáticos no se adaptan a los flujos de trabajo dinámicos de los agentes; la rendición de cuentas h umana se desdibuja al no poder atribuir acciones a individuos específicos; la detección basada en el comportamiento es ineficaz contra la actividad continua y multifacética de los agentes; y las identidades de los agentes a menudo son invisibles para los sistemas IAM convencionales. Para abordar esto, se requiere un replanteamiento de la arquitectura de seguridad. La identidad debe convertirse en el plano de control para los agentes de IA, con políticas de acceso contextuales y granulares. Las credenciales deben manejarse bajo esquemas de conocimiento cero, y la auditabilidad debe capturar el quién, el bajo qué autoridad, el alcance y la cadena completa de acciones del agente. Establecer límites de confianza claros entre humanos, agentes y sistemas es crucial, separando la intención de la ejecución. El futuro de la seguridad empresarial reside en sistemas de identidad que puedan gestionar el contexto, la delegación y la rendición de cuentas en tiempo real, haciendo que lo s agentes sean gobernales y no una fuente de riesgo no gestionado.

Fuente Original: https://venturebeat.com/security/enterprise-identity-was-built-for-humans-not-ai-agents

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

LeCuns 1Bn Bet Rethinking AI Beyond LLMs

Yann LeCun, a celebrated Turing Award winner and former Meta AI chief, has embarked on a new venture, Advanced Machine Intelligence Labs (AMI), fuelled by an unprecedented $1.03 billion in seed funding. LeCun departed Meta convinced that the current dominance of large language models (LLMs) represents a fundamental misunderstanding of AI. He argues that LLMs, while impressive in their linguistic capabilities, are essentially statistical illusions, lacking true intelligence. His vision for AMI is to build a new generation of AI systems based on 'world models'.

LeCun's $1Bn Bet: Rethinking AI Beyond LLMs

AMI's core philosophy revolves around the Joint Embedding P redictive Architecture (JEPA), a framework LeCun has championed. Unlike LLMs that predict the next word in a sequence, JEPA aims to learn abstract representations of how the world operates, drawing parallels to how humans and animals learn through embodied experience and understanding physical reality, rather than solely through language. This approach seeks to overcome the limitations and "hallucinations" inherent in current generative AI models by focusing on understanding underlying principles rather than just surface-level predictions.

The substantial seed funding, the largest ever for a European startup, was co-led by major firms including Cathay Innovation, Greycroft, Hiro Capital, HV Capital, and Bezos Expeditions, with significant participation from industry giants like Nvidia and Toyota. AMI, headquartered in Paris, also plans offices in New York, Montreal, and Singapore, aiming to establish itself as a key European AI player, a deliberate counterpoint to the dominant American and Chinese tech powers. LeCun envisions AMI developing "fairly universal intelligent systems" within five years, positioning the company to be a primary provider of machine intelligence across various domains. The company's immediate focus will be on research and development, with LeCun acknowledging that world models represent a long-term scientific endeavour, signalling a patient, fundamental approach to AI innovation.

Fuente Original: https://thenextweb.com/news/yann-lecun-ami-labs-world-models-billion

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

NPM Roba Credenciales macOS Peligro Oculto

Los desarrolladores de software se enfrentan a una nueva amenaza en el ecosistema de Node.js. Un paquete malicioso, disfrazado de instalador legítimo para la herramienta de código abierto OpenClaw, ha sido descubierto propagando malware y robando credenciales sensibles de usuarios de macOS. Esta campaña de suministro de software, que aprovecha el popular gestor de paquetes npm, pone de manifiesto la constante evolución de las tácticas de los ciberdelincuentes.


El paquete malicioso, identificado con el nombre 'openclaw-installer', se hace pasar por una utilidad necesaria para instalar OpenClaw, una herramienta de código abierto para redes. Sin embargo, su verdadera intención es desplegar un RAT (Remote Access Trojan) en los sistemas de las víctimas. Una vez activo, es te malware tiene la capacidad de ejecutar comandos de forma remota, permitiendo a los atacantes tomar el control del equipo comprometido sin el conocimiento del usuario. Además, la amenaza va más allá, ya que el RAT está diseñado para exfiltrar información crítica, incluyendo las credenciales almacenadas en los llaveros de macOS, información de sesión de navegadores y datos de aplicaciones sensibles.

La sofisticación de este ataque reside en su método de distribución. Al ser publicado en el registro de npm, un repositorio ampliamente utilizado por desarrolladores de todo el mundo, el paquete malicioso puede ser fácilmente descargado e integrado en proyectos legítimos, extendiendo su alcance de manera silenciosa. Los investigadores de seguridad advierten que este tipo de ataques a la cadena de suministro de software representan un riesgo significativo, ya que explotan la confianza que los desarrolladores depositan en las bibliotecas de código abierto. La campaña busca principalmente obtener acceso a información financiera y de identificación personal, que luego puede ser vendida en la dark web o utilizada para otros fines ilícitos. Se recomienda a los desarrolladores que verifiquen cuidadosamente las dependencias que integran en sus proyectos y mantengan actualizadas tanto sus herramientas como sus sistemas de seguridad.

Fuente Original: https://thehackernews.com/2026/03/malicious-npm-package-posing-as.html

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Anthropic Lanza Code Review Mientras Demanda al Pentagono

Anthropic ha presentado Code Review, un sistema innovador de revisión de código integrado en Claude Code que utiliza múltiples agentes de inteligencia artificial para analizar cada solicitud de extracción en busca de errores que los revisores humanos suelen pasar por alto. Esta funcionalidad, disponible en vista previa para clientes de los planes Team y Enterprise, llega en un momento crucial: la compañía presentó simultáneamente demandas contra la administración Trump por su inclusión en una lista negra del Pentágono, mientras Microsoft anunció una asociación para integrar Claude en su plataforma Microsoft 365 Copilot.

Anthropic Lanza Code Review Mientras Demanda al Pentágono

Code Review funciona de manera diferente a las herramientas convencionales de revisión de código. Cuando un desarrollador abre una solicitud de extracción, el sistema despliega varios agentes de IA que operan en paralelo, buscando errores de forma independiente, verificando sus hallazgos entre sí para eliminar falsos positivos y clasificando los problemas restantes por gravedad. El proceso toma aproximadamente 20 minutos, mucho más lento que alternativas como GitHub Copilot, pero esto es intencional. Anthropic posiciona esta herramienta como un producto de seguro para la calidad del código, no como una herramienta de productividad para acelerar revisiones.

El precio de 15 a 25 dólares por revisión generará debate en la industria. Anthropic justifica este costo argumentando que es insignificante comparado con el precio de un error en producción, que puede incluir reversiones, correcciones urgentes y tiempo de ingenieros. Los datos internos de la compañía muestran que en solicitudes grandes de más de 1,000 líneas, el 84% recibe hallazgos con un promedio de 7.5 problemas por revisión. En cambio, en solicitudes pequeñas de menos de 50 líneas, solo el 31% recibe observaciones.

El lanzamiento coincide con una batalla legal sin precedentes. Anthropic demandó a la administración Trump tras ser designada como un riesgo para la cadena de suministro de seguridad nacional, una clasificación históricamente reservada para adversarios extranjeros. El conflicto surgió cuando las negociaciones con el Pentágono colapsaron debido a las líneas rojas de Anthropic: la compañía se negó a permitir que su IA se usara en armas totalmente autónomas o vigilancia masiva doméstica. Según la demanda, esta designación ya está causando cancelaciones de contratos y pone en riesgo cientos de millones de dólares en ingresos.

A pesar de la controversia gubernamental, los tres principales socios en la nube de Anthropic (Microsoft, Google y Amazon Web Services) confirmaron que Claude permanece disponible para sus clientes en cargas de trabajo no relacionadas con defensa. Microsoft llegó incluso más lejos al anunciar Copilot Cowork, que integra Claude en Microsoft 365 Copilot para tareas empresariales como crear presentaciones, manipular hojas de cálculo de Excel y coordinar reuniones. Esta reafirmación de compromiso por parte de gigantes tecnológicos envía una señal clara al mercado sobre el valor técnico de Claude y su confianza en la viabilidad legal de la compañía.

Fuente Original: https://venturebeat.com/technology/anthropic-rolls-out-code-review-for-claude-code-as-it-sues-over-pentagon

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

AI Agents Now Run Research Experiments Overnight

Andrej Karpathy, the former Tesla AI lead and OpenAI co-founder, has released a groundbreaking open-source project called 'autoresearch' that fundamentally changes how artificial intelligence research is conducted. This simple 630-line script, available on GitHub under an MIT licence, automates the scientific method using AI agents that work autonomously whilst humans sleep. The system creates an optimization loop where AI agents read their own source code, form hypotheses for improvement, modify the code, run experiments, and evaluate results—all without human intervention.

AI Agents Now Run Research Experiments Overnight

The autoresearch agent operates on a fixed compute budget, typically five minutes on a GPU. It measures success through validation loss improvements, keeping beneficial changes and reverting unsuccessful ones. In Karpathy's initial overnight run, the agent completed 126 experiments, reducing loss from 0.9979 to 0.9697. After running for two days, it processed approximately 700 autonomous changes, discovering roughly 20 additive improvements that transferred to larger models. This resulted in an 11 per cent efficiency gain, dropping the 'Time to GPT-2' metric from 2.02 hours to 1.80 hours on what Karpathy already considered a well-tuned project.

The implications extend far beyond computer science. Varun Mathur, CEO of Hyperspace AI, distributed the concept across a peer-to-peer network where 35 autonomous agents ran 333 experiments in a single night. These agents demonstrated remarkable emergent behaviour: CPU-only agents on laptops focused on clever initialization strategies whilst H100 GPUs used brute force approaches. Using gossip protocols, agents shared discoveries in real-time, with successful strategies spreading rapidly through the network. In just 17 hours, these agents independently rediscovered machine learning milestones that took human researchers at Google Brain and OpenAI nearly eight years to formalise.

The business world quickly recognised the revolutionary potential. Eric Siu, founder of Single Grain, applied autoresearch to marketing, arguing that whilst most marketing teams run 20 to 30 experiments annually, the next generation will run over 36,500 experiments per year. By replacing training scripts with marketing assets—landing pages, ad creatives, or email campaigns—agents can continuously test variables, measure response rates, and optimise performance autonomously. This creates a proprietary knowledge base that becomes a competitive advantage built on experimental history rather than human insight alone.

However, the GitHub community has raised important concerns. Researchers worry about over-optimisation, where parameters become tuned to validation set quirks rather than general performance. Questions remain about whether the gains are truly substantial or merely statistical artefacts. Despite these concerns, the shift is clear: human researchers are transitioning from experimenters to experimental designers, defining the constraints whilst AI agents execute the tedious work of iteration. As Karpathy noted, agents caught oversights in attention scaling and regularisation that he had missed manually over two decades of work. The bottleneck of AI progress is no longer human coding ability—it's our capacity to define meaningful search parameters for these autonomous systems.

Fuente Original: https://venturebeat.com/technology/andrej-karpathys-new-open-source-autoresearch-lets-you-run-hundreds-of-ai

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

lunes, 9 de marzo de 2026

IA Doble Agente Microsoft Lanza Soluciones de Control

Microsoft está tomando medidas significativas para abordar los crecientes riesgos de seguridad asociados con la proliferación de agentes de inteligencia artificial (IA) dentro de las grandes organizaciones. Ante la rápida adopción de estas herramientas, que a menudo operan sin la supervisión adecuada, la compañía ha anunciado la disponibilidad general de dos productos clave: Agent 365 y Microsoft 365 Enterprise 7, ambos disponibles a partir del 1 de mayo.

IA 'Doble Agente': Microsoft Lanza Soluciones de Control

Agent 365 actúa como un "plano de control" para los agentes de IA, permitiendo a los equipos de TI, seguridad y negocios observar, gobernar y asegurar estas entidades de f orma centralizada. Este servicio, con un costo de 15 dólares por usuario al mes, es crucial dado que un informe de Microsoft reveló que casi el 29% de los agentes de IA en las empresas operan sin aprobación, y solo el 47% utiliza herramientas de seguridad para sus implementaciones de IA. El riesgo de que estos agentes sean manipulados para actuar en contra de los intereses de la empresa, conocidos como "agentes doble", es una preocupación creciente.

Microsoft 365 Enterprise 7, por su parte, es una suite integral que combina Agent 365 con Microsoft 365 Copilot y las capacidades de seguridad más avanzadas de la empresa por 99 dólares por usuario al mes. Esta oferta busca proporcionar una solución unificada ante la complejidad y el riesgo de utilizar múltiples herramientas fragmentadas. La compañía también está expandiendo las capacidades de sus agentes de IA con la Ola 3 de Microsoft 365 Copilot, incorporando modelos de OpenAI y Anthropic, como Claude. La estrategia de Microsoft se centra en extender los principios de "confianza cero" desde los usuarios humanos a los sistemas de IA, asegurando que los agentes tengan identidades únicas, se apliquen políticas de acceso condicional y se proteja la información sensible.

El problema de los agentes no gobernados es acuciante. Más del 80% de las empresas Fortune 500 utilizan agentes de IA, pero una parte significativa carece de aprobación formal. Microsoft está respondiendo a esta brecha de visibilidad y riesgo con soluciones que buscan ofrecer observabilidad, seguridad y gobernanza. La oferta de estos productos, especialmente el paquete Enterprise 7, posiciona a Microsoft como un proveedor clave para las organizaciones que buscan implementar IA de manera segura y controlada, intentando equilibrar la velocidad de innovación con la necesidad de una gobernanza robusta para garantizar "agentes confiables" en el futuro del trabajo.

Fuente Original: https://venturebeat.com/technology/microsoft-says-ungoverned-ai-agents-could-become-corporate-double-agents-its

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

AI Agents Need Processes Are Your Operations Ready

Many enterprises are eagerly pursuing the transformative power of agentic AI, with a significant majority aiming to implement it within the next three years. However, a stark reality check reveals that most organisations are not operationally prepared to support this ambition. A recent report highlights a critical disconnect: while leaders recognise AI as a major competitive opportunity, they also admit their current workflows, systems, and operational resilience are not equipped to handle autonomous AI agents. This lack of foundational groundwork means that even impressive AI demonstrations often falter when deployed in a real-world enterprise setting, leading to scepticism about ROI.

AI Agents Need Processes: Are Your Operations Ready?

The core issue lies in the absence of a robust process layer. For AI agents to function effectively and autonomously, they require optimised, AI-ready processes, underpinned by comprehensive process data and operational context. Without this, AI essentially operates on guesswork. The article stresses that AI will only deliver its promised return on investment if it truly understands how the business operates. This understanding is often fragmented, trapped within siloed departments with their own unique languages and systems. Process intelligence is presented as the crucial connective tissue, creating a shared operational language that grounds AI decisions in the practical realities of the business.

Furthermore, the adoption of agentic AI is framed not just as a technological challenge, but fundamentally as a change management and operating model problem. Organisational silos and a lack of inter-departmental coordination are identified as the primary blockers, far more so than resistance to change. True enterprise modernisation, the article argues, involves a redesign of how teams, systems, and decisions connect. Simply bolting AI onto existing, broken processes is a recipe for failure. Instead, organisations must first invest in modernising their data, systems, and processes, building a shared, accurate picture of their operations. This foundational shift, achieved through process intelligence, is what makes agentic AI viable and allows it to deliver real ROI, turning process optimisation from a mere IT project into a strategic advantage for agility and risk management in today's constantly changing world.

Fuente Original: https://venturebeat.com/orchestration/enterprise-agentic-ai-requires-a-process-layer-most-companies-havent-built

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Claude Opus Descubre 22 Fallos en Firefox Alerta de Seguridad

La Inteligencia Artificial Claude Opus de Anthropic ha demostrado su impresionante capacidad de análisis de código al identificar un total de 22 vulnerabilidades de seguridad en el navegador web Firefox. Este hallazgo subraya la creciente importancia de la IA en la ciberseguridad y la necesidad de que los desarrolladores estén alerta ante posibles puntos débiles en su software.


Los fallos descubiertos por Claude Opus abarcan diversas áreas de riesgo, desde problemas de ejecución de código arbitrario hasta vulnerabilidades que podrían permitir la divulgación de información sensible. La rápida y precisa detección de estas fallas por parte de la IA es un testimonio de su avanzada comprensión de los patrones de código y las posibles explotaciones. Este descubrimiento resalta la colaboración entre la IA y los equipos de seguridad, permitiendo una respuesta más ágil y efectiva ante las amenazas cibernéticas emergentes.

El hecho de que un modelo de IA pueda identificar tantas vulnerabilidades significativas en un software tan ampliamente utilizado como Firefox pone de manifiesto la complejidad y los desafíos inherentes al desarrollo seguro de aplicaciones. Los investigadores de seguridad y los desarrolladores de software ahora tienen una herramienta más potente a su disposición para escanear y validar la seguridad de sus creaciones. Se espera que este evento impulse una mayor adopción de herramientas de IA en los procesos de auditoría de seguridad y desarrollo de software, fortaleciendo así la defensa contra los ciberataques.

Fuente Original: https://www.securityaffairs.com/156170/cybersecurity/anthropic-claude-opus-22-firefox-bugs/

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Distribuciones Linux Debaten Leyes de Verificacion de Edad

Las comunidades de desarrollo de Linux están inmersas en intensos debates sobre cómo responder a las nuevas leyes de verificación de edad que amenazan con transformar el ecosistema del software libre. System76 no es la única empresa tecnológica expresando preocupación por estas regulaciones, ya que organizaciones como la Electronic Frontier Foundation (EFF) y desarrolladores de Ubuntu, Fedora y Linux Mint están evaluando las implicaciones de legislaciones como la Ley de Garantía de Edad Digital de California.


A principios de esta semana, el desarrollador de Ubuntu Aaron Rainbolt propuso en la lista de correo de la comunidad una interfaz D-Bus opcional que podría ser implementada por aplicaciones según cada distribución lo considere apropiado. Sin embargo, Canonical respondió que la compañía aún no tiene una solución definitiva para anunciar respecto a la declaración de edad en Ubuntu. Jon Seager, Vicepresidente de Ingeniería en Canonical, aclaró que la empresa está revisando la legislación internamente con asesoría legal, pero actualmente no existen planes concretos sobre cómo, o incluso si, Ubuntu cambiará en respuesta a estas leyes. Enfatizó que la publicación en la lista de correo fue una conversación informal entre miembros de la comunidad, no un anuncio oficial.

Discusiones similares están en curso en las comunidades de Fedora y Linux Mint, mientras algunos desarrolladores como MidnightBSD han decidido excluir California completamente del uso de escritorio. La EFF ha advertido consistentemente contra la imposición de requisitos de edad en internet, argumentando que estos mandatos atacan los fundamentos de una internet libre y abierta. Hayley Tsukayama, Directora de Asuntos Estatales de la EFF, señala un problema fundamental: muchas de estas regulaciones imaginan tecnología que actualmente no existe.

Según la EFF, estos mandatos mal concebidos no pueden lograr el objetivo declarado de verificación de edad. Son fáciles de eludir y exponen a los consumidores a riesgos reales de violación de datos. Las cargas recaen especialmente sobre desarrolladores que no pertenecen a grandes empresas con recursos abundantes, como aquellos que desarrollan software de código abierto. No reconocer la diversidad del desarrollo de software al pensar en la responsabilidad limita efectivamente las opciones de software, justo cuando el poder computacional se está concentrando rápidamente en manos de unos pocos. La organización propone que, en lugar de crear barreras de edad, una ley de privacidad bien elaborada que empodere a todas las personas para controlar cómo se recopilan y utilizan sus datos sería un paso crucial en la dirección correcta.

Fuente Original: https://linux.slashdot.org/story/26/03/09/0544224/eff-ubuntu-and-other-distros-discuss-how-to-respond-to-age-verification-laws?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Asian Infrastructure Faces Web Server and Mimikatz Attacks

Critical infrastructure across Asia is currently under siege from sophisticated cyberattacks that combine web server exploits with the notorious Mimikatz credential-stealing tool. This alarming development highlights the evolving tactics of threat actors who are specifically targeting essential services and systems that underpin modern society.

Asian Infrastructure Faces Web Server and Mimikatz Attacks

Security researchers have identified a concerning pattern of attacks wherein malicious actors are exploiting vulnerabilities in web servers to gain initial access to networks belonging to critical infrastructure organisations. Once inside, attackers deploy Mimikatz, a powerful post-exploitation tool originally designed for legitimate security testing but frequently weaponised by cybercriminals. Mimikatz specialises in extracting plaintext passwords, hashes, and Kerberos tickets from memory, allowing attackers to move laterally across networks and escalate their privileges.

The targeting of Asian critical infrastructure is particularly worrying given the region's rapid digitalisation and the vital role these systems play in energy, water, transportation, and telecommunications sectors. A successful breach could potentially disrupt essential services affecting millions of people and cause significant economic damage. The combination of web server exploits and credential theft represents a sophisticated attack chain that demonstrates the adversaries' technical capabilities and strategic planning.

This campaign underscores the critical importance of implementing robust cybersecurity measures, particularly within critical infrastructure environments. Organisations must prioritise patching known vulnerabilities in web-facing systems, implement strong access controls, and deploy advanced monitoring solutions to detect suspicious activity. The integration of Zero Trust architectures and artificial intelligence-powered security tools can provide enhanced protection by assuming no implicit trust and continuously verifying every access request across the entire network infrastructure.

Fuente Original: https://thehackernews.com/2026/03/web-server-exploits-and-mimikatz-used.html

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT