miércoles, 22 de abril de 2026

Plataforma Gemini Crea Gobierna y Optimiza Agentes IA

Google Cloud lanza su innovadora Plataforma Gemini Enterprise Agent, una solución integral diseñada para que los equipos técnicos puedan construir, escalar, gobernar y optimizar agentes de inteligencia artificial.

Plataforma Gemini: Crea, Gobierna y Optimiza Agentes IA

Esta nueva plataforma unifica los servicios de desarrollo y ajuste de modelos de Vertex AI con funcionalidades avanzadas para la integración de agentes, seguridad y DevOps. Gemini Enterprise Agent Platform ofrece acceso a los modelos Gemini 3.1 Pro y Flash, además de Lyria 3, y soporta también los modelos Claude de Anthropic. Su flexibilidad permite adaptarla a las necesidades específicas de cada equipo.

Además, la plataforma se integra con Gemini Enterprise app, que sirve como punto de acceso centralizado para la IA de ntro de las organizaciones. Esta solución busca simplificar la creación y gestión de agentes autónomos, aprovechando la robusta infraestructura, las capacidades de datos y la seguridad de Google Cloud.

Fuente Original: https://blog.google/innovation-and-ai/infrastructure-and-cloud/google-cloud/gemini-enterprise-agent-platform/

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Vercel Breach Uncovered OAuth Gap Threatens Security Teams

A recent security incident at Vercel, a prominent cloud platform, has highlighted a critical and often overlooked vulnerability: the OAuth gap. The breach, which saw attackers gain unauthorised access to Vercel's internal systems, originated from a seemingly innocuous action – an employee installing a third-party AI tool, Context.ai, and granting it broad permissions via their corporate Google Workspace account. This incident underscores how easily a single compromised account can become a gateway to sensitive production environments.

Vercel Breach: Uncovered OAuth Gap Threatens Security Teams

The attackers exploited a chain of events starting with an infection on an employee's machine at Context.ai, which led to the theft of various credentials, including Google Workspa ce logins. This access was then leveraged to gain entry into Vercel's systems through the pre-existing OAuth grant. A key factor in the escalation was the attacker's ability to access environment variables that were not marked as “sensitive,” which were stored in plaintext and accessible via Vercel's dashboard and API. This allowed them to gather further credentials and move laterally within Vercel's infrastructure.

The incident also revealed that the compromised Context.ai extension possessed a second OAuth grant, allowing read access to users' Google Drive files, further widening the potential attack surface. Security experts point out that most security teams struggle to detect, scope, or contain such breaches because they lack visibility into the OAuth permissions granted by employees to third-party applications, especially AI tools, which are increasingly becoming the new frontier of shadow IT. The extended dwell time between Context.ai's detection of the breach and V ercel's public disclosure also raises concerns about vendor notification timelines. The breach serves as a stark reminder of the need for stringent governance over AI tool integrations and a robust approach to third-party risk management, as the speed and sophistication of attacks, potentially accelerated by AI, continue to grow.

Fuente Original: https://venturebeat.com/security/vercel-breach-exposes-the-oauth-gap-most-security-teams-cannot-detect-scope-or-contain

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

IA con fallos Agentes filtran secretos via prompt injection

Una vulnerabilidad crítica, bautizada como "Comment and Control", ha sido descubierta en varios agentes de codificación de IA, permitiendo la filtración de secretos sensibles a través de una simple inyección de prompts. Investigadores de la Universidad Johns Hopkins demostraron cómo un único comando malicioso introducido en el título de una solicitud de extracción (pull request) en GitHub fue suficiente para que sistemas como Anthropic Claude Code Security Review, Google Gemini CLI Action y GitHub Copilot Agent expusieran sus propias claves API. Este descubrimiento resalta un fallo fundamental en la seguridad de los agentes de IA que operan en entornos de ejecución (runtime).

IA con fallos: Agentes filtran secretos vía prompt injection

La vulnerabilidad explota la forma en que GitHub Actions maneja los secretos cuando se utilizan flujos de trabajo `pull_request_target`, que muchos agentes de IA requieren para acceder a información sensible. Aunque la superficie de ataque práctica se limita a colaboradores, campos de comentarios y repositorios que usan `pull_request_target`, el impacto es significativo. Anthropic clasificó la falla como "Crítica" (CVSS 9.4) y otorgó una recompensa de 100 dólares, Google pagó 1,337 dólares y GitHub 500 dólares. Los tres proveedores han parcheado la vulnerabilidad silenciosamente, pero sin emitir avisos de seguridad formales o CVEs.

Un punto clave de la investigación es lo revelado por las "system cards" (tarjetas de sistema) de los proveedores de IA. La tarjeta de Anthropic para Opus 4.7 advierte explícitamente que la función Claude Code Security Review "no está reforzada contra la inyección de prompts", ya que está diseñada para procesar entradas confiables. De manera similar, las tarjetas de OpenAI y Google, aunque detallan extensos programas de pruebas de penetración y evaluaciones a nivel de modelo, no documentan métricas claras sobre la resistencia de sus agentes a nivel de ejecución ni a la ejecución de herramientas. Esto pone de manifiesto una brecha significativa entre lo que los proveedores documentan sobre sus medidas de seguridad y lo que realmente protegen en el entorno operativo real de los agentes. La investigación subraya la necesidad de una mayor transparencia y de que las organizaciones exijan pruebas cuantificables de la resistencia de estos sistemas para poder gestionar eficazmente el riesgo.

Fuente Original: https://venturebeat.com/security/ai-agent-runtime-security-system-card-audit-comment-and-control-2026

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Mythos de Anthropic Detecta 271 Vulnerabilidades en Firefox

Mozilla ha revelado datos impresionantes sobre las capacidades del modelo de inteligencia artificial Mythos Preview de Anthropic en el campo de la ciberseguridad. Según un comunicado publicado esta semana, el acceso anticipado a esta herramienta permitió identificar 271 vulnerabilidades de seguridad en Firefox 150 antes de su lanzamiento oficial. Este hallazgo ha reavivado el debate sobre si estamos ante una nueva era de ciberdefensa potenciada por IA o simplemente frente a una estrategia de marketing de Anthropic.

Mythos de Anthropic Detecta 271 Vulnerabilidades en Firefox

El CTO de Firefox, Bobby Holley, expresó su entusiasmo afirmando que los defensores cibernéticos finalmente tienen "una oportunidad de ganar de manera decisiva" en la batalla constante contra los ciberatacantes. La magnitud del descubrimiento es notable cuando se compara con el modelo anterior Opus 4.6, que solo detectó 22 errores sensibles de seguridad al analizar Firefox 148 el mes pasado. Esto representa un aumento exponencial en la capacidad de detección de vulnerabilidades mediante inteligencia artificial.

Holley explicó que aunque estas vulnerabilidades también podrían haberse descubierto mediante técnicas automatizadas de "fuzzing" o por investigadores de seguridad de élite analizando el código fuente, usar Mythos eliminó la necesidad de "concentrar muchos meses de costoso esfuerzo humano para encontrar un solo error". La eficiencia de esta herramienta cambia fundamentalmente el equilibrio de la ciberseguridad a favor de los defensores, ya que hace que el descubrimiento de vulnerabilidades sea más económico y accesible para ambas partes.

En una entrevista con Wired, Holley señaló que este tipo de análisis de vulnerabilidades asistido por IA será algo con lo que "cada pieza de software tendrá que comprometerse", especialmente porque todo software tiene errores ocultos que ahora son detectables. Esta tecnología resulta particularmente crucial para proyectos de código abierto que sustentan gran parte de Internet moderno, ya que muchos dependen de un mantenimiento voluntario insuficiente para su seguridad. El CTO de Mozilla, Raffi Krikorian, argumentó en un ensayo que Mythos podría romper el equilibrio tradicional entre la dificultad de encontrar errores y escribir software complejo, democratizando el acceso a herramientas avanzadas de seguridad.

Fuente Original: https://arstechnica.com/ai/2026/04/mozilla-anthropics-mythos-found-271-zero-day-vulnerabilities-in-firefox-150/

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Mozillas AI Discovers 271 Firefox Security Vulnerabilities

Mozilla has achieved a remarkable milestone in software security by leveraging Anthropic's Claude Mythos Preview to identify and fix an unprecedented 271 vulnerabilities in Firefox 150. This groundbreaking application of artificial intelligence represents a significant shift in how browser security is approached, moving beyond traditional methods like fuzzing tools and manual code review.

Mozilla's AI Discovers 271 Firefox Security Vulnerabilities

The AI system demonstrated capabilities that were simply impossible just months ago, analysing Firefox's codebase with a level of sophistication that rivals the world's best human security researchers. According to Mozilla, Mythos Preview has proven equally capable of identifying vulnerabilities across all categories and complexity levels that human experts can find. This isn't just about incremental improvement—it's about fundamentally changing the scale at which security flaws can be discovered and addressed.

The implications extend far beyond a single Firefox release. Historically, cybersecurity has favoured attackers because they only need to find one exploitable flaw, whilst defenders must protect against all possible vulnerabilities. AI-powered vulnerability discovery could rebalance this equation by enabling defenders to identify and patch security holes faster than attackers can weaponise them. Whilst this doesn't mean zero-day exploits will disappear overnight, it suggests a future where the window of opportunity for malicious actors becomes significantly narrower.

Mozilla's optimistic conclusion speaks volumes about this technological breakthrough: "The defects are finite, and we are entering a world where we can finally find them all." This statement reflects a paradigm shift in thinking about software security—moving from reactive patching to proactive, comprehensive vulnerability elimination. As AI models continue to advance, we may be witnessing the early stages of a new era in cybersecurity where comprehensive code security becomes not just an aspiration, but an achievable reality.

Fuente Original: https://news.slashdot.org/story/26/04/21/2028206/mozilla-uses-anthropics-mythos-to-fix-271-bugs-in-firefox?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

martes, 21 de abril de 2026

IA en Seguridad Riesgos y Soluciones para Empresas

En 2025, más de 90 organizaciones sufrieron el secuestro de sus herramientas de seguridad basadas en inteligencia artificial (IA). Los atacantes inyectaron indicaciones maliciosas en estas herramientas legítimas, logrando robar credenciales y criptomonedas. Inicialmente, estas herramientas comprometidas solo tenían la capacidad de leer datos, pero la próxima generación de agentes de seguridad autónomos (SOC) ya posee acceso de escritura a elementos críticos como los firewalls.

IA en Seguridad: Riesgos y Soluciones para Empresas

Esta escalada es alarmante, ya que estos agentes de SOC autónomos pueden reescribir reglas de firewall, modificar políticas de gestión de identidades y accesos (IAM), e incluso poner en cuarentena endpoints, todo ello utilizando sus propias credenc iales privilegiadas y a través de llamadas API que son clasificadas como actividad autorizada por los sistemas de detección y respuesta de endpoints (EDR). Esto significa que el adversario nunca necesita tocar la red directamente; el propio agente actúa en su nombre.

La rápida evolución de la IA en ciberseguridad está acelerando la innovación, pero también las oportunidades de explotación. Informes recientes, como el Global Threat Report 2026 de CrowdStrike, destacan que la IA está comprimiendo el tiempo entre la intención y la ejecución, convirtiendo los sistemas empresariales de IA en objetivos. El uso de IA por parte de estados para operaciones ofensivas ha aumentado significativamente. Además, el panorama de amenazas se expande con clones de servidores de gestión de configuración de activos (MCP) maliciosos que interceptan datos sensibles al suplantar servicios de confianza. La advertencia del Centro Nacional de Ciberseguridad del Reino Unido de que los ataq ues de inyección de prompts contra aplicaciones de IA "quizás nunca se mitiguen por completo" subraya la magnitud del desafío.

Para abordar estos riesgos, se han desarrollado marcos de gobernanza como el OWASP Top 10 para Aplicaciones Agentes. Este documento identifica 10 categorías de ataques contra sistemas autónomos de IA, tres de las cuales son particularmente relevantes para los agentes de SOC con acceso de escritura: secuestro de objetivos, uso indebido de herramientas y abuso de identidad y privilegios. La proliferación de identidades de máquina en comparación con las identidades humanas (una proporción de 82:1 en promedio) agrava este problema, ya que cada agente autónomo introduce una brecha adicional.

Los informes indican que una parte significativa de las organizaciones ha observado comportamientos no deseados en sus agentes de IA y se siente poco confiada en su capacidad para contener un agente comprometido. Muchos profesionales de la ciberseguridad consideran la IA agente como el vector de ataque más peligroso. El riesgo no solo proviene de los modelos de IA, sino de su nivel de autonomía, el alcance de sus privilegios y el entorno operativo en el que operan. Si bien la industria está reconociendo la necesidad de controles, la pregunta clave es si estos controles llegarán a tiempo para prevenir las explotaciones a gran escala.

Soluciones como las que ofrece Ivanti, que integran el cumplimiento continuo y agentes de autoservicio de IA con salvaguardas incorporadas para políticas, aprobaciones y validación de datos, están comenzando a abordar la brecha de gobernanza. Estos enfoques, que priorizan la velocidad junto con la gobernanza, buscan automatizar tareas rutinarias y permitir que los equipos de seguridad se centren en iniciativas de mayor valor, todo ello dentro de los límites definidos. Sin embargo, la aplicación de políticas de acceso para identidades de IA y la gobernanza de todas las identidades de IA c on los mismos controles que los usuarios humanos siguen siendo desafíos críticos para la mayoría de las organizaciones.

Fuente Original: https://venturebeat.com/security/adversaries-hijacked-ai-security-tools-at-90-organizations-the-next-wave-has-write-access-to-the-firewall

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

GitHub Copilot Pauses Sign-ups Amidst AI Cost Surge

GitHub has temporarily halted new sign-ups for its popular Copilot Pro, Pro+, and Student plans. This significant move stems from a growing disparity between how developers are now utilising the AI coding assistant and the infrastructure originally designed to support it. The core issue lies with 'agentic coding workflows', which involve long, complex, and often parallel AI sessions that are now routinely incurring compute costs exceeding the fixed monthly subscription fees.

GitHub Copilot Pauses Sign-ups Amidst AI Cost Surge

VP of Product, Joe Binder, highlighted that it's now commonplace for a small number of requests to generate costs greater than a user's monthly payment. Consequently, as of April 20th, only the Copilot Free tier remains open for new individual users. While existing subscribers can maintain their current plans and even upgrade, GitHub has not provided a timeframe for reinstating new subscriptions. Existing Pro and Pro+ users who have contacted support between April 20th and May 20th are eligible for a refund for April's charges.

To address this economic imbalance and encourage heavier users towards the more expensive Pro+ tier, GitHub is implementing stricter usage limits across all individual plans. These caps on sessions and weekly tokens govern the amount of data processed, operating independently of premium request entitlements for model access. The premium Pro+ plan, priced at $39 per month, now offers significantly more generous limits compared to the $10 Pro plan. Furthermore, access to Anthropic's most advanced Opus models is being restricted, migrating exclusively to the Pro+ tier, while being entirely removed from the Pro plan. GitHub is also introducing usage warnings within VS Code and the Copilot CLI to help developers monitor their consumption before hitting limits mid-task. This strategic shift underscores the evolving economics of AI development, moving from simple code completion to more intensive, agent-driven workflows that demand a re-evaluation of pricing structures.

Fuente Original: https://thenextweb.com/news/github-copilot-signup-pause-agentic-ai-usage-limits

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

OpenAI Codex IA que ve tu pantalla Contexto con Capturas

OpenAI ha lanzado una nueva función para su aplicación de escritorio Codex en Mac llamada Chronicle. Esta característica experimental permite a la IA tener un contexto pasivo sobre tu actividad al tomar capturas de pantalla periódicas de tu pantalla.

OpenAI Codex: ¿IA que ve tu pantalla? Contexto con Capturas

La novedad reside en que estas capturas se envían a los servidores de OpenAI para su procesamiento, donde se generan resúmenes en texto. Estos resúmenes se guardan localmente en formato Markdown sin cifrar, lo que permite a Codex recordar lo que estabas haciendo sin que tengas que explicárselo explícitamente.

Chronicle forma parte de una actualización más amplia que ha transformado Codex de un asistente de codificación a un espacio de trabajo de IA más generalista. La función requiere permisos de grabación de pantalla y accesibilidad, y solo está disponible para usuarios con suscripción Pro de ChatGPT y Macs con Apple Silicon. Es importante destacar que Chronicle no está disponible en la Unión Europea, Reino Unido y Suiza, lo que sugiere preocupaciones de privacidad.

A diferencia de competidores como Microsoft Recall, que procesa y almacena datos localmente de forma encriptada, Chronicle opta por el procesamiento en la nube. OpenAI afirma que las capturas de pantalla originales se eliminan después de seis horas y no se utilizan para entrenamiento, pero los resúmenes persistirán localmente. Esta elección plantea serias dudas sobre la privacidad, ya que los archivos de memoria no están cifrados y podrían contener información sensible, aumentando el riesgo de inyección de prompts.

La industria tecnológica avanza hacia la IA ambiental, que comprende el contexto del usuario de forma continua. Chronicle es el primer paso de OpenAI en este ámbito para escritorio, prometiendo una mayor productividad al eliminar la necesidad de reexplicar el contexto. Sin embargo, la dependencia de la nube para el procesamiento y la arquitectura de confianza plantean interrogantes sobre su viabilidad regulatoria y la confianza del usuario, especialmente tras experiencias previas con promesas de privacidad en la industria.

Fuente Original: https://thenextweb.com/news/openai-codex-chronicle-screen-context-mac

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Amazon Invierte 25 Mil Millones en Anthropic

Amazon ha anunciado una inversión masiva de hasta $25 mil millones en Anthropic, la compañía de inteligencia artificial responsable de los modelos Claude. Este acuerdo forma parte de una alianza ampliada que asegura más de $100 mil millones en gasto de computación en la nube que Anthropic realizará en Amazon Web Services durante la próxima década. Esta operación representa la segunda mega-ronda consecutiva de Amazon con un laboratorio de IA de vanguardia, siguiendo una inversión casi idéntica de $50 mil millones en OpenAI hace dos meses.

Amazon Invierte $25 Mil Millones en Anthropic

La estructura del acuerdo es particularmente reveladora. Amazon está realizando una inversión inmediata de $5 mil millones, mientras que los $20 mil millones restantes están vinculados a hitos comerciales específicos. Esto se suma a los $8 mil millones que Amazon ya había comprometido con Anthropic desde 2023, elevando la inversión total potencial a aproximadamente $33 mil millones. Sin embargo, el compromiso de $100 mil millones de Anthropic con AWS no es un pago directo, sino una promesa de adquisición de computación en la nube, chips de IA personalizados y servicios de infraestructura durante diez años.

En el centro de este acuerdo se encuentran los chips Trainium de Amazon, su alternativa interna a las GPU de Nvidia para entrenamiento e inferencia de IA. El trato cubre los actuales Trainium2, el próximo Trainium3 y el aún no lanzado Trainium4, además de decenas de millones de núcleos CPU Graviton. Anthropic asegura hasta 5 gigavatios de capacidad para entrenar y desplegar sus modelos Claude, con una capacidad significativa de Trainium2 que estará disponible en el segundo trimestre de 2026.

Este compromiso de computación responde directamente a la creciente demanda que Anthropic está experimentando: los ingresos anualizados de la compañía han alcanzado los $30 mil millones, un aumento considerable desde los aproximadamente $9 mil millones a finales de 2025. La asociación también profundiza la distribución de los modelos de Anthropic, permitiendo a los clientes de AWS acceder a la Plataforma Claude completa directamente a través de sus cuentas existentes, sin necesidad de credenciales o facturación separadas. Este acuerdo consolida a Amazon como el socio de infraestructura principal de Anthropic, eclipsando el acuerdo previo con Microsoft de noviembre de 2025, que involucró una inversión de hasta $5 mil millones y $30 mil millones en capacidad de computación Azure.

Fuente Original: https://thenextweb.com/news/amazon-anthropic-25-billion-investment

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Creating Chrome Exploits Using Claude AI Coding

Artificial intelligence is revolutionising the landscape of cybersecurity vulnerability research and exploitation. A recent experiment demonstrates how AI language models can now autonomously develop exploits for publicly disclosed Chrome vulnerabilities, raising serious concerns about the security of Electron-based applications.

Creating Chrome Exploits Using Claude AI Coding

Security researcher s1r1us conducted a compelling study using Claude Opus to create a functional exploit for a Chrome CVE without any public proof-of-concept code. The investigation revealed a critical security gap: whilst Google Chrome promptly patches vulnerabilities, popular Electron-based applications like Discord, Slack, Cursor, and Claude Desktop embed outdated Chrome versions that remain vulnerable for extended periods. At the time of writing, Chrome had reached version 147, yet many widely-used Electron applications still run significantly older versions, leaving millions of installations exposed.

The methodology involved selecting a high-severity CVE from Chrome's recently patched vulnerabilities and directing Claude Opus to analyse and exploit it through iterative prompting. The AI model successfully developed read and write primitives within Chrome's sandbox. To achieve full exploitation, the researcher then pointed Claude towards a known V8 sandbox bypass documented in Chromium's issue tracker, enabling the creation of a complete working exploit chain.

The economics of this approach prove particularly concerning. The entire exercise required approximately 20 hours of human supervision and roughly 2,000 USD in API tokens. Considering that bug bounty programmes typically pay around 10,000 USD for such exploits, the process remains financially viable. More troubling is the trajectory of AI capability improvements—future models may require even less human intervention, potentially automating the entire exploit development process.

This development highlights fundamental questions about vulnerability disclosure practices and software supply chain security. The substantial time lag between component updates and their integration into dependent applications creates exploitable windows that AI-assisted attackers can now leverage efficiently. As AI models become more sophisticated, the industry may need to reconsider how quickly security information is published and whether current patching timelines remain adequate in an era of AI-accelerated exploit development.

Fuente Original: http://www.elladodelmal.com/2026/04/como-crear-un-exploit-1-day-sobre-un.html

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

lunes, 20 de abril de 2026

IA de Vanguardia Revolucionando la Ciberseguridad Ahora

La inteligencia artificial (IA) de vanguardia, personificada por modelos como 'Mythos' de Anthropic, está a punto de transformar radicalmente el panorama de la ciberseguridad. Lejos de ser una mera herramienta, esta nueva generación de IA promete redefinir la forma en que abordamos la protección digital, ofreciendo capacidades predictivas y defensivas sin precedentes.

IA de Vanguardia: Revolucionando la Ciberseguridad Ahora

Los avances en IA están permitiendo el desarrollo de sistemas capaces de anticipar y neutralizar amenazas cibernéticas antes de que se materialicen. Estos sistemas avanzados pueden analizar patrones complejos de datos, identificar anomalías sutiles que escapan a la detección humana y responder con una velocidad y precisión extraordinarias. Se espera que la IA no solo mejore las defensas existentes, sino que también cree nuevas formas de protección, adaptándose dinámicamente a las tácticas cambiantes de los ciberdelincuentes.

La implementación de estas IAs avanzadas en la ciberseguridad plantea un futuro donde la detección proactiva, la respuesta automatizada y la comprensión profunda de las amenazas serán la norma. Esto podría significar una reducción significativa en el impacto de los ciberataques, protegiendo tanto a individuos como a organizaciones en un mundo cada vez más digitalizado y vulnerable.

Fuente Original: https://news.google.com/rss/articles/CBMif0FVX3lxTE1JSFZBR3I1eXh1NVBMMXVFcy1BRGVaQldMN1R6Q19sWEJrZjA0MWpEdWo2Qm1zWlI4ajl4ZmJKYVlXM3QtUG5HWE94M2h4ckNteHlleXBZdzI1bzIyZDJlSjU1SDFucTlsalB4UzhQRmNWeDVIMkpQb zQtNTliV1k?oc=5

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

SAP Unveils Agentic AI for Resilient Manufacturing at Hannover Messe

SAP is gearing up for Hannover Messe 2026 with a clear vision: to revolutionise manufacturing through the practical application of agentic AI. The company aims to empower businesses to build more resilient and end-to-end manufacturing processes by leveraging the power of intelligent, self-governing AI agents. This move signifies a significant step towards operationalising AI beyond theoretical concepts and integrating it directly into the core of industrial operations.

SAP Unveils Agentic AI for Resilient Manufacturing at Hannover Messe

The focus is on enabling AI agents to understand complex manufacturing environments, make autonomous decisions, and adapt to dynamic conditions. This will allow for greater efficiency, faster response times to disruptions, and ultimately, more robust supply chains. SAP's approach at Hannover Messe will likely showcase how these agentic AI solutions can address critical industry challenges, from optimising production lines and managing inventory to enhancing quality control and predictive maintenance. By making AI work *for* the manufacturing floor, SAP is positioning itself as a key enabler of the future of industrial production, driving innovation and competitive advantage for its clients.

SAP's presentation will highlight the tangible benefits of this technology, demonstrating how businesses can transition from manual or semi-automated processes to a more intelligent and self-optimising manufacturing paradigm. The emphasis on 'operationalising' suggests a practical, ready-to-implement strategy for businesses looking to harness the full potential of AI in their manufacturing operations. Expect to see demonstrations and discussions on how agentic AI can lead to significant improvements in productivity, cost reduction, and the overall agility of manufacturing enterprises.

Fuente Original: https://news.google.com/rss/articles/CBMilgFBVV95cUxOdGdxVlhEX0JzaTItRWlIMzRsdnlnVmNycXVoRVhwNzJqbWo2MmtVNHRGV3d1bXZuVFpUeDZidGRsQzlhSVQtWWJMeVd2dDlrWS1ZQzhhN2dhb0hQSUNFQmNWYTc4OU5BOXNjcThyRVZuOUpRSGZkOHdENTVITHVCMzZRWWFGZlprcmJ1Y1F0NkZySWR1RkE?oc=5

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Meta despide miles la IA redefine el futuro laboral

Meta está a punto de llevar a cabo una reestructuración masiva, con despidos programados para el 20 de mayo que afectarán a aproximadamente 8.000 empleados, lo que representa el 10% de su fuerza laboral total. Esta medida, que se suma a rondas anteriores de recortes que ya han superado los 25.000 puestos desde 2022, marca un cambio estratégico significativo en la compañía. El foco ahora está puesto en la inteligencia artificial, con la empresa redirigiendo miles de millones de dólares hacia la infraestructura de IA.

Meta despide miles: la IA redefine el futuro laboral

Esta ambiciosa inversión, estimada entre 115.000 y 135.000 millones de dólares para 2026, tiene como objetivo potenciar el desarrollo de modelos como Llama y los sistemas de recomendación. Para lograrlo, los equipo s se están reorganizando en "pods" centrados en IA, bajo la dirección del nuevo Director de IA, Alexandr Wang, y su división Superintelligence Labs. Los despidos, que ya han afectado a áreas como Reality Labs, la división de Facebook, reclutamiento, ventas y operaciones globales, son una consecuencia directa de esta reorientación. La empresa ha implementado un nuevo sistema de rendimiento para alinear a los empleados con las nuevas prioridades, recompensando la "producción" y el "impacto empresarial claro".

La compañía, que reportó ingresos récord y sólidos beneficios en 2025, no está despidiendo por motivos financieros inmediatos, sino para financiar esta monumental apuesta en IA, buscando mantener los márgenes operativos esperados por Wall Street. Esta tendencia de despidos masivos en favor de inversiones en IA no es exclusiva de Meta; la industria tecnológica en su conjunto está experimentando un patrón similar, con miles de empleos eliminados y recursos de sviados hacia la infraestructura de inteligencia artificial. El resultado de esta estrategia, sin duda, definirá el futuro de Meta y del sector en los próximos años.

Fuente Original: https://thenextweb.com/news/meta-layoffs-may-2026-ai-restructuring-thousands

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Google Negocia con Marvell para Chips de IA

Google está en conversaciones con Marvell Technology para desarrollar dos nuevos chips de inteligencia artificial, marcando una estrategia de diversificación en su cadena de suministro de silicio personalizado. El gigante tecnológico busca crear una unidad de procesamiento de memoria y un TPU optimizado específicamente para inferencia, sumando a Marvell como tercer socio de diseño junto a Broadcom y MediaTek. Estas negociaciones, que aún no han resultado en un contrato firmado, llegan días después de que Broadcom asegurara un acuerdo para suministrar TPUs hasta 2031, lo que indica que Google no busca reemplazar socios sino ampliar su red de proveedores.

Google Negocia con Marvell para Chips de IA

La inferencia de IA se ha convertido en el foco estratégico de Google. A diferencia del entrenamiento de modelos, que es un evento único y costoso, la inferencia opera continuamente sirviendo cada consulta de cada usuario. Con productos de IA alcanzando cientos de millones de usuarios, la inferencia se ha transformado en el gasto dominante. El TPU Ironwood de séptima generación, presentado este mes, ofrece diez veces el rendimiento del TPU v5p y puede escalar hasta 9,216 chips refrigerados por líquido. Google planea fabricar millones de unidades Ironwood este año, y los chips diseñados por Marvell complementarían esta infraestructura atacando diferentes perfiles de carga de trabajo.

La relación entre Google y Marvell tiene historia. En 2023 se reportó que Google trabajaba en un chip llamado "Granite Redux" que usaría a Marvell en lugar de Broadcom, esperando ahorrar miles de millones anuales. Sin embargo, la estrategia evolucionó: en lugar de abandonar a Broadcom completamente, Google construye una arquitectura multi-proveedor donde cada socio maneja diferentes segmentos del programa TPU. Este enfoque elimina la dependencia de un solo proveedor y reduce el riesgo de precios y suministro.

Marvell trae capacidades significativas a la mesa. Su negocio de silicio personalizado genera $1.5 mil millones anuales, con clientes como Amazon, Microsoft y Meta. La empresa alcanzó ingresos récord de $8.2 mil millones en su último año fiscal, un incremento del 42%. Nvidia invirtió $2 mil millones en Marvell en marzo, y la compañía adquirió Celestial AI por hasta $5.5 mil millones para ganar tecnología de interconexión fotónica. Las acciones de Marvell subieron aproximadamente 50% en lo que va del año, con un 30% solo en abril tras el anuncio de la asociación con Nvidia y las conversaciones con Google.

El mercado de chips ASIC personalizados crece más rápido que el de GPUs. Se proyecta un crecimiento del 45% en 2026 para chips personalizados versus 16% para GPUs, con expectativas de alcanzar $118 mil millones para 2033. Broadcom mantiene más del 70% del mercado de aceleradores de IA personalizados, pero la estrategia de Google de múltiples proveedores refleja una realidad crítica: ningún hiperescalador puede permitirse construir su negocio sobre el silicio de un solo proveedor. Para Google, que sirve miles de millones de consultas de búsqueda aumentadas por IA, conversaciones con Gemini y llamadas a APIs de Cloud AI diariamente, reducir incluso un pequeño porcentaje del costo por inferencia se traduce en ahorros de miles de millones anuales.

Fuente Original: https://thenextweb.com/news/google-marvell-ai-chips-inference-tpu-broadcom

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT