jueves, 23 de abril de 2026

Google Lanza TPUs Para La Era Agente

Google ha presentado dos nuevos Tensor Processing Units (TPUs) de octava generación, diseñados para abordar las demandas de la emergente "era agente" en la inteligencia artificial. A diferencia de depender exclusivamente de hardware de terceros, Google continúa innovando con sus propios chips personalizados, optimizados tanto para el entrenamiento como para la inferencia de modelos de IA.

Google Lanza TPUs Para La Era 'Agente'

La principal novedad son dos modelos: el TPU 8t, enfocado en el entrenamiento de modelos de IA de vanguardia, y el TPU 8i, optimizado para la inferencia. El TPU 8t promete reducir drásticamente los tiempos de entrenamiento, pasando de meses a semanas, gracias a sus clústeres de hasta 9600 chips y dos petabytes de memoria compartida. Ofrece casi el triple de capacidad de cómputo para entrenamie nto que su predecesor, Ironwood, y una notable eficiencia con una tasa de "goodpute" (cómputo útil) del 97%, minimizando el tiempo de inactividad y desperdicio.

Por otro lado, el TPU 8i está diseñado para la eficiencia en la ejecución de múltiples agentes especializados. Aunque posee menos potencia bruta que el 8t, triplica la cantidad de SRAM en chip, permitiendo cachés de valor clave más grandes y acelerando modelos con ventanas de contexto extendidas. Además, estos nuevos TPUs son los primeros en utilizar exclusivamente los CPUs ARM Axion de Google, integrando un CPU por cada dos TPUs para una mayor eficiencia general del sistema. Esta estrategia de "stack completo" basada en ARM busca optimizar el consumo de energía y el rendimiento.

La eficiencia energética es un pilar fundamental de estas nuevas unidades. Google afirma que los TPUs de octava generación ofrecen el doble de rendimiento por vatio en comparación con Ironwood. También se han implementado m ejoras en los centros de datos, como la integración de redes y cómputo en un solo chip y diseños de clústeres más eficientes, que han aumentado la potencia de cómputo por unidad de electricidad hasta seis veces. Se ha adaptado un sistema de refrigeración líquida para gestionar el calor generado, ajustando el flujo de agua según la carga de trabajo para una mayor eficiencia en el enfriamiento.

Estos nuevos TPUs estarán disponibles para potenciar los agentes basados en Gemini de Google y también para desarrolladores externos, soportando los frameworks de IA más populares como JAX, PyTorch y TensorFlow. El lanzamiento de estos chips por parte de Google subraya la creciente competencia en el mercado de aceleradores de IA y la importancia de hardware especializado para la próxima generación de sistemas de inteligencia artificial.

Fuente Original: https://arstechnica.com/ai/2026/04/google-unveils-two-new-tpus-designed-for-the-agentic-era/

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

OpenAI Lanza Workspace Agents Revolucion Empresarial IA

OpenAI ha presentado Workspace Agents, una innovación que marca el fin de los GPT personalizados y el comienzo de una nueva era en la automatización empresarial. Esta solución permite a los usuarios de ChatGPT Business, Enterprise, Edu y Teachers crear agentes de IA capaces de integrarse directamente con aplicaciones empresariales populares como Slack, Salesforce, Google Drive, Microsoft Suite, Notion y Atlassian Rovo, transformando radicalmente cómo las organizaciones gestionan tareas repetitivas y complejas.

OpenAI Lanza Workspace Agents: Revolución Empresarial IA

Lo revolucionario de Workspace Agents es su capacidad para ejecutar tareas de forma autónoma sin supervisión constante. Estos agentes pueden redactar correos electrónicos, generar presentaciones, extraer datos de múltiples fuentes y continuar trabajando incluso después de que el usuario se desconecte. A diferencia de los asistentes de IA tradicionales que requerían interacción continua, estos agentes funcionan en la nube, mantienen memoria entre sesiones y pueden programarse para ejecutar tareas recurrentes automáticamente, como informes semanales o análisis mensuales.

La tecnología detrás de esta innovación es Codex, el sistema de generación de código de OpenAI que proporciona a los agentes capacidades avanzadas de ejecución. Esto significa que los agentes no solo describen el trabajo, sino que realmente lo ejecutan: transforman archivos CSV, reconcilian sistemas de registro, generan gráficos precisos y ejecutan código cuando es necesario. Esta base técnica es fundamental para entender por qué Workspace Agents representa un salto cualitativo respecto a soluciones anteriores.

OpenAI ha implementado controles de gobernanza robustos para abordar las preocupaciones de seguridad empresarial. Los administradores pueden definir permisos granulares sobre quién puede crear, ejecutar y publicar agentes, y qué herramientas pueden utilizar. Los agentes ofrecen dos modos de autenticación: por cuenta de usuario individual o por cuenta compartida del agente. Las acciones de escritura requieren aprobación humana por defecto, aunque esto puede configurarse según las necesidades de cada organización.

El producto estará disponible gratuitamente hasta el 6 de mayo de 2026, después de lo cual se implementará un modelo de precios basado en créditos. Empresas como Rippling, SoftBank Corp., Better Mortgage y BBVA ya están probando esta tecnología. Rippling reporta que un consultor de ventas pudo crear un agente que investiga cuentas, resume llamadas y publica resúmenes de acuerdos en Slack, ahorrando entre 5 y 6 horas semanales por representante, una tarea que anteriormente requería un equipo de ingeniería completo.

Este lanzamiento representa un cambio estratégico significativo para OpenAI, que está retirando gradualmente los GPT personalizados en favor de este nuevo paradigma centrado en agentes empresariales. La compañía se posiciona así en un mercado altamente competitivo donde Microsoft, Google, Salesforce y Anthropic también están desarrollando soluciones similares de agentes empresariales integrados.

Fuente Original: https://venturebeat.com/orchestration/openai-unveils-workspace-agents-a-successor-to-custom-gpts-for-enterprises-that-can-plug-directly-into-slack-salesforce-and-more

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

OpenAIs Privacy Filter Open-Source Data Protection

OpenAI has unveiled Privacy Filter, a groundbreaking open-source tool designed to safeguard sensitive information before it reaches cloud servers. Released on Hugging Face under the permissive Apache 2.0 licence, this innovative model represents a significant step towards privacy-first artificial intelligence infrastructure. The tool addresses a critical industry challenge: preventing personally identifiable information from leaking into training datasets or being exposed during AI processing.

OpenAI's Privacy Filter: Open-Source Data Protection

Privacy Filter is a 1.5-billion-parameter model that can operate on standard laptops or directly within web browsers, effectively functioning as a sophisticated digital shredder for sensitive data. Unlike traditional language models that predict text sequentially, Privacy Filter employs a bidirectional token classifier, reading sentences from both directions simultaneously. This approach provides superior contextual understanding, enabling the model to distinguish between, for instance, a private individual named Alice and the literary character from Wonderland.

The model utilises a Sparse Mixture-of-Experts framework, activating only 50 million parameters during any single operation despite containing 1.5 billion total parameters. This efficient design allows for high-speed processing without excessive computational demands. Remarkably, it features a 128,000-token context window, enabling it to process entire legal documents or lengthy email threads in one pass without fragmenting text—a common limitation that causes traditional filters to lose track of entities across page breaks.

Privacy Filter currently detects eight primary categories of personally identifiable information, including private names, contact details, digital identifiers, and sensitive credentials such as API keys and passwords. Enterprises can deploy the model on-premises or within private clouds, masking data locally before sending it to more powerful AI systems. This approach maintains compliance with stringent GDPR and HIPAA standards whilst leveraging advanced AI capabilities.

The Apache 2.0 licence marks a particularly significant aspect of this release, offering developers complete commercial freedom without royalty obligations. Companies can integrate Privacy Filter into proprietary products, customise it for specific industries, and avoid viral licensing requirements. This positions the tool as a fundamental utility for the AI era. The tech community has responded positively, with engineers praising the model's efficiency and impressive technical achievements. However, OpenAI cautions that Privacy Filter should be viewed as a redaction aid rather than an absolute safety guarantee, recommending against over-reliance in highly sensitive medical or legal workflows.

Fuente Original: https://venturebeat.com/data/openai-launches-privacy-filter-an-open-source-on-device-data-sanitization-model-that-removes-personal-information-from-enterprise-datasets

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

miércoles, 22 de abril de 2026

Plataforma Gemini Crea Gobierna y Optimiza Agentes IA

Google Cloud lanza su innovadora Plataforma Gemini Enterprise Agent, una solución integral diseñada para que los equipos técnicos puedan construir, escalar, gobernar y optimizar agentes de inteligencia artificial.

Plataforma Gemini: Crea, Gobierna y Optimiza Agentes IA

Esta nueva plataforma unifica los servicios de desarrollo y ajuste de modelos de Vertex AI con funcionalidades avanzadas para la integración de agentes, seguridad y DevOps. Gemini Enterprise Agent Platform ofrece acceso a los modelos Gemini 3.1 Pro y Flash, además de Lyria 3, y soporta también los modelos Claude de Anthropic. Su flexibilidad permite adaptarla a las necesidades específicas de cada equipo.

Además, la plataforma se integra con Gemini Enterprise app, que sirve como punto de acceso centralizado para la IA de ntro de las organizaciones. Esta solución busca simplificar la creación y gestión de agentes autónomos, aprovechando la robusta infraestructura, las capacidades de datos y la seguridad de Google Cloud.

Fuente Original: https://blog.google/innovation-and-ai/infrastructure-and-cloud/google-cloud/gemini-enterprise-agent-platform/

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Vercel Breach Uncovered OAuth Gap Threatens Security Teams

A recent security incident at Vercel, a prominent cloud platform, has highlighted a critical and often overlooked vulnerability: the OAuth gap. The breach, which saw attackers gain unauthorised access to Vercel's internal systems, originated from a seemingly innocuous action – an employee installing a third-party AI tool, Context.ai, and granting it broad permissions via their corporate Google Workspace account. This incident underscores how easily a single compromised account can become a gateway to sensitive production environments.

Vercel Breach: Uncovered OAuth Gap Threatens Security Teams

The attackers exploited a chain of events starting with an infection on an employee's machine at Context.ai, which led to the theft of various credentials, including Google Workspa ce logins. This access was then leveraged to gain entry into Vercel's systems through the pre-existing OAuth grant. A key factor in the escalation was the attacker's ability to access environment variables that were not marked as “sensitive,” which were stored in plaintext and accessible via Vercel's dashboard and API. This allowed them to gather further credentials and move laterally within Vercel's infrastructure.

The incident also revealed that the compromised Context.ai extension possessed a second OAuth grant, allowing read access to users' Google Drive files, further widening the potential attack surface. Security experts point out that most security teams struggle to detect, scope, or contain such breaches because they lack visibility into the OAuth permissions granted by employees to third-party applications, especially AI tools, which are increasingly becoming the new frontier of shadow IT. The extended dwell time between Context.ai's detection of the breach and V ercel's public disclosure also raises concerns about vendor notification timelines. The breach serves as a stark reminder of the need for stringent governance over AI tool integrations and a robust approach to third-party risk management, as the speed and sophistication of attacks, potentially accelerated by AI, continue to grow.

Fuente Original: https://venturebeat.com/security/vercel-breach-exposes-the-oauth-gap-most-security-teams-cannot-detect-scope-or-contain

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

IA con fallos Agentes filtran secretos via prompt injection

Una vulnerabilidad crítica, bautizada como "Comment and Control", ha sido descubierta en varios agentes de codificación de IA, permitiendo la filtración de secretos sensibles a través de una simple inyección de prompts. Investigadores de la Universidad Johns Hopkins demostraron cómo un único comando malicioso introducido en el título de una solicitud de extracción (pull request) en GitHub fue suficiente para que sistemas como Anthropic Claude Code Security Review, Google Gemini CLI Action y GitHub Copilot Agent expusieran sus propias claves API. Este descubrimiento resalta un fallo fundamental en la seguridad de los agentes de IA que operan en entornos de ejecución (runtime).

IA con fallos: Agentes filtran secretos vía prompt injection

La vulnerabilidad explota la forma en que GitHub Actions maneja los secretos cuando se utilizan flujos de trabajo `pull_request_target`, que muchos agentes de IA requieren para acceder a información sensible. Aunque la superficie de ataque práctica se limita a colaboradores, campos de comentarios y repositorios que usan `pull_request_target`, el impacto es significativo. Anthropic clasificó la falla como "Crítica" (CVSS 9.4) y otorgó una recompensa de 100 dólares, Google pagó 1,337 dólares y GitHub 500 dólares. Los tres proveedores han parcheado la vulnerabilidad silenciosamente, pero sin emitir avisos de seguridad formales o CVEs.

Un punto clave de la investigación es lo revelado por las "system cards" (tarjetas de sistema) de los proveedores de IA. La tarjeta de Anthropic para Opus 4.7 advierte explícitamente que la función Claude Code Security Review "no está reforzada contra la inyección de prompts", ya que está diseñada para procesar entradas confiables. De manera similar, las tarjetas de OpenAI y Google, aunque detallan extensos programas de pruebas de penetración y evaluaciones a nivel de modelo, no documentan métricas claras sobre la resistencia de sus agentes a nivel de ejecución ni a la ejecución de herramientas. Esto pone de manifiesto una brecha significativa entre lo que los proveedores documentan sobre sus medidas de seguridad y lo que realmente protegen en el entorno operativo real de los agentes. La investigación subraya la necesidad de una mayor transparencia y de que las organizaciones exijan pruebas cuantificables de la resistencia de estos sistemas para poder gestionar eficazmente el riesgo.

Fuente Original: https://venturebeat.com/security/ai-agent-runtime-security-system-card-audit-comment-and-control-2026

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Mythos de Anthropic Detecta 271 Vulnerabilidades en Firefox

Mozilla ha revelado datos impresionantes sobre las capacidades del modelo de inteligencia artificial Mythos Preview de Anthropic en el campo de la ciberseguridad. Según un comunicado publicado esta semana, el acceso anticipado a esta herramienta permitió identificar 271 vulnerabilidades de seguridad en Firefox 150 antes de su lanzamiento oficial. Este hallazgo ha reavivado el debate sobre si estamos ante una nueva era de ciberdefensa potenciada por IA o simplemente frente a una estrategia de marketing de Anthropic.

Mythos de Anthropic Detecta 271 Vulnerabilidades en Firefox

El CTO de Firefox, Bobby Holley, expresó su entusiasmo afirmando que los defensores cibernéticos finalmente tienen "una oportunidad de ganar de manera decisiva" en la batalla constante contra los ciberatacantes. La magnitud del descubrimiento es notable cuando se compara con el modelo anterior Opus 4.6, que solo detectó 22 errores sensibles de seguridad al analizar Firefox 148 el mes pasado. Esto representa un aumento exponencial en la capacidad de detección de vulnerabilidades mediante inteligencia artificial.

Holley explicó que aunque estas vulnerabilidades también podrían haberse descubierto mediante técnicas automatizadas de "fuzzing" o por investigadores de seguridad de élite analizando el código fuente, usar Mythos eliminó la necesidad de "concentrar muchos meses de costoso esfuerzo humano para encontrar un solo error". La eficiencia de esta herramienta cambia fundamentalmente el equilibrio de la ciberseguridad a favor de los defensores, ya que hace que el descubrimiento de vulnerabilidades sea más económico y accesible para ambas partes.

En una entrevista con Wired, Holley señaló que este tipo de análisis de vulnerabilidades asistido por IA será algo con lo que "cada pieza de software tendrá que comprometerse", especialmente porque todo software tiene errores ocultos que ahora son detectables. Esta tecnología resulta particularmente crucial para proyectos de código abierto que sustentan gran parte de Internet moderno, ya que muchos dependen de un mantenimiento voluntario insuficiente para su seguridad. El CTO de Mozilla, Raffi Krikorian, argumentó en un ensayo que Mythos podría romper el equilibrio tradicional entre la dificultad de encontrar errores y escribir software complejo, democratizando el acceso a herramientas avanzadas de seguridad.

Fuente Original: https://arstechnica.com/ai/2026/04/mozilla-anthropics-mythos-found-271-zero-day-vulnerabilities-in-firefox-150/

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Mozillas AI Discovers 271 Firefox Security Vulnerabilities

Mozilla has achieved a remarkable milestone in software security by leveraging Anthropic's Claude Mythos Preview to identify and fix an unprecedented 271 vulnerabilities in Firefox 150. This groundbreaking application of artificial intelligence represents a significant shift in how browser security is approached, moving beyond traditional methods like fuzzing tools and manual code review.

Mozilla's AI Discovers 271 Firefox Security Vulnerabilities

The AI system demonstrated capabilities that were simply impossible just months ago, analysing Firefox's codebase with a level of sophistication that rivals the world's best human security researchers. According to Mozilla, Mythos Preview has proven equally capable of identifying vulnerabilities across all categories and complexity levels that human experts can find. This isn't just about incremental improvement—it's about fundamentally changing the scale at which security flaws can be discovered and addressed.

The implications extend far beyond a single Firefox release. Historically, cybersecurity has favoured attackers because they only need to find one exploitable flaw, whilst defenders must protect against all possible vulnerabilities. AI-powered vulnerability discovery could rebalance this equation by enabling defenders to identify and patch security holes faster than attackers can weaponise them. Whilst this doesn't mean zero-day exploits will disappear overnight, it suggests a future where the window of opportunity for malicious actors becomes significantly narrower.

Mozilla's optimistic conclusion speaks volumes about this technological breakthrough: "The defects are finite, and we are entering a world where we can finally find them all." This statement reflects a paradigm shift in thinking about software security—moving from reactive patching to proactive, comprehensive vulnerability elimination. As AI models continue to advance, we may be witnessing the early stages of a new era in cybersecurity where comprehensive code security becomes not just an aspiration, but an achievable reality.

Fuente Original: https://news.slashdot.org/story/26/04/21/2028206/mozilla-uses-anthropics-mythos-to-fix-271-bugs-in-firefox?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

martes, 21 de abril de 2026

IA en Seguridad Riesgos y Soluciones para Empresas

En 2025, más de 90 organizaciones sufrieron el secuestro de sus herramientas de seguridad basadas en inteligencia artificial (IA). Los atacantes inyectaron indicaciones maliciosas en estas herramientas legítimas, logrando robar credenciales y criptomonedas. Inicialmente, estas herramientas comprometidas solo tenían la capacidad de leer datos, pero la próxima generación de agentes de seguridad autónomos (SOC) ya posee acceso de escritura a elementos críticos como los firewalls.

IA en Seguridad: Riesgos y Soluciones para Empresas

Esta escalada es alarmante, ya que estos agentes de SOC autónomos pueden reescribir reglas de firewall, modificar políticas de gestión de identidades y accesos (IAM), e incluso poner en cuarentena endpoints, todo ello utilizando sus propias credenc iales privilegiadas y a través de llamadas API que son clasificadas como actividad autorizada por los sistemas de detección y respuesta de endpoints (EDR). Esto significa que el adversario nunca necesita tocar la red directamente; el propio agente actúa en su nombre.

La rápida evolución de la IA en ciberseguridad está acelerando la innovación, pero también las oportunidades de explotación. Informes recientes, como el Global Threat Report 2026 de CrowdStrike, destacan que la IA está comprimiendo el tiempo entre la intención y la ejecución, convirtiendo los sistemas empresariales de IA en objetivos. El uso de IA por parte de estados para operaciones ofensivas ha aumentado significativamente. Además, el panorama de amenazas se expande con clones de servidores de gestión de configuración de activos (MCP) maliciosos que interceptan datos sensibles al suplantar servicios de confianza. La advertencia del Centro Nacional de Ciberseguridad del Reino Unido de que los ataq ues de inyección de prompts contra aplicaciones de IA "quizás nunca se mitiguen por completo" subraya la magnitud del desafío.

Para abordar estos riesgos, se han desarrollado marcos de gobernanza como el OWASP Top 10 para Aplicaciones Agentes. Este documento identifica 10 categorías de ataques contra sistemas autónomos de IA, tres de las cuales son particularmente relevantes para los agentes de SOC con acceso de escritura: secuestro de objetivos, uso indebido de herramientas y abuso de identidad y privilegios. La proliferación de identidades de máquina en comparación con las identidades humanas (una proporción de 82:1 en promedio) agrava este problema, ya que cada agente autónomo introduce una brecha adicional.

Los informes indican que una parte significativa de las organizaciones ha observado comportamientos no deseados en sus agentes de IA y se siente poco confiada en su capacidad para contener un agente comprometido. Muchos profesionales de la ciberseguridad consideran la IA agente como el vector de ataque más peligroso. El riesgo no solo proviene de los modelos de IA, sino de su nivel de autonomía, el alcance de sus privilegios y el entorno operativo en el que operan. Si bien la industria está reconociendo la necesidad de controles, la pregunta clave es si estos controles llegarán a tiempo para prevenir las explotaciones a gran escala.

Soluciones como las que ofrece Ivanti, que integran el cumplimiento continuo y agentes de autoservicio de IA con salvaguardas incorporadas para políticas, aprobaciones y validación de datos, están comenzando a abordar la brecha de gobernanza. Estos enfoques, que priorizan la velocidad junto con la gobernanza, buscan automatizar tareas rutinarias y permitir que los equipos de seguridad se centren en iniciativas de mayor valor, todo ello dentro de los límites definidos. Sin embargo, la aplicación de políticas de acceso para identidades de IA y la gobernanza de todas las identidades de IA c on los mismos controles que los usuarios humanos siguen siendo desafíos críticos para la mayoría de las organizaciones.

Fuente Original: https://venturebeat.com/security/adversaries-hijacked-ai-security-tools-at-90-organizations-the-next-wave-has-write-access-to-the-firewall

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

GitHub Copilot Pauses Sign-ups Amidst AI Cost Surge

GitHub has temporarily halted new sign-ups for its popular Copilot Pro, Pro+, and Student plans. This significant move stems from a growing disparity between how developers are now utilising the AI coding assistant and the infrastructure originally designed to support it. The core issue lies with 'agentic coding workflows', which involve long, complex, and often parallel AI sessions that are now routinely incurring compute costs exceeding the fixed monthly subscription fees.

GitHub Copilot Pauses Sign-ups Amidst AI Cost Surge

VP of Product, Joe Binder, highlighted that it's now commonplace for a small number of requests to generate costs greater than a user's monthly payment. Consequently, as of April 20th, only the Copilot Free tier remains open for new individual users. While existing subscribers can maintain their current plans and even upgrade, GitHub has not provided a timeframe for reinstating new subscriptions. Existing Pro and Pro+ users who have contacted support between April 20th and May 20th are eligible for a refund for April's charges.

To address this economic imbalance and encourage heavier users towards the more expensive Pro+ tier, GitHub is implementing stricter usage limits across all individual plans. These caps on sessions and weekly tokens govern the amount of data processed, operating independently of premium request entitlements for model access. The premium Pro+ plan, priced at $39 per month, now offers significantly more generous limits compared to the $10 Pro plan. Furthermore, access to Anthropic's most advanced Opus models is being restricted, migrating exclusively to the Pro+ tier, while being entirely removed from the Pro plan. GitHub is also introducing usage warnings within VS Code and the Copilot CLI to help developers monitor their consumption before hitting limits mid-task. This strategic shift underscores the evolving economics of AI development, moving from simple code completion to more intensive, agent-driven workflows that demand a re-evaluation of pricing structures.

Fuente Original: https://thenextweb.com/news/github-copilot-signup-pause-agentic-ai-usage-limits

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

OpenAI Codex IA que ve tu pantalla Contexto con Capturas

OpenAI ha lanzado una nueva función para su aplicación de escritorio Codex en Mac llamada Chronicle. Esta característica experimental permite a la IA tener un contexto pasivo sobre tu actividad al tomar capturas de pantalla periódicas de tu pantalla.

OpenAI Codex: ¿IA que ve tu pantalla? Contexto con Capturas

La novedad reside en que estas capturas se envían a los servidores de OpenAI para su procesamiento, donde se generan resúmenes en texto. Estos resúmenes se guardan localmente en formato Markdown sin cifrar, lo que permite a Codex recordar lo que estabas haciendo sin que tengas que explicárselo explícitamente.

Chronicle forma parte de una actualización más amplia que ha transformado Codex de un asistente de codificación a un espacio de trabajo de IA más generalista. La función requiere permisos de grabación de pantalla y accesibilidad, y solo está disponible para usuarios con suscripción Pro de ChatGPT y Macs con Apple Silicon. Es importante destacar que Chronicle no está disponible en la Unión Europea, Reino Unido y Suiza, lo que sugiere preocupaciones de privacidad.

A diferencia de competidores como Microsoft Recall, que procesa y almacena datos localmente de forma encriptada, Chronicle opta por el procesamiento en la nube. OpenAI afirma que las capturas de pantalla originales se eliminan después de seis horas y no se utilizan para entrenamiento, pero los resúmenes persistirán localmente. Esta elección plantea serias dudas sobre la privacidad, ya que los archivos de memoria no están cifrados y podrían contener información sensible, aumentando el riesgo de inyección de prompts.

La industria tecnológica avanza hacia la IA ambiental, que comprende el contexto del usuario de forma continua. Chronicle es el primer paso de OpenAI en este ámbito para escritorio, prometiendo una mayor productividad al eliminar la necesidad de reexplicar el contexto. Sin embargo, la dependencia de la nube para el procesamiento y la arquitectura de confianza plantean interrogantes sobre su viabilidad regulatoria y la confianza del usuario, especialmente tras experiencias previas con promesas de privacidad en la industria.

Fuente Original: https://thenextweb.com/news/openai-codex-chronicle-screen-context-mac

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Amazon Invierte 25 Mil Millones en Anthropic

Amazon ha anunciado una inversión masiva de hasta $25 mil millones en Anthropic, la compañía de inteligencia artificial responsable de los modelos Claude. Este acuerdo forma parte de una alianza ampliada que asegura más de $100 mil millones en gasto de computación en la nube que Anthropic realizará en Amazon Web Services durante la próxima década. Esta operación representa la segunda mega-ronda consecutiva de Amazon con un laboratorio de IA de vanguardia, siguiendo una inversión casi idéntica de $50 mil millones en OpenAI hace dos meses.

Amazon Invierte $25 Mil Millones en Anthropic

La estructura del acuerdo es particularmente reveladora. Amazon está realizando una inversión inmediata de $5 mil millones, mientras que los $20 mil millones restantes están vinculados a hitos comerciales específicos. Esto se suma a los $8 mil millones que Amazon ya había comprometido con Anthropic desde 2023, elevando la inversión total potencial a aproximadamente $33 mil millones. Sin embargo, el compromiso de $100 mil millones de Anthropic con AWS no es un pago directo, sino una promesa de adquisición de computación en la nube, chips de IA personalizados y servicios de infraestructura durante diez años.

En el centro de este acuerdo se encuentran los chips Trainium de Amazon, su alternativa interna a las GPU de Nvidia para entrenamiento e inferencia de IA. El trato cubre los actuales Trainium2, el próximo Trainium3 y el aún no lanzado Trainium4, además de decenas de millones de núcleos CPU Graviton. Anthropic asegura hasta 5 gigavatios de capacidad para entrenar y desplegar sus modelos Claude, con una capacidad significativa de Trainium2 que estará disponible en el segundo trimestre de 2026.

Este compromiso de computación responde directamente a la creciente demanda que Anthropic está experimentando: los ingresos anualizados de la compañía han alcanzado los $30 mil millones, un aumento considerable desde los aproximadamente $9 mil millones a finales de 2025. La asociación también profundiza la distribución de los modelos de Anthropic, permitiendo a los clientes de AWS acceder a la Plataforma Claude completa directamente a través de sus cuentas existentes, sin necesidad de credenciales o facturación separadas. Este acuerdo consolida a Amazon como el socio de infraestructura principal de Anthropic, eclipsando el acuerdo previo con Microsoft de noviembre de 2025, que involucró una inversión de hasta $5 mil millones y $30 mil millones en capacidad de computación Azure.

Fuente Original: https://thenextweb.com/news/amazon-anthropic-25-billion-investment

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Creating Chrome Exploits Using Claude AI Coding

Artificial intelligence is revolutionising the landscape of cybersecurity vulnerability research and exploitation. A recent experiment demonstrates how AI language models can now autonomously develop exploits for publicly disclosed Chrome vulnerabilities, raising serious concerns about the security of Electron-based applications.

Creating Chrome Exploits Using Claude AI Coding

Security researcher s1r1us conducted a compelling study using Claude Opus to create a functional exploit for a Chrome CVE without any public proof-of-concept code. The investigation revealed a critical security gap: whilst Google Chrome promptly patches vulnerabilities, popular Electron-based applications like Discord, Slack, Cursor, and Claude Desktop embed outdated Chrome versions that remain vulnerable for extended periods. At the time of writing, Chrome had reached version 147, yet many widely-used Electron applications still run significantly older versions, leaving millions of installations exposed.

The methodology involved selecting a high-severity CVE from Chrome's recently patched vulnerabilities and directing Claude Opus to analyse and exploit it through iterative prompting. The AI model successfully developed read and write primitives within Chrome's sandbox. To achieve full exploitation, the researcher then pointed Claude towards a known V8 sandbox bypass documented in Chromium's issue tracker, enabling the creation of a complete working exploit chain.

The economics of this approach prove particularly concerning. The entire exercise required approximately 20 hours of human supervision and roughly 2,000 USD in API tokens. Considering that bug bounty programmes typically pay around 10,000 USD for such exploits, the process remains financially viable. More troubling is the trajectory of AI capability improvements—future models may require even less human intervention, potentially automating the entire exploit development process.

This development highlights fundamental questions about vulnerability disclosure practices and software supply chain security. The substantial time lag between component updates and their integration into dependent applications creates exploitable windows that AI-assisted attackers can now leverage efficiently. As AI models become more sophisticated, the industry may need to reconsider how quickly security information is published and whether current patching timelines remain adequate in an era of AI-accelerated exploit development.

Fuente Original: http://www.elladodelmal.com/2026/04/como-crear-un-exploit-1-day-sobre-un.html

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

lunes, 20 de abril de 2026

IA de Vanguardia Revolucionando la Ciberseguridad Ahora

La inteligencia artificial (IA) de vanguardia, personificada por modelos como 'Mythos' de Anthropic, está a punto de transformar radicalmente el panorama de la ciberseguridad. Lejos de ser una mera herramienta, esta nueva generación de IA promete redefinir la forma en que abordamos la protección digital, ofreciendo capacidades predictivas y defensivas sin precedentes.

IA de Vanguardia: Revolucionando la Ciberseguridad Ahora

Los avances en IA están permitiendo el desarrollo de sistemas capaces de anticipar y neutralizar amenazas cibernéticas antes de que se materialicen. Estos sistemas avanzados pueden analizar patrones complejos de datos, identificar anomalías sutiles que escapan a la detección humana y responder con una velocidad y precisión extraordinarias. Se espera que la IA no solo mejore las defensas existentes, sino que también cree nuevas formas de protección, adaptándose dinámicamente a las tácticas cambiantes de los ciberdelincuentes.

La implementación de estas IAs avanzadas en la ciberseguridad plantea un futuro donde la detección proactiva, la respuesta automatizada y la comprensión profunda de las amenazas serán la norma. Esto podría significar una reducción significativa en el impacto de los ciberataques, protegiendo tanto a individuos como a organizaciones en un mundo cada vez más digitalizado y vulnerable.

Fuente Original: https://news.google.com/rss/articles/CBMif0FVX3lxTE1JSFZBR3I1eXh1NVBMMXVFcy1BRGVaQldMN1R6Q19sWEJrZjA0MWpEdWo2Qm1zWlI4ajl4ZmJKYVlXM3QtUG5HWE94M2h4ckNteHlleXBZdzI1bzIyZDJlSjU1SDFucTlsalB4UzhQRmNWeDVIMkpQb zQtNTliV1k?oc=5

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT