jueves, 23 de abril de 2026

Microsoft Invertira 25 Mil Millones en Australia IA y Empleo

Microsoft ha anunciado una inversión histórica en Australia, comprometiendo A$25 mil millones hasta 2029. Este ambicioso plan representa la mayor inversión de la compañía en el país hasta la fecha y se suma a un compromiso previo de A$5 mil millones realizado en octubre de 2023. El anuncio, realizado por el CEO Satya Nadella junto al Primer Ministro Anthony Albanese, subraya la importancia estratégica de Australia en la expansión global de la inteligencia artificial.

Microsoft Invertirá 25 Mil Millones en Australia: IA y Empleo

La inversión se centrará en cuatro áreas clave. En primer lugar, la infraestructura: Microsoft ampliará su capacidad de supercomputación de IA a través de Azure en más de un 140%, desplegando procesadores avanzados y fortaleciendo la huella de centros de datos en el país. Actualmente, A ustralia cuenta con 29 sitios de Microsoft Azure, una red que se expandirá significativamente.

En segundo lugar, la ciberseguridad se verá reforzada. El programa Microsoft-ASD Cyber-Shield, una colaboración con la Dirección de Señales de Australia, se extenderá a más agencias gubernamentales y se profundizará la cooperación en resiliencia nacional con el Departamento de Asuntos Internos. Esto busca una integración más estrecha entre la infraestructura de Microsoft y la arquitectura de seguridad nacional australiana.

La tercera área es el desarrollo de habilidades. Microsoft se ha comprometido a capacitar a tres millones de australianos en habilidades de IA listas para el mercado laboral para finales de 2028, complementando el compromiso previo de formar a más de un millón de australianos y neozelandeses. Finalmente, la inversión abordará la seguridad y gobernanza de la IA, incluyendo una colaboración con el Instituto Australiano de Seguridad de IA y un d iálogo pionero con trabajadores sobre el impacto de la IA en el empleo.

Este compromiso sitúa a Australia como un actor clave en el crecimiento económico impulsado por la IA, y no solo como un consumidor. La inversión se alinea con el Plan Nacional de IA del gobierno australiano, buscando capitalizar las oportunidades de la IA mientras se gestionan sus riesgos. Según estimaciones encargadas por Microsoft, la compañía ya contribuye significativamente a la economía local y al empleo, cifras que se espera aumenten con esta nueva inyección de capital.

Fuente Original: https://thenextweb.com/news/microsoft-a25-billion-australia-ai-investment

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Cloudsmith Secures 72M for AI Software Supply Chain Security

Cloudsmith, a Belfast-based firm specialising in artifact management, has successfully secured a substantial $72 million in Series C funding. The round was spearheaded by TCV, with existing investors like Insight Partners also participating, demonstrating a strong, renewed confidence in the company's vision less than 13 months after their $23 million Series B. This significant investment is earmarked for further product development and a broader go-to-market expansion.

Cloudsmith Secures $72M for AI Software Supply Chain Security

The core of Cloudsmith's mission addresses a critical and evolving challenge in enterprise software development. As artificial intelligence coding agents become increasingly adept at generating software at an astonishing pace and volume, the traditional human code review process is becoming insufficient. This surge in AI-generated code leads to an explosion in software artifacts – anything from package files and compiled applications to dependencies and containers – that enterprises must meticulously manage, track, and secure. The threat landscape is also expanding, with compromised open-source dependencies, novel vulnerability patterns introduced by AI, and growing regulatory demands for software to be "secure by design" amplifying the need for robust security measures.

Cloudsmith's platform acts as a cloud-native private registry and artifact management solution. It empowers enterprises to host and distribute their internal software packages, mirror public registries like PyPI and Docker Hub within a controlled private environment, and critically, to enforce security scanning, policy enforcement, and access controls on every component entering or exiting their build pipelines. The company positions its offering as a superior alternative to legacy platforms such as JFrog Artifactory and Sonatype Nexus, arguing that these older tools were not built to handle the scale and complexity of AI-driven development. Cloudsmith has recently enhanced its offering with an ML Model Registry and an Enterprise Policy Manager, further solidifying its commitment to governing and securing the AI software supply chain.

Fuente Original: https://thenextweb.com/news/cloudsmith-72m-series-c-tcv-ai-software-supply-chain

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Google Lanza TPUs Para La Era Agente

Google ha presentado dos nuevos Tensor Processing Units (TPUs) de octava generación, diseñados para abordar las demandas de la emergente "era agente" en la inteligencia artificial. A diferencia de depender exclusivamente de hardware de terceros, Google continúa innovando con sus propios chips personalizados, optimizados tanto para el entrenamiento como para la inferencia de modelos de IA.

Google Lanza TPUs Para La Era 'Agente'

La principal novedad son dos modelos: el TPU 8t, enfocado en el entrenamiento de modelos de IA de vanguardia, y el TPU 8i, optimizado para la inferencia. El TPU 8t promete reducir drásticamente los tiempos de entrenamiento, pasando de meses a semanas, gracias a sus clústeres de hasta 9600 chips y dos petabytes de memoria compartida. Ofrece casi el triple de capacidad de cómputo para entrenamie nto que su predecesor, Ironwood, y una notable eficiencia con una tasa de "goodpute" (cómputo útil) del 97%, minimizando el tiempo de inactividad y desperdicio.

Por otro lado, el TPU 8i está diseñado para la eficiencia en la ejecución de múltiples agentes especializados. Aunque posee menos potencia bruta que el 8t, triplica la cantidad de SRAM en chip, permitiendo cachés de valor clave más grandes y acelerando modelos con ventanas de contexto extendidas. Además, estos nuevos TPUs son los primeros en utilizar exclusivamente los CPUs ARM Axion de Google, integrando un CPU por cada dos TPUs para una mayor eficiencia general del sistema. Esta estrategia de "stack completo" basada en ARM busca optimizar el consumo de energía y el rendimiento.

La eficiencia energética es un pilar fundamental de estas nuevas unidades. Google afirma que los TPUs de octava generación ofrecen el doble de rendimiento por vatio en comparación con Ironwood. También se han implementado m ejoras en los centros de datos, como la integración de redes y cómputo en un solo chip y diseños de clústeres más eficientes, que han aumentado la potencia de cómputo por unidad de electricidad hasta seis veces. Se ha adaptado un sistema de refrigeración líquida para gestionar el calor generado, ajustando el flujo de agua según la carga de trabajo para una mayor eficiencia en el enfriamiento.

Estos nuevos TPUs estarán disponibles para potenciar los agentes basados en Gemini de Google y también para desarrolladores externos, soportando los frameworks de IA más populares como JAX, PyTorch y TensorFlow. El lanzamiento de estos chips por parte de Google subraya la creciente competencia en el mercado de aceleradores de IA y la importancia de hardware especializado para la próxima generación de sistemas de inteligencia artificial.

Fuente Original: https://arstechnica.com/ai/2026/04/google-unveils-two-new-tpus-designed-for-the-agentic-era/

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

OpenAI Lanza Workspace Agents Revolucion Empresarial IA

OpenAI ha presentado Workspace Agents, una innovación que marca el fin de los GPT personalizados y el comienzo de una nueva era en la automatización empresarial. Esta solución permite a los usuarios de ChatGPT Business, Enterprise, Edu y Teachers crear agentes de IA capaces de integrarse directamente con aplicaciones empresariales populares como Slack, Salesforce, Google Drive, Microsoft Suite, Notion y Atlassian Rovo, transformando radicalmente cómo las organizaciones gestionan tareas repetitivas y complejas.

OpenAI Lanza Workspace Agents: Revolución Empresarial IA

Lo revolucionario de Workspace Agents es su capacidad para ejecutar tareas de forma autónoma sin supervisión constante. Estos agentes pueden redactar correos electrónicos, generar presentaciones, extraer datos de múltiples fuentes y continuar trabajando incluso después de que el usuario se desconecte. A diferencia de los asistentes de IA tradicionales que requerían interacción continua, estos agentes funcionan en la nube, mantienen memoria entre sesiones y pueden programarse para ejecutar tareas recurrentes automáticamente, como informes semanales o análisis mensuales.

La tecnología detrás de esta innovación es Codex, el sistema de generación de código de OpenAI que proporciona a los agentes capacidades avanzadas de ejecución. Esto significa que los agentes no solo describen el trabajo, sino que realmente lo ejecutan: transforman archivos CSV, reconcilian sistemas de registro, generan gráficos precisos y ejecutan código cuando es necesario. Esta base técnica es fundamental para entender por qué Workspace Agents representa un salto cualitativo respecto a soluciones anteriores.

OpenAI ha implementado controles de gobernanza robustos para abordar las preocupaciones de seguridad empresarial. Los administradores pueden definir permisos granulares sobre quién puede crear, ejecutar y publicar agentes, y qué herramientas pueden utilizar. Los agentes ofrecen dos modos de autenticación: por cuenta de usuario individual o por cuenta compartida del agente. Las acciones de escritura requieren aprobación humana por defecto, aunque esto puede configurarse según las necesidades de cada organización.

El producto estará disponible gratuitamente hasta el 6 de mayo de 2026, después de lo cual se implementará un modelo de precios basado en créditos. Empresas como Rippling, SoftBank Corp., Better Mortgage y BBVA ya están probando esta tecnología. Rippling reporta que un consultor de ventas pudo crear un agente que investiga cuentas, resume llamadas y publica resúmenes de acuerdos en Slack, ahorrando entre 5 y 6 horas semanales por representante, una tarea que anteriormente requería un equipo de ingeniería completo.

Este lanzamiento representa un cambio estratégico significativo para OpenAI, que está retirando gradualmente los GPT personalizados en favor de este nuevo paradigma centrado en agentes empresariales. La compañía se posiciona así en un mercado altamente competitivo donde Microsoft, Google, Salesforce y Anthropic también están desarrollando soluciones similares de agentes empresariales integrados.

Fuente Original: https://venturebeat.com/orchestration/openai-unveils-workspace-agents-a-successor-to-custom-gpts-for-enterprises-that-can-plug-directly-into-slack-salesforce-and-more

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

OpenAIs Privacy Filter Open-Source Data Protection

OpenAI has unveiled Privacy Filter, a groundbreaking open-source tool designed to safeguard sensitive information before it reaches cloud servers. Released on Hugging Face under the permissive Apache 2.0 licence, this innovative model represents a significant step towards privacy-first artificial intelligence infrastructure. The tool addresses a critical industry challenge: preventing personally identifiable information from leaking into training datasets or being exposed during AI processing.

OpenAI's Privacy Filter: Open-Source Data Protection

Privacy Filter is a 1.5-billion-parameter model that can operate on standard laptops or directly within web browsers, effectively functioning as a sophisticated digital shredder for sensitive data. Unlike traditional language models that predict text sequentially, Privacy Filter employs a bidirectional token classifier, reading sentences from both directions simultaneously. This approach provides superior contextual understanding, enabling the model to distinguish between, for instance, a private individual named Alice and the literary character from Wonderland.

The model utilises a Sparse Mixture-of-Experts framework, activating only 50 million parameters during any single operation despite containing 1.5 billion total parameters. This efficient design allows for high-speed processing without excessive computational demands. Remarkably, it features a 128,000-token context window, enabling it to process entire legal documents or lengthy email threads in one pass without fragmenting text—a common limitation that causes traditional filters to lose track of entities across page breaks.

Privacy Filter currently detects eight primary categories of personally identifiable information, including private names, contact details, digital identifiers, and sensitive credentials such as API keys and passwords. Enterprises can deploy the model on-premises or within private clouds, masking data locally before sending it to more powerful AI systems. This approach maintains compliance with stringent GDPR and HIPAA standards whilst leveraging advanced AI capabilities.

The Apache 2.0 licence marks a particularly significant aspect of this release, offering developers complete commercial freedom without royalty obligations. Companies can integrate Privacy Filter into proprietary products, customise it for specific industries, and avoid viral licensing requirements. This positions the tool as a fundamental utility for the AI era. The tech community has responded positively, with engineers praising the model's efficiency and impressive technical achievements. However, OpenAI cautions that Privacy Filter should be viewed as a redaction aid rather than an absolute safety guarantee, recommending against over-reliance in highly sensitive medical or legal workflows.

Fuente Original: https://venturebeat.com/data/openai-launches-privacy-filter-an-open-source-on-device-data-sanitization-model-that-removes-personal-information-from-enterprise-datasets

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

miércoles, 22 de abril de 2026

Plataforma Gemini Crea Gobierna y Optimiza Agentes IA

Google Cloud lanza su innovadora Plataforma Gemini Enterprise Agent, una solución integral diseñada para que los equipos técnicos puedan construir, escalar, gobernar y optimizar agentes de inteligencia artificial.

Plataforma Gemini: Crea, Gobierna y Optimiza Agentes IA

Esta nueva plataforma unifica los servicios de desarrollo y ajuste de modelos de Vertex AI con funcionalidades avanzadas para la integración de agentes, seguridad y DevOps. Gemini Enterprise Agent Platform ofrece acceso a los modelos Gemini 3.1 Pro y Flash, además de Lyria 3, y soporta también los modelos Claude de Anthropic. Su flexibilidad permite adaptarla a las necesidades específicas de cada equipo.

Además, la plataforma se integra con Gemini Enterprise app, que sirve como punto de acceso centralizado para la IA de ntro de las organizaciones. Esta solución busca simplificar la creación y gestión de agentes autónomos, aprovechando la robusta infraestructura, las capacidades de datos y la seguridad de Google Cloud.

Fuente Original: https://blog.google/innovation-and-ai/infrastructure-and-cloud/google-cloud/gemini-enterprise-agent-platform/

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Vercel Breach Uncovered OAuth Gap Threatens Security Teams

A recent security incident at Vercel, a prominent cloud platform, has highlighted a critical and often overlooked vulnerability: the OAuth gap. The breach, which saw attackers gain unauthorised access to Vercel's internal systems, originated from a seemingly innocuous action – an employee installing a third-party AI tool, Context.ai, and granting it broad permissions via their corporate Google Workspace account. This incident underscores how easily a single compromised account can become a gateway to sensitive production environments.

Vercel Breach: Uncovered OAuth Gap Threatens Security Teams

The attackers exploited a chain of events starting with an infection on an employee's machine at Context.ai, which led to the theft of various credentials, including Google Workspa ce logins. This access was then leveraged to gain entry into Vercel's systems through the pre-existing OAuth grant. A key factor in the escalation was the attacker's ability to access environment variables that were not marked as “sensitive,” which were stored in plaintext and accessible via Vercel's dashboard and API. This allowed them to gather further credentials and move laterally within Vercel's infrastructure.

The incident also revealed that the compromised Context.ai extension possessed a second OAuth grant, allowing read access to users' Google Drive files, further widening the potential attack surface. Security experts point out that most security teams struggle to detect, scope, or contain such breaches because they lack visibility into the OAuth permissions granted by employees to third-party applications, especially AI tools, which are increasingly becoming the new frontier of shadow IT. The extended dwell time between Context.ai's detection of the breach and V ercel's public disclosure also raises concerns about vendor notification timelines. The breach serves as a stark reminder of the need for stringent governance over AI tool integrations and a robust approach to third-party risk management, as the speed and sophistication of attacks, potentially accelerated by AI, continue to grow.

Fuente Original: https://venturebeat.com/security/vercel-breach-exposes-the-oauth-gap-most-security-teams-cannot-detect-scope-or-contain

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

IA con fallos Agentes filtran secretos via prompt injection

Una vulnerabilidad crítica, bautizada como "Comment and Control", ha sido descubierta en varios agentes de codificación de IA, permitiendo la filtración de secretos sensibles a través de una simple inyección de prompts. Investigadores de la Universidad Johns Hopkins demostraron cómo un único comando malicioso introducido en el título de una solicitud de extracción (pull request) en GitHub fue suficiente para que sistemas como Anthropic Claude Code Security Review, Google Gemini CLI Action y GitHub Copilot Agent expusieran sus propias claves API. Este descubrimiento resalta un fallo fundamental en la seguridad de los agentes de IA que operan en entornos de ejecución (runtime).

IA con fallos: Agentes filtran secretos vía prompt injection

La vulnerabilidad explota la forma en que GitHub Actions maneja los secretos cuando se utilizan flujos de trabajo `pull_request_target`, que muchos agentes de IA requieren para acceder a información sensible. Aunque la superficie de ataque práctica se limita a colaboradores, campos de comentarios y repositorios que usan `pull_request_target`, el impacto es significativo. Anthropic clasificó la falla como "Crítica" (CVSS 9.4) y otorgó una recompensa de 100 dólares, Google pagó 1,337 dólares y GitHub 500 dólares. Los tres proveedores han parcheado la vulnerabilidad silenciosamente, pero sin emitir avisos de seguridad formales o CVEs.

Un punto clave de la investigación es lo revelado por las "system cards" (tarjetas de sistema) de los proveedores de IA. La tarjeta de Anthropic para Opus 4.7 advierte explícitamente que la función Claude Code Security Review "no está reforzada contra la inyección de prompts", ya que está diseñada para procesar entradas confiables. De manera similar, las tarjetas de OpenAI y Google, aunque detallan extensos programas de pruebas de penetración y evaluaciones a nivel de modelo, no documentan métricas claras sobre la resistencia de sus agentes a nivel de ejecución ni a la ejecución de herramientas. Esto pone de manifiesto una brecha significativa entre lo que los proveedores documentan sobre sus medidas de seguridad y lo que realmente protegen en el entorno operativo real de los agentes. La investigación subraya la necesidad de una mayor transparencia y de que las organizaciones exijan pruebas cuantificables de la resistencia de estos sistemas para poder gestionar eficazmente el riesgo.

Fuente Original: https://venturebeat.com/security/ai-agent-runtime-security-system-card-audit-comment-and-control-2026

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Mythos de Anthropic Detecta 271 Vulnerabilidades en Firefox

Mozilla ha revelado datos impresionantes sobre las capacidades del modelo de inteligencia artificial Mythos Preview de Anthropic en el campo de la ciberseguridad. Según un comunicado publicado esta semana, el acceso anticipado a esta herramienta permitió identificar 271 vulnerabilidades de seguridad en Firefox 150 antes de su lanzamiento oficial. Este hallazgo ha reavivado el debate sobre si estamos ante una nueva era de ciberdefensa potenciada por IA o simplemente frente a una estrategia de marketing de Anthropic.

Mythos de Anthropic Detecta 271 Vulnerabilidades en Firefox

El CTO de Firefox, Bobby Holley, expresó su entusiasmo afirmando que los defensores cibernéticos finalmente tienen "una oportunidad de ganar de manera decisiva" en la batalla constante contra los ciberatacantes. La magnitud del descubrimiento es notable cuando se compara con el modelo anterior Opus 4.6, que solo detectó 22 errores sensibles de seguridad al analizar Firefox 148 el mes pasado. Esto representa un aumento exponencial en la capacidad de detección de vulnerabilidades mediante inteligencia artificial.

Holley explicó que aunque estas vulnerabilidades también podrían haberse descubierto mediante técnicas automatizadas de "fuzzing" o por investigadores de seguridad de élite analizando el código fuente, usar Mythos eliminó la necesidad de "concentrar muchos meses de costoso esfuerzo humano para encontrar un solo error". La eficiencia de esta herramienta cambia fundamentalmente el equilibrio de la ciberseguridad a favor de los defensores, ya que hace que el descubrimiento de vulnerabilidades sea más económico y accesible para ambas partes.

En una entrevista con Wired, Holley señaló que este tipo de análisis de vulnerabilidades asistido por IA será algo con lo que "cada pieza de software tendrá que comprometerse", especialmente porque todo software tiene errores ocultos que ahora son detectables. Esta tecnología resulta particularmente crucial para proyectos de código abierto que sustentan gran parte de Internet moderno, ya que muchos dependen de un mantenimiento voluntario insuficiente para su seguridad. El CTO de Mozilla, Raffi Krikorian, argumentó en un ensayo que Mythos podría romper el equilibrio tradicional entre la dificultad de encontrar errores y escribir software complejo, democratizando el acceso a herramientas avanzadas de seguridad.

Fuente Original: https://arstechnica.com/ai/2026/04/mozilla-anthropics-mythos-found-271-zero-day-vulnerabilities-in-firefox-150/

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Mozillas AI Discovers 271 Firefox Security Vulnerabilities

Mozilla has achieved a remarkable milestone in software security by leveraging Anthropic's Claude Mythos Preview to identify and fix an unprecedented 271 vulnerabilities in Firefox 150. This groundbreaking application of artificial intelligence represents a significant shift in how browser security is approached, moving beyond traditional methods like fuzzing tools and manual code review.

Mozilla's AI Discovers 271 Firefox Security Vulnerabilities

The AI system demonstrated capabilities that were simply impossible just months ago, analysing Firefox's codebase with a level of sophistication that rivals the world's best human security researchers. According to Mozilla, Mythos Preview has proven equally capable of identifying vulnerabilities across all categories and complexity levels that human experts can find. This isn't just about incremental improvement—it's about fundamentally changing the scale at which security flaws can be discovered and addressed.

The implications extend far beyond a single Firefox release. Historically, cybersecurity has favoured attackers because they only need to find one exploitable flaw, whilst defenders must protect against all possible vulnerabilities. AI-powered vulnerability discovery could rebalance this equation by enabling defenders to identify and patch security holes faster than attackers can weaponise them. Whilst this doesn't mean zero-day exploits will disappear overnight, it suggests a future where the window of opportunity for malicious actors becomes significantly narrower.

Mozilla's optimistic conclusion speaks volumes about this technological breakthrough: "The defects are finite, and we are entering a world where we can finally find them all." This statement reflects a paradigm shift in thinking about software security—moving from reactive patching to proactive, comprehensive vulnerability elimination. As AI models continue to advance, we may be witnessing the early stages of a new era in cybersecurity where comprehensive code security becomes not just an aspiration, but an achievable reality.

Fuente Original: https://news.slashdot.org/story/26/04/21/2028206/mozilla-uses-anthropics-mythos-to-fix-271-bugs-in-firefox?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

martes, 21 de abril de 2026

IA en Seguridad Riesgos y Soluciones para Empresas

En 2025, más de 90 organizaciones sufrieron el secuestro de sus herramientas de seguridad basadas en inteligencia artificial (IA). Los atacantes inyectaron indicaciones maliciosas en estas herramientas legítimas, logrando robar credenciales y criptomonedas. Inicialmente, estas herramientas comprometidas solo tenían la capacidad de leer datos, pero la próxima generación de agentes de seguridad autónomos (SOC) ya posee acceso de escritura a elementos críticos como los firewalls.

IA en Seguridad: Riesgos y Soluciones para Empresas

Esta escalada es alarmante, ya que estos agentes de SOC autónomos pueden reescribir reglas de firewall, modificar políticas de gestión de identidades y accesos (IAM), e incluso poner en cuarentena endpoints, todo ello utilizando sus propias credenc iales privilegiadas y a través de llamadas API que son clasificadas como actividad autorizada por los sistemas de detección y respuesta de endpoints (EDR). Esto significa que el adversario nunca necesita tocar la red directamente; el propio agente actúa en su nombre.

La rápida evolución de la IA en ciberseguridad está acelerando la innovación, pero también las oportunidades de explotación. Informes recientes, como el Global Threat Report 2026 de CrowdStrike, destacan que la IA está comprimiendo el tiempo entre la intención y la ejecución, convirtiendo los sistemas empresariales de IA en objetivos. El uso de IA por parte de estados para operaciones ofensivas ha aumentado significativamente. Además, el panorama de amenazas se expande con clones de servidores de gestión de configuración de activos (MCP) maliciosos que interceptan datos sensibles al suplantar servicios de confianza. La advertencia del Centro Nacional de Ciberseguridad del Reino Unido de que los ataq ues de inyección de prompts contra aplicaciones de IA "quizás nunca se mitiguen por completo" subraya la magnitud del desafío.

Para abordar estos riesgos, se han desarrollado marcos de gobernanza como el OWASP Top 10 para Aplicaciones Agentes. Este documento identifica 10 categorías de ataques contra sistemas autónomos de IA, tres de las cuales son particularmente relevantes para los agentes de SOC con acceso de escritura: secuestro de objetivos, uso indebido de herramientas y abuso de identidad y privilegios. La proliferación de identidades de máquina en comparación con las identidades humanas (una proporción de 82:1 en promedio) agrava este problema, ya que cada agente autónomo introduce una brecha adicional.

Los informes indican que una parte significativa de las organizaciones ha observado comportamientos no deseados en sus agentes de IA y se siente poco confiada en su capacidad para contener un agente comprometido. Muchos profesionales de la ciberseguridad consideran la IA agente como el vector de ataque más peligroso. El riesgo no solo proviene de los modelos de IA, sino de su nivel de autonomía, el alcance de sus privilegios y el entorno operativo en el que operan. Si bien la industria está reconociendo la necesidad de controles, la pregunta clave es si estos controles llegarán a tiempo para prevenir las explotaciones a gran escala.

Soluciones como las que ofrece Ivanti, que integran el cumplimiento continuo y agentes de autoservicio de IA con salvaguardas incorporadas para políticas, aprobaciones y validación de datos, están comenzando a abordar la brecha de gobernanza. Estos enfoques, que priorizan la velocidad junto con la gobernanza, buscan automatizar tareas rutinarias y permitir que los equipos de seguridad se centren en iniciativas de mayor valor, todo ello dentro de los límites definidos. Sin embargo, la aplicación de políticas de acceso para identidades de IA y la gobernanza de todas las identidades de IA c on los mismos controles que los usuarios humanos siguen siendo desafíos críticos para la mayoría de las organizaciones.

Fuente Original: https://venturebeat.com/security/adversaries-hijacked-ai-security-tools-at-90-organizations-the-next-wave-has-write-access-to-the-firewall

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

GitHub Copilot Pauses Sign-ups Amidst AI Cost Surge

GitHub has temporarily halted new sign-ups for its popular Copilot Pro, Pro+, and Student plans. This significant move stems from a growing disparity between how developers are now utilising the AI coding assistant and the infrastructure originally designed to support it. The core issue lies with 'agentic coding workflows', which involve long, complex, and often parallel AI sessions that are now routinely incurring compute costs exceeding the fixed monthly subscription fees.

GitHub Copilot Pauses Sign-ups Amidst AI Cost Surge

VP of Product, Joe Binder, highlighted that it's now commonplace for a small number of requests to generate costs greater than a user's monthly payment. Consequently, as of April 20th, only the Copilot Free tier remains open for new individual users. While existing subscribers can maintain their current plans and even upgrade, GitHub has not provided a timeframe for reinstating new subscriptions. Existing Pro and Pro+ users who have contacted support between April 20th and May 20th are eligible for a refund for April's charges.

To address this economic imbalance and encourage heavier users towards the more expensive Pro+ tier, GitHub is implementing stricter usage limits across all individual plans. These caps on sessions and weekly tokens govern the amount of data processed, operating independently of premium request entitlements for model access. The premium Pro+ plan, priced at $39 per month, now offers significantly more generous limits compared to the $10 Pro plan. Furthermore, access to Anthropic's most advanced Opus models is being restricted, migrating exclusively to the Pro+ tier, while being entirely removed from the Pro plan. GitHub is also introducing usage warnings within VS Code and the Copilot CLI to help developers monitor their consumption before hitting limits mid-task. This strategic shift underscores the evolving economics of AI development, moving from simple code completion to more intensive, agent-driven workflows that demand a re-evaluation of pricing structures.

Fuente Original: https://thenextweb.com/news/github-copilot-signup-pause-agentic-ai-usage-limits

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

OpenAI Codex IA que ve tu pantalla Contexto con Capturas

OpenAI ha lanzado una nueva función para su aplicación de escritorio Codex en Mac llamada Chronicle. Esta característica experimental permite a la IA tener un contexto pasivo sobre tu actividad al tomar capturas de pantalla periódicas de tu pantalla.

OpenAI Codex: ¿IA que ve tu pantalla? Contexto con Capturas

La novedad reside en que estas capturas se envían a los servidores de OpenAI para su procesamiento, donde se generan resúmenes en texto. Estos resúmenes se guardan localmente en formato Markdown sin cifrar, lo que permite a Codex recordar lo que estabas haciendo sin que tengas que explicárselo explícitamente.

Chronicle forma parte de una actualización más amplia que ha transformado Codex de un asistente de codificación a un espacio de trabajo de IA más generalista. La función requiere permisos de grabación de pantalla y accesibilidad, y solo está disponible para usuarios con suscripción Pro de ChatGPT y Macs con Apple Silicon. Es importante destacar que Chronicle no está disponible en la Unión Europea, Reino Unido y Suiza, lo que sugiere preocupaciones de privacidad.

A diferencia de competidores como Microsoft Recall, que procesa y almacena datos localmente de forma encriptada, Chronicle opta por el procesamiento en la nube. OpenAI afirma que las capturas de pantalla originales se eliminan después de seis horas y no se utilizan para entrenamiento, pero los resúmenes persistirán localmente. Esta elección plantea serias dudas sobre la privacidad, ya que los archivos de memoria no están cifrados y podrían contener información sensible, aumentando el riesgo de inyección de prompts.

La industria tecnológica avanza hacia la IA ambiental, que comprende el contexto del usuario de forma continua. Chronicle es el primer paso de OpenAI en este ámbito para escritorio, prometiendo una mayor productividad al eliminar la necesidad de reexplicar el contexto. Sin embargo, la dependencia de la nube para el procesamiento y la arquitectura de confianza plantean interrogantes sobre su viabilidad regulatoria y la confianza del usuario, especialmente tras experiencias previas con promesas de privacidad en la industria.

Fuente Original: https://thenextweb.com/news/openai-codex-chronicle-screen-context-mac

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Amazon Invierte 25 Mil Millones en Anthropic

Amazon ha anunciado una inversión masiva de hasta $25 mil millones en Anthropic, la compañía de inteligencia artificial responsable de los modelos Claude. Este acuerdo forma parte de una alianza ampliada que asegura más de $100 mil millones en gasto de computación en la nube que Anthropic realizará en Amazon Web Services durante la próxima década. Esta operación representa la segunda mega-ronda consecutiva de Amazon con un laboratorio de IA de vanguardia, siguiendo una inversión casi idéntica de $50 mil millones en OpenAI hace dos meses.

Amazon Invierte $25 Mil Millones en Anthropic

La estructura del acuerdo es particularmente reveladora. Amazon está realizando una inversión inmediata de $5 mil millones, mientras que los $20 mil millones restantes están vinculados a hitos comerciales específicos. Esto se suma a los $8 mil millones que Amazon ya había comprometido con Anthropic desde 2023, elevando la inversión total potencial a aproximadamente $33 mil millones. Sin embargo, el compromiso de $100 mil millones de Anthropic con AWS no es un pago directo, sino una promesa de adquisición de computación en la nube, chips de IA personalizados y servicios de infraestructura durante diez años.

En el centro de este acuerdo se encuentran los chips Trainium de Amazon, su alternativa interna a las GPU de Nvidia para entrenamiento e inferencia de IA. El trato cubre los actuales Trainium2, el próximo Trainium3 y el aún no lanzado Trainium4, además de decenas de millones de núcleos CPU Graviton. Anthropic asegura hasta 5 gigavatios de capacidad para entrenar y desplegar sus modelos Claude, con una capacidad significativa de Trainium2 que estará disponible en el segundo trimestre de 2026.

Este compromiso de computación responde directamente a la creciente demanda que Anthropic está experimentando: los ingresos anualizados de la compañía han alcanzado los $30 mil millones, un aumento considerable desde los aproximadamente $9 mil millones a finales de 2025. La asociación también profundiza la distribución de los modelos de Anthropic, permitiendo a los clientes de AWS acceder a la Plataforma Claude completa directamente a través de sus cuentas existentes, sin necesidad de credenciales o facturación separadas. Este acuerdo consolida a Amazon como el socio de infraestructura principal de Anthropic, eclipsando el acuerdo previo con Microsoft de noviembre de 2025, que involucró una inversión de hasta $5 mil millones y $30 mil millones en capacidad de computación Azure.

Fuente Original: https://thenextweb.com/news/amazon-anthropic-25-billion-investment

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT