viernes, 24 de abril de 2026

DeepSeek V4 Nueva Revolucion en IA Open-Source

La startup china DeepSeek ha vuelto a sacudir el mundo de la inteligencia artificial con el lanzamiento de sus modelos DeepSeek-V4-Pro y DeepSeek-V4-Flash, aproximadamente un año después de que su modelo R1 provocara lo que Marc Andreessen denominó el "momento Sputnik de la IA". Ambos modelos fueron publicados en Hugging Face como versiones preliminares y mantienen la filosofía de código abierto que caracteriza a la compañía, permitiendo a los desarrolladores usar y modificar libremente el código fuente.

DeepSeek V4: Nueva Revolución en IA Open-Source

El avance técnico más destacado de V4 es su Arquitectura de Atención Híbrida, que mejora significativamente la capacidad del modelo para mantener el contexto en conversaciones largas. Con una ventana de contexto de 1 millón de tokens, suficiente para procesar una base de código completa o un documento del tamaño de un libro en un solo prompt, esta arquitectura está diseñada para tareas de razonamiento agéntico y de largo alcance. La variante Flash está optimizada para velocidad y eficiencia de costos, mientras que la versión Pro se enfoca en máximo rendimiento.

Según los benchmarks propios de DeepSeek, V4-Pro se posiciona como el modelo de código abierto más potente en programación y matemáticas, quedando por detrás únicamente del Gemini 3.1-Pro de Google en conocimiento general. En una evaluación inusualmente honesta, la compañía admite que su trayectoria de desarrollo va aproximadamente de 3 a 6 meses por detrás de los modelos de frontera de código cerrado como GPT-5.4 de OpenAI y Gemini 3.1-Pro, cayendo solo "marginalmente por debajo" de estos.

El aspecto geopolíticamente más relevante es que DeepSeek colaboró con fabricantes chinos de chips de IA como Huawei y Cambricon para optimizar V4 para su hardware más reciente, rompiendo la práctica estándar de dar acceso temprano a Nvidia o AMD. Ejecutar un modelo de clase frontera en los chips Ascend de Huawei, en lugar de los H100 o H200 de Nvidia, representa una prueba de concepto significativa para la cadena de suministro nacional china de hardware de IA, que ha estado bajo restricciones de exportación estadounidenses desde octubre de 2022.

El momento del lanzamiento no es casual. El modelo R1 de DeepSeek, lanzado en enero de 2025, borró aproximadamente 600 mil millones de dólares de la capitalización de mercado de Nvidia en un solo día, obligando a los inversores a recalibrar sus suposiciones sobre el poder de cómputo necesario para construir IA de frontera. V4 llega a un mercado diferente y más competitivo, donde la competencia entre Estados Unidos y China en IA se ha convertido en una dimensión explícita de las políticas comerciales y tecnológicas. Estas son versiones preliminares y aún esperan evaluación independiente para confirmar las afirmaciones de rendimiento de DeepSeek.

Fuente Original: https://thenextweb.com/news/deepseek-v4-pro-flash-launch-open-source

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

OpenAI Unveils GPT-55 Smarter Coding and Efficiency

OpenAI has launched its latest artificial intelligence model, GPT-5.5, positioning it as the company's most intelligent and user-friendly offering to date. This release comes remarkably quickly on the heels of GPT-5.4, which was unveiled just last month, demonstrating OpenAI's rapid pace of innovation in the competitive AI landscape.

OpenAI Unveils GPT-5.5: Smarter Coding and Efficiency

The new GPT-5.5 model represents a significant leap forward in autonomous task management and coding capabilities. According to OpenAI, the system excels at a diverse range of professional tasks including writing and debugging code, conducting online research, and creating spreadsheets and documents. What sets GPT-5.5 apart from its predecessors is its enhanced ability to work across different tools seamlessly, offering users a more integrated and streamlined experience.

One of the most notable improvements is the model's capacity to handle complex, multi-faceted assignments with minimal oversight. Rather than requiring users to meticulously guide every step of a process, GPT-5.5 can accept broadly defined, messy tasks and autonomously plan, execute, and verify its work. The system demonstrates improved ability to navigate ambiguous instructions and persist through challenges, making it particularly valuable for professionals managing intricate projects.

OpenAI has also prioritised safety and efficiency in this release. The company claims GPT-5.5 features the strongest set of safeguards implemented to date, addressing ongoing concerns about AI safety and responsible deployment. Additionally, the model operates with significantly improved token efficiency in Codex, OpenAI's code-generation platform, which should translate to faster performance and reduced computational costs for users.

The rollout strategy targets OpenAI's premium user base, with GPT-5.5 becoming available to Plus, Pro, Business, and Enterprise ChatGPT subscribers, as well as Codex users. An enhanced version, GPT-5.5 Pro, will be exclusively accessible to Pro, Business, and Enterprise tier customers, offering additional capabilities for organisations with more demanding requirements.

Fuente Original: https://slashdot.org/story/26/04/23/1931220/openai-says-its-new-gpt-55-model-is-more-efficient-and-better-at-coding?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

jueves, 23 de abril de 2026

Microsoft Invertira 25 Mil Millones en Australia IA y Empleo

Microsoft ha anunciado una inversión histórica en Australia, comprometiendo A$25 mil millones hasta 2029. Este ambicioso plan representa la mayor inversión de la compañía en el país hasta la fecha y se suma a un compromiso previo de A$5 mil millones realizado en octubre de 2023. El anuncio, realizado por el CEO Satya Nadella junto al Primer Ministro Anthony Albanese, subraya la importancia estratégica de Australia en la expansión global de la inteligencia artificial.

Microsoft Invertirá 25 Mil Millones en Australia: IA y Empleo

La inversión se centrará en cuatro áreas clave. En primer lugar, la infraestructura: Microsoft ampliará su capacidad de supercomputación de IA a través de Azure en más de un 140%, desplegando procesadores avanzados y fortaleciendo la huella de centros de datos en el país. Actualmente, A ustralia cuenta con 29 sitios de Microsoft Azure, una red que se expandirá significativamente.

En segundo lugar, la ciberseguridad se verá reforzada. El programa Microsoft-ASD Cyber-Shield, una colaboración con la Dirección de Señales de Australia, se extenderá a más agencias gubernamentales y se profundizará la cooperación en resiliencia nacional con el Departamento de Asuntos Internos. Esto busca una integración más estrecha entre la infraestructura de Microsoft y la arquitectura de seguridad nacional australiana.

La tercera área es el desarrollo de habilidades. Microsoft se ha comprometido a capacitar a tres millones de australianos en habilidades de IA listas para el mercado laboral para finales de 2028, complementando el compromiso previo de formar a más de un millón de australianos y neozelandeses. Finalmente, la inversión abordará la seguridad y gobernanza de la IA, incluyendo una colaboración con el Instituto Australiano de Seguridad de IA y un d iálogo pionero con trabajadores sobre el impacto de la IA en el empleo.

Este compromiso sitúa a Australia como un actor clave en el crecimiento económico impulsado por la IA, y no solo como un consumidor. La inversión se alinea con el Plan Nacional de IA del gobierno australiano, buscando capitalizar las oportunidades de la IA mientras se gestionan sus riesgos. Según estimaciones encargadas por Microsoft, la compañía ya contribuye significativamente a la economía local y al empleo, cifras que se espera aumenten con esta nueva inyección de capital.

Fuente Original: https://thenextweb.com/news/microsoft-a25-billion-australia-ai-investment

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Cloudsmith Secures 72M for AI Software Supply Chain Security

Cloudsmith, a Belfast-based firm specialising in artifact management, has successfully secured a substantial $72 million in Series C funding. The round was spearheaded by TCV, with existing investors like Insight Partners also participating, demonstrating a strong, renewed confidence in the company's vision less than 13 months after their $23 million Series B. This significant investment is earmarked for further product development and a broader go-to-market expansion.

Cloudsmith Secures $72M for AI Software Supply Chain Security

The core of Cloudsmith's mission addresses a critical and evolving challenge in enterprise software development. As artificial intelligence coding agents become increasingly adept at generating software at an astonishing pace and volume, the traditional human code review process is becoming insufficient. This surge in AI-generated code leads to an explosion in software artifacts – anything from package files and compiled applications to dependencies and containers – that enterprises must meticulously manage, track, and secure. The threat landscape is also expanding, with compromised open-source dependencies, novel vulnerability patterns introduced by AI, and growing regulatory demands for software to be "secure by design" amplifying the need for robust security measures.

Cloudsmith's platform acts as a cloud-native private registry and artifact management solution. It empowers enterprises to host and distribute their internal software packages, mirror public registries like PyPI and Docker Hub within a controlled private environment, and critically, to enforce security scanning, policy enforcement, and access controls on every component entering or exiting their build pipelines. The company positions its offering as a superior alternative to legacy platforms such as JFrog Artifactory and Sonatype Nexus, arguing that these older tools were not built to handle the scale and complexity of AI-driven development. Cloudsmith has recently enhanced its offering with an ML Model Registry and an Enterprise Policy Manager, further solidifying its commitment to governing and securing the AI software supply chain.

Fuente Original: https://thenextweb.com/news/cloudsmith-72m-series-c-tcv-ai-software-supply-chain

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Google Lanza TPUs Para La Era Agente

Google ha presentado dos nuevos Tensor Processing Units (TPUs) de octava generación, diseñados para abordar las demandas de la emergente "era agente" en la inteligencia artificial. A diferencia de depender exclusivamente de hardware de terceros, Google continúa innovando con sus propios chips personalizados, optimizados tanto para el entrenamiento como para la inferencia de modelos de IA.

Google Lanza TPUs Para La Era 'Agente'

La principal novedad son dos modelos: el TPU 8t, enfocado en el entrenamiento de modelos de IA de vanguardia, y el TPU 8i, optimizado para la inferencia. El TPU 8t promete reducir drásticamente los tiempos de entrenamiento, pasando de meses a semanas, gracias a sus clústeres de hasta 9600 chips y dos petabytes de memoria compartida. Ofrece casi el triple de capacidad de cómputo para entrenamie nto que su predecesor, Ironwood, y una notable eficiencia con una tasa de "goodpute" (cómputo útil) del 97%, minimizando el tiempo de inactividad y desperdicio.

Por otro lado, el TPU 8i está diseñado para la eficiencia en la ejecución de múltiples agentes especializados. Aunque posee menos potencia bruta que el 8t, triplica la cantidad de SRAM en chip, permitiendo cachés de valor clave más grandes y acelerando modelos con ventanas de contexto extendidas. Además, estos nuevos TPUs son los primeros en utilizar exclusivamente los CPUs ARM Axion de Google, integrando un CPU por cada dos TPUs para una mayor eficiencia general del sistema. Esta estrategia de "stack completo" basada en ARM busca optimizar el consumo de energía y el rendimiento.

La eficiencia energética es un pilar fundamental de estas nuevas unidades. Google afirma que los TPUs de octava generación ofrecen el doble de rendimiento por vatio en comparación con Ironwood. También se han implementado m ejoras en los centros de datos, como la integración de redes y cómputo en un solo chip y diseños de clústeres más eficientes, que han aumentado la potencia de cómputo por unidad de electricidad hasta seis veces. Se ha adaptado un sistema de refrigeración líquida para gestionar el calor generado, ajustando el flujo de agua según la carga de trabajo para una mayor eficiencia en el enfriamiento.

Estos nuevos TPUs estarán disponibles para potenciar los agentes basados en Gemini de Google y también para desarrolladores externos, soportando los frameworks de IA más populares como JAX, PyTorch y TensorFlow. El lanzamiento de estos chips por parte de Google subraya la creciente competencia en el mercado de aceleradores de IA y la importancia de hardware especializado para la próxima generación de sistemas de inteligencia artificial.

Fuente Original: https://arstechnica.com/ai/2026/04/google-unveils-two-new-tpus-designed-for-the-agentic-era/

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

OpenAI Lanza Workspace Agents Revolucion Empresarial IA

OpenAI ha presentado Workspace Agents, una innovación que marca el fin de los GPT personalizados y el comienzo de una nueva era en la automatización empresarial. Esta solución permite a los usuarios de ChatGPT Business, Enterprise, Edu y Teachers crear agentes de IA capaces de integrarse directamente con aplicaciones empresariales populares como Slack, Salesforce, Google Drive, Microsoft Suite, Notion y Atlassian Rovo, transformando radicalmente cómo las organizaciones gestionan tareas repetitivas y complejas.

OpenAI Lanza Workspace Agents: Revolución Empresarial IA

Lo revolucionario de Workspace Agents es su capacidad para ejecutar tareas de forma autónoma sin supervisión constante. Estos agentes pueden redactar correos electrónicos, generar presentaciones, extraer datos de múltiples fuentes y continuar trabajando incluso después de que el usuario se desconecte. A diferencia de los asistentes de IA tradicionales que requerían interacción continua, estos agentes funcionan en la nube, mantienen memoria entre sesiones y pueden programarse para ejecutar tareas recurrentes automáticamente, como informes semanales o análisis mensuales.

La tecnología detrás de esta innovación es Codex, el sistema de generación de código de OpenAI que proporciona a los agentes capacidades avanzadas de ejecución. Esto significa que los agentes no solo describen el trabajo, sino que realmente lo ejecutan: transforman archivos CSV, reconcilian sistemas de registro, generan gráficos precisos y ejecutan código cuando es necesario. Esta base técnica es fundamental para entender por qué Workspace Agents representa un salto cualitativo respecto a soluciones anteriores.

OpenAI ha implementado controles de gobernanza robustos para abordar las preocupaciones de seguridad empresarial. Los administradores pueden definir permisos granulares sobre quién puede crear, ejecutar y publicar agentes, y qué herramientas pueden utilizar. Los agentes ofrecen dos modos de autenticación: por cuenta de usuario individual o por cuenta compartida del agente. Las acciones de escritura requieren aprobación humana por defecto, aunque esto puede configurarse según las necesidades de cada organización.

El producto estará disponible gratuitamente hasta el 6 de mayo de 2026, después de lo cual se implementará un modelo de precios basado en créditos. Empresas como Rippling, SoftBank Corp., Better Mortgage y BBVA ya están probando esta tecnología. Rippling reporta que un consultor de ventas pudo crear un agente que investiga cuentas, resume llamadas y publica resúmenes de acuerdos en Slack, ahorrando entre 5 y 6 horas semanales por representante, una tarea que anteriormente requería un equipo de ingeniería completo.

Este lanzamiento representa un cambio estratégico significativo para OpenAI, que está retirando gradualmente los GPT personalizados en favor de este nuevo paradigma centrado en agentes empresariales. La compañía se posiciona así en un mercado altamente competitivo donde Microsoft, Google, Salesforce y Anthropic también están desarrollando soluciones similares de agentes empresariales integrados.

Fuente Original: https://venturebeat.com/orchestration/openai-unveils-workspace-agents-a-successor-to-custom-gpts-for-enterprises-that-can-plug-directly-into-slack-salesforce-and-more

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

OpenAIs Privacy Filter Open-Source Data Protection

OpenAI has unveiled Privacy Filter, a groundbreaking open-source tool designed to safeguard sensitive information before it reaches cloud servers. Released on Hugging Face under the permissive Apache 2.0 licence, this innovative model represents a significant step towards privacy-first artificial intelligence infrastructure. The tool addresses a critical industry challenge: preventing personally identifiable information from leaking into training datasets or being exposed during AI processing.

OpenAI's Privacy Filter: Open-Source Data Protection

Privacy Filter is a 1.5-billion-parameter model that can operate on standard laptops or directly within web browsers, effectively functioning as a sophisticated digital shredder for sensitive data. Unlike traditional language models that predict text sequentially, Privacy Filter employs a bidirectional token classifier, reading sentences from both directions simultaneously. This approach provides superior contextual understanding, enabling the model to distinguish between, for instance, a private individual named Alice and the literary character from Wonderland.

The model utilises a Sparse Mixture-of-Experts framework, activating only 50 million parameters during any single operation despite containing 1.5 billion total parameters. This efficient design allows for high-speed processing without excessive computational demands. Remarkably, it features a 128,000-token context window, enabling it to process entire legal documents or lengthy email threads in one pass without fragmenting text—a common limitation that causes traditional filters to lose track of entities across page breaks.

Privacy Filter currently detects eight primary categories of personally identifiable information, including private names, contact details, digital identifiers, and sensitive credentials such as API keys and passwords. Enterprises can deploy the model on-premises or within private clouds, masking data locally before sending it to more powerful AI systems. This approach maintains compliance with stringent GDPR and HIPAA standards whilst leveraging advanced AI capabilities.

The Apache 2.0 licence marks a particularly significant aspect of this release, offering developers complete commercial freedom without royalty obligations. Companies can integrate Privacy Filter into proprietary products, customise it for specific industries, and avoid viral licensing requirements. This positions the tool as a fundamental utility for the AI era. The tech community has responded positively, with engineers praising the model's efficiency and impressive technical achievements. However, OpenAI cautions that Privacy Filter should be viewed as a redaction aid rather than an absolute safety guarantee, recommending against over-reliance in highly sensitive medical or legal workflows.

Fuente Original: https://venturebeat.com/data/openai-launches-privacy-filter-an-open-source-on-device-data-sanitization-model-that-removes-personal-information-from-enterprise-datasets

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

miércoles, 22 de abril de 2026

Plataforma Gemini Crea Gobierna y Optimiza Agentes IA

Google Cloud lanza su innovadora Plataforma Gemini Enterprise Agent, una solución integral diseñada para que los equipos técnicos puedan construir, escalar, gobernar y optimizar agentes de inteligencia artificial.

Plataforma Gemini: Crea, Gobierna y Optimiza Agentes IA

Esta nueva plataforma unifica los servicios de desarrollo y ajuste de modelos de Vertex AI con funcionalidades avanzadas para la integración de agentes, seguridad y DevOps. Gemini Enterprise Agent Platform ofrece acceso a los modelos Gemini 3.1 Pro y Flash, además de Lyria 3, y soporta también los modelos Claude de Anthropic. Su flexibilidad permite adaptarla a las necesidades específicas de cada equipo.

Además, la plataforma se integra con Gemini Enterprise app, que sirve como punto de acceso centralizado para la IA de ntro de las organizaciones. Esta solución busca simplificar la creación y gestión de agentes autónomos, aprovechando la robusta infraestructura, las capacidades de datos y la seguridad de Google Cloud.

Fuente Original: https://blog.google/innovation-and-ai/infrastructure-and-cloud/google-cloud/gemini-enterprise-agent-platform/

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Vercel Breach Uncovered OAuth Gap Threatens Security Teams

A recent security incident at Vercel, a prominent cloud platform, has highlighted a critical and often overlooked vulnerability: the OAuth gap. The breach, which saw attackers gain unauthorised access to Vercel's internal systems, originated from a seemingly innocuous action – an employee installing a third-party AI tool, Context.ai, and granting it broad permissions via their corporate Google Workspace account. This incident underscores how easily a single compromised account can become a gateway to sensitive production environments.

Vercel Breach: Uncovered OAuth Gap Threatens Security Teams

The attackers exploited a chain of events starting with an infection on an employee's machine at Context.ai, which led to the theft of various credentials, including Google Workspa ce logins. This access was then leveraged to gain entry into Vercel's systems through the pre-existing OAuth grant. A key factor in the escalation was the attacker's ability to access environment variables that were not marked as “sensitive,” which were stored in plaintext and accessible via Vercel's dashboard and API. This allowed them to gather further credentials and move laterally within Vercel's infrastructure.

The incident also revealed that the compromised Context.ai extension possessed a second OAuth grant, allowing read access to users' Google Drive files, further widening the potential attack surface. Security experts point out that most security teams struggle to detect, scope, or contain such breaches because they lack visibility into the OAuth permissions granted by employees to third-party applications, especially AI tools, which are increasingly becoming the new frontier of shadow IT. The extended dwell time between Context.ai's detection of the breach and V ercel's public disclosure also raises concerns about vendor notification timelines. The breach serves as a stark reminder of the need for stringent governance over AI tool integrations and a robust approach to third-party risk management, as the speed and sophistication of attacks, potentially accelerated by AI, continue to grow.

Fuente Original: https://venturebeat.com/security/vercel-breach-exposes-the-oauth-gap-most-security-teams-cannot-detect-scope-or-contain

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

IA con fallos Agentes filtran secretos via prompt injection

Una vulnerabilidad crítica, bautizada como "Comment and Control", ha sido descubierta en varios agentes de codificación de IA, permitiendo la filtración de secretos sensibles a través de una simple inyección de prompts. Investigadores de la Universidad Johns Hopkins demostraron cómo un único comando malicioso introducido en el título de una solicitud de extracción (pull request) en GitHub fue suficiente para que sistemas como Anthropic Claude Code Security Review, Google Gemini CLI Action y GitHub Copilot Agent expusieran sus propias claves API. Este descubrimiento resalta un fallo fundamental en la seguridad de los agentes de IA que operan en entornos de ejecución (runtime).

IA con fallos: Agentes filtran secretos vía prompt injection

La vulnerabilidad explota la forma en que GitHub Actions maneja los secretos cuando se utilizan flujos de trabajo `pull_request_target`, que muchos agentes de IA requieren para acceder a información sensible. Aunque la superficie de ataque práctica se limita a colaboradores, campos de comentarios y repositorios que usan `pull_request_target`, el impacto es significativo. Anthropic clasificó la falla como "Crítica" (CVSS 9.4) y otorgó una recompensa de 100 dólares, Google pagó 1,337 dólares y GitHub 500 dólares. Los tres proveedores han parcheado la vulnerabilidad silenciosamente, pero sin emitir avisos de seguridad formales o CVEs.

Un punto clave de la investigación es lo revelado por las "system cards" (tarjetas de sistema) de los proveedores de IA. La tarjeta de Anthropic para Opus 4.7 advierte explícitamente que la función Claude Code Security Review "no está reforzada contra la inyección de prompts", ya que está diseñada para procesar entradas confiables. De manera similar, las tarjetas de OpenAI y Google, aunque detallan extensos programas de pruebas de penetración y evaluaciones a nivel de modelo, no documentan métricas claras sobre la resistencia de sus agentes a nivel de ejecución ni a la ejecución de herramientas. Esto pone de manifiesto una brecha significativa entre lo que los proveedores documentan sobre sus medidas de seguridad y lo que realmente protegen en el entorno operativo real de los agentes. La investigación subraya la necesidad de una mayor transparencia y de que las organizaciones exijan pruebas cuantificables de la resistencia de estos sistemas para poder gestionar eficazmente el riesgo.

Fuente Original: https://venturebeat.com/security/ai-agent-runtime-security-system-card-audit-comment-and-control-2026

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Mythos de Anthropic Detecta 271 Vulnerabilidades en Firefox

Mozilla ha revelado datos impresionantes sobre las capacidades del modelo de inteligencia artificial Mythos Preview de Anthropic en el campo de la ciberseguridad. Según un comunicado publicado esta semana, el acceso anticipado a esta herramienta permitió identificar 271 vulnerabilidades de seguridad en Firefox 150 antes de su lanzamiento oficial. Este hallazgo ha reavivado el debate sobre si estamos ante una nueva era de ciberdefensa potenciada por IA o simplemente frente a una estrategia de marketing de Anthropic.

Mythos de Anthropic Detecta 271 Vulnerabilidades en Firefox

El CTO de Firefox, Bobby Holley, expresó su entusiasmo afirmando que los defensores cibernéticos finalmente tienen "una oportunidad de ganar de manera decisiva" en la batalla constante contra los ciberatacantes. La magnitud del descubrimiento es notable cuando se compara con el modelo anterior Opus 4.6, que solo detectó 22 errores sensibles de seguridad al analizar Firefox 148 el mes pasado. Esto representa un aumento exponencial en la capacidad de detección de vulnerabilidades mediante inteligencia artificial.

Holley explicó que aunque estas vulnerabilidades también podrían haberse descubierto mediante técnicas automatizadas de "fuzzing" o por investigadores de seguridad de élite analizando el código fuente, usar Mythos eliminó la necesidad de "concentrar muchos meses de costoso esfuerzo humano para encontrar un solo error". La eficiencia de esta herramienta cambia fundamentalmente el equilibrio de la ciberseguridad a favor de los defensores, ya que hace que el descubrimiento de vulnerabilidades sea más económico y accesible para ambas partes.

En una entrevista con Wired, Holley señaló que este tipo de análisis de vulnerabilidades asistido por IA será algo con lo que "cada pieza de software tendrá que comprometerse", especialmente porque todo software tiene errores ocultos que ahora son detectables. Esta tecnología resulta particularmente crucial para proyectos de código abierto que sustentan gran parte de Internet moderno, ya que muchos dependen de un mantenimiento voluntario insuficiente para su seguridad. El CTO de Mozilla, Raffi Krikorian, argumentó en un ensayo que Mythos podría romper el equilibrio tradicional entre la dificultad de encontrar errores y escribir software complejo, democratizando el acceso a herramientas avanzadas de seguridad.

Fuente Original: https://arstechnica.com/ai/2026/04/mozilla-anthropics-mythos-found-271-zero-day-vulnerabilities-in-firefox-150/

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Mozillas AI Discovers 271 Firefox Security Vulnerabilities

Mozilla has achieved a remarkable milestone in software security by leveraging Anthropic's Claude Mythos Preview to identify and fix an unprecedented 271 vulnerabilities in Firefox 150. This groundbreaking application of artificial intelligence represents a significant shift in how browser security is approached, moving beyond traditional methods like fuzzing tools and manual code review.

Mozilla's AI Discovers 271 Firefox Security Vulnerabilities

The AI system demonstrated capabilities that were simply impossible just months ago, analysing Firefox's codebase with a level of sophistication that rivals the world's best human security researchers. According to Mozilla, Mythos Preview has proven equally capable of identifying vulnerabilities across all categories and complexity levels that human experts can find. This isn't just about incremental improvement—it's about fundamentally changing the scale at which security flaws can be discovered and addressed.

The implications extend far beyond a single Firefox release. Historically, cybersecurity has favoured attackers because they only need to find one exploitable flaw, whilst defenders must protect against all possible vulnerabilities. AI-powered vulnerability discovery could rebalance this equation by enabling defenders to identify and patch security holes faster than attackers can weaponise them. Whilst this doesn't mean zero-day exploits will disappear overnight, it suggests a future where the window of opportunity for malicious actors becomes significantly narrower.

Mozilla's optimistic conclusion speaks volumes about this technological breakthrough: "The defects are finite, and we are entering a world where we can finally find them all." This statement reflects a paradigm shift in thinking about software security—moving from reactive patching to proactive, comprehensive vulnerability elimination. As AI models continue to advance, we may be witnessing the early stages of a new era in cybersecurity where comprehensive code security becomes not just an aspiration, but an achievable reality.

Fuente Original: https://news.slashdot.org/story/26/04/21/2028206/mozilla-uses-anthropics-mythos-to-fix-271-bugs-in-firefox?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

martes, 21 de abril de 2026

IA en Seguridad Riesgos y Soluciones para Empresas

En 2025, más de 90 organizaciones sufrieron el secuestro de sus herramientas de seguridad basadas en inteligencia artificial (IA). Los atacantes inyectaron indicaciones maliciosas en estas herramientas legítimas, logrando robar credenciales y criptomonedas. Inicialmente, estas herramientas comprometidas solo tenían la capacidad de leer datos, pero la próxima generación de agentes de seguridad autónomos (SOC) ya posee acceso de escritura a elementos críticos como los firewalls.

IA en Seguridad: Riesgos y Soluciones para Empresas

Esta escalada es alarmante, ya que estos agentes de SOC autónomos pueden reescribir reglas de firewall, modificar políticas de gestión de identidades y accesos (IAM), e incluso poner en cuarentena endpoints, todo ello utilizando sus propias credenc iales privilegiadas y a través de llamadas API que son clasificadas como actividad autorizada por los sistemas de detección y respuesta de endpoints (EDR). Esto significa que el adversario nunca necesita tocar la red directamente; el propio agente actúa en su nombre.

La rápida evolución de la IA en ciberseguridad está acelerando la innovación, pero también las oportunidades de explotación. Informes recientes, como el Global Threat Report 2026 de CrowdStrike, destacan que la IA está comprimiendo el tiempo entre la intención y la ejecución, convirtiendo los sistemas empresariales de IA en objetivos. El uso de IA por parte de estados para operaciones ofensivas ha aumentado significativamente. Además, el panorama de amenazas se expande con clones de servidores de gestión de configuración de activos (MCP) maliciosos que interceptan datos sensibles al suplantar servicios de confianza. La advertencia del Centro Nacional de Ciberseguridad del Reino Unido de que los ataq ues de inyección de prompts contra aplicaciones de IA "quizás nunca se mitiguen por completo" subraya la magnitud del desafío.

Para abordar estos riesgos, se han desarrollado marcos de gobernanza como el OWASP Top 10 para Aplicaciones Agentes. Este documento identifica 10 categorías de ataques contra sistemas autónomos de IA, tres de las cuales son particularmente relevantes para los agentes de SOC con acceso de escritura: secuestro de objetivos, uso indebido de herramientas y abuso de identidad y privilegios. La proliferación de identidades de máquina en comparación con las identidades humanas (una proporción de 82:1 en promedio) agrava este problema, ya que cada agente autónomo introduce una brecha adicional.

Los informes indican que una parte significativa de las organizaciones ha observado comportamientos no deseados en sus agentes de IA y se siente poco confiada en su capacidad para contener un agente comprometido. Muchos profesionales de la ciberseguridad consideran la IA agente como el vector de ataque más peligroso. El riesgo no solo proviene de los modelos de IA, sino de su nivel de autonomía, el alcance de sus privilegios y el entorno operativo en el que operan. Si bien la industria está reconociendo la necesidad de controles, la pregunta clave es si estos controles llegarán a tiempo para prevenir las explotaciones a gran escala.

Soluciones como las que ofrece Ivanti, que integran el cumplimiento continuo y agentes de autoservicio de IA con salvaguardas incorporadas para políticas, aprobaciones y validación de datos, están comenzando a abordar la brecha de gobernanza. Estos enfoques, que priorizan la velocidad junto con la gobernanza, buscan automatizar tareas rutinarias y permitir que los equipos de seguridad se centren en iniciativas de mayor valor, todo ello dentro de los límites definidos. Sin embargo, la aplicación de políticas de acceso para identidades de IA y la gobernanza de todas las identidades de IA c on los mismos controles que los usuarios humanos siguen siendo desafíos críticos para la mayoría de las organizaciones.

Fuente Original: https://venturebeat.com/security/adversaries-hijacked-ai-security-tools-at-90-organizations-the-next-wave-has-write-access-to-the-firewall

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

GitHub Copilot Pauses Sign-ups Amidst AI Cost Surge

GitHub has temporarily halted new sign-ups for its popular Copilot Pro, Pro+, and Student plans. This significant move stems from a growing disparity between how developers are now utilising the AI coding assistant and the infrastructure originally designed to support it. The core issue lies with 'agentic coding workflows', which involve long, complex, and often parallel AI sessions that are now routinely incurring compute costs exceeding the fixed monthly subscription fees.

GitHub Copilot Pauses Sign-ups Amidst AI Cost Surge

VP of Product, Joe Binder, highlighted that it's now commonplace for a small number of requests to generate costs greater than a user's monthly payment. Consequently, as of April 20th, only the Copilot Free tier remains open for new individual users. While existing subscribers can maintain their current plans and even upgrade, GitHub has not provided a timeframe for reinstating new subscriptions. Existing Pro and Pro+ users who have contacted support between April 20th and May 20th are eligible for a refund for April's charges.

To address this economic imbalance and encourage heavier users towards the more expensive Pro+ tier, GitHub is implementing stricter usage limits across all individual plans. These caps on sessions and weekly tokens govern the amount of data processed, operating independently of premium request entitlements for model access. The premium Pro+ plan, priced at $39 per month, now offers significantly more generous limits compared to the $10 Pro plan. Furthermore, access to Anthropic's most advanced Opus models is being restricted, migrating exclusively to the Pro+ tier, while being entirely removed from the Pro plan. GitHub is also introducing usage warnings within VS Code and the Copilot CLI to help developers monitor their consumption before hitting limits mid-task. This strategic shift underscores the evolving economics of AI development, moving from simple code completion to more intensive, agent-driven workflows that demand a re-evaluation of pricing structures.

Fuente Original: https://thenextweb.com/news/github-copilot-signup-pause-agentic-ai-usage-limits

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT