sábado, 9 de mayo de 2026

Cloudflare IA Despide 1100 Empleados Tras Exito

Cloudflare ha sorprendido al mercado con una noticia dual: por un lado, superó las expectativas de ganancias y ingresos en su primer trimestre, mostrando un crecimiento sólido del 34% interanual. Sin embargo, la compañía también anunció el despido de 1.100 empleados, aproximadamente el 20% de su fuerza laboral. La razón explícita detrás de esta drástica medida es la adopción de un nuevo modelo operativo enfocado en la inteligencia artificial, al que han denominado "agentic AI-first".

Cloudflare: IA Despide 1.100 Empleados Tras Éxito

Según el CEO Matthew Prince y la cofundadora Michelle Zatlyn, el uso interno de IA en Cloudflare ha experimentado un aumento superior al 600% en tan solo tres meses. La compañía está utilizando miles de sesiones diarias de agentes de IA en áreas como ingeniería, recursos humanos, finanzas y marketing. La particularidad de este enfoque radica en que la IA no se presenta como una herramienta de apoyo para los empleados existentes, sino como un reemplazo directo para ciertas categorías de roles, especialmente aquellos de soporte detrás del personal de cara al cliente y de ingeniería. Esto marca un punto de inflexión, siendo uno de los casos más claros donde una empresa atribuye despidos directamente a la sustitución de puestos de trabajo por la IA.

A pesar de los sólidos resultados financieros, que incluyeron un aumento en clientes de alto valor y proyecciones de ingresos y ganancias futuras optimistas impulsadas por la IA, el mercado reaccionó negativamente. Las acciones de Cloudflare cayeron un 24% al día siguiente de los anuncios. Esta caída refleja la incertidumbre de los inversores sobre la capacidad de la empresa para ejecutar esta transformación y mantener su trayectoria de crecimiento, a pesar de los despidos y los costos de reestructuración de entre 140 y 150 millones de dólares. Los empleados afectados recibirán beneficios significativos, incluyendo salario hasta finales de 2026 y cobertura médica extendida. Cloudflare ve esta reestructuración como una medida estratégica y estructural, no cíclica, anticipando que el trabajo realizado por los empleados despedidos será ahora cubierto por el software, sentando un precedente para la industria tecnológica y, potencialmente, para otros sectores.

Fuente Original: https://thenextweb.com/news/cloudflare-layoffs-agentic-ai-earnings-stock

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Linux Dirty Frag Zero-Day Grants Root Access

A critical new vulnerability class dubbed 'Dirty Frag' has been discovered in Linux systems, posing a severe security threat to all major distributions. Security researcher Hyunwoo Kim first identified and reported this exploit, which enables attackers to gain root privileges by chaining two separate vulnerabilities: the xfrm-ESP Page-Cache Write vulnerability and the RxRPC Page-Cache Write vulnerability. This discovery extends the bug class that includes the previously known Dirty Pipe and Copy Fail vulnerabilities.

Linux 'Dirty Frag' Zero-Day Grants Root Access

What makes Dirty Frag particularly dangerous is its reliability and ease of exploitation. Unlike many vulnerabilities that depend on race conditions or specific timing windows, Dirty Frag is a deterministic logic bug. This means it achieves a very high success rate without requiring precise timing, the kernel doesn't panic when exploitation attempts fail, and attackers can execute it with greater confidence. The vulnerability allows for immediate root privilege escalation across all major Linux distributions, giving malicious actors complete control over affected systems.

The security community faces an urgent situation as the embargo on this vulnerability has been broken prematurely. Currently, no official patch or CVE designation exists to address Dirty Frag, leaving countless Linux systems exposed. However, BleepingComputer has reported that the two chained vulnerabilities have now been assigned CVE identifiers: the xfrm-ESP vulnerability is tracked as CVE-2026-43284, whilst the RxRPC issue has been designated CVE-2026-43500. System administrators and security professionals should monitor their distribution's security advisories closely for forthcoming patches and apply them immediately upon release. Detailed technical information about the exploit mechanism is available for those seeking to understand the vulnerability's inner workings and potential mitigation strategies whilst official fixes are being developed.

Fuente Original: https://linux.slashdot.org/story/26/05/08/1913238/new-linux-dirty-frag-zero-day-gives-root-on-all-major-distros?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

viernes, 8 de mayo de 2026

RAT Linux Quasar Robo de credenciales devasta cadena de suministro

¡Atención, desarrolladores y profesionales de la ciberseguridad! Una nueva amenaza acecha en el mundo Linux: Quasar, un RAT (Troyano de Acceso Remoto) diseñado para infiltrarse y robar credenciales de desarrolladores, abriendo la puerta a compromisos devastadores en la cadena de suministro de software. Este sofisticado malware no solo busca acceso, sino que apunta directamente a la información sensible que permite a los desarrolladores trabajar, abriendo una vía para que los atacantes manipulen el código fuente, inyecten código malicioso o desaten ataques a gran escala.

RAT Linux Quasar: ¡Robo de credenciales devasta cadena de suministro!< /p>

La estrategia de Quasar es preocupante. Al dirigirse a las credenciales de desarrollo, como claves SSH, tokens de API y contraseñas de repositorios de código, los atacantes obtienen un nivel de acceso sin precedentes. Esto les permite no solo acceder a sistemas individuales, sino también comprometer la integridad de todo el proceso de desarrollo de software. Imagina que el código que descargas e implementas ha sido sutilmente modificado para contener puertas traseras o funcionalidades maliciosas, todo ello facilitado por el robo de las credenciales de quienes lo crearon.

Este tipo de ataque a la cadena de suministro de software es particularmente peligroso porque puede tener un efecto dominó. Una vez que una herramienta o una biblioteca de software se ve comprometida, todas las aplicaciones que dependen de ella pueden verse afectadas, propagando la infección de forma masiva y silenciosa. La detección de Quasar se vuelve crucial, y las defensas deben ir más allá de la protección de endpoints, centrándose también en la seguridad de las credenciales, la monitorización de la actividad de desarrollo y la validación rigurosa de las dependencias de software. La seguridad de la cadena de suministro es ahora un campo de batalla fundamental, y Quasar es un recordatorio vívido de los riesgos.

Fuente Original: https://thehackernews.com/2026/05/quasar-linux-rat-steals-developer.html

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

China OBON Corp y servidores Supermicro millonarios

Fiscales estadounidenses sospechan que OBON Corp., una empresa tailandesa clave en la estrategia nacional de inteligencia artificial del país, habría facilitado el envío ilegal de miles de millones de dólares en servidores equipados con chips de Nvidia a China. Alibaba figuraría entre los compradores finales de estos equipos, según reportes recientes.

China: OBON Corp. y servidores Supermicro millonarios

OBON Corp., con sede en Bangkok, se ha promocionado como un proveedor regional de servicios en la nube y supercomputación, y ha sido un socio activo en la Estrategia Nacional de IA de Tailandia. Los fiscales la identifican como la misteriosa "Compañía-1" mencionada en la acusación federal contra el cofundador de Supermicro, Yih-Shyan "Wally" Liaw, y dos asociados. Liaw fue arrestado en marzo por conspiración para violar la Ley de Reforma de Control de Exportaciones.

Se alega que Liaw y otros intermediarios habrían utilizado OBON Corp. para desviar alrededor de 2.500 millones de dólares en servidores entre 2024 y 2025. El presunto modus operandi incluía documentación de envío falsificada, cambio de números de serie y la construcción de servidores 'dummy' para evadir inspecciones. Ni OBON Corp. ni Alibaba han sido acusados formalmente, pero ambos son considerados por los fiscales como partes finales de esta cadena de desvío, cuya participación aún se investiga. Este caso pone de relieve las complejidades de las políticas de control de exportaciones de EE.UU. en el ámbito de la IA y la tensión geopolítica en torno al acceso a tecnología avanzada.

Fuente Original: https://thenextweb.com/news/us-prosecutors-thailand-obon-corp-supermicro-nvidia-alibaba-smuggling

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Exploit Dirty Frag Acceso Root en Linux

Una nueva y crítica vulnerabilidad de escalada de privilegios locales ha sido descubierta en el kernel de Linux, conocida como "Dirty Frag". Este exploit permite a atacantes con acceso limitado al sistema obtener privilegios de root completos en las principales distribuciones de Linux, representando una amenaza significativa para la seguridad de millones de servidores y sistemas operativos basados en Linux en todo el mundo.

Exploit Dirty Frag: Acceso Root en Linux

El exploit Dirty Frag aprovecha una falla en el manejo de la fragmentación de memoria del kernel de Linux, permitiendo a usuarios no privilegiados ejecutar código con permisos de superusuario. Esta vulnerabilidad afecta a múltiples versiones del kernel y ha sido confirmada en las distribuciones más populares como Ubuntu, Debian, Red Hat Enterprise Linux, CentOS y Fedora, entre otras. La gravedad de esta falla radica en que un atacante que ya haya conseguido acceso básico al sistema, incluso con permisos mínimos, puede explotar esta vulnerabilidad para tomar control total del equipo comprometido.

Los investigadores de seguridad han demostrado la efectividad del exploit en entornos de producción reales, evidenciando cómo la manipulación específica de estructuras de memoria fragmentada puede derivar en la ejecución de código arbitrario con privilegios elevados. Este tipo de vulnerabilidad de escalada de privilegios locales (LPE, por sus siglas en inglés) es particularmente peligrosa en entornos compartidos, servidores cloud y sistemas con múltiples usuarios, donde el aislamiento entre cuentas es fundamental para la seguridad.

Los mantenedores del kernel de Linux y las principales distribuciones ya están trabajando en parches de seguridad para mitigar esta vulnerabilidad. Se recomienda encarecidamente a los administradores de sistemas que actualicen sus sistemas tan pronto como los parches estén disponibles. Mientras tanto, es aconsejable implementar medidas de seguridad adicionales como la monitorización intensiva de actividades sospechosas, restricción de accesos locales y aplicación de políticas de seguridad más estrictas mediante herramientas como SELinux o AppArmor.

Fuente Original: https://thehackernews.com/2026/05/linux-kernel-dirty-frag-lpe-exploit.html

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Anthropics AI Agents Now Learn From Mistakes

Anthropic has unveiled groundbreaking updates to its Claude Managed Agents platform, introducing a revolutionary capability called "dreaming" that enables AI agents to learn from their past sessions and improve autonomously over time. Announced at the company's second annual Code with Claude developer conference in San Francisco, this innovation represents a significant leap towards self-correcting AI systems that enterprises can trust with critical production workloads.

Anthropic's AI Agents Now Learn From Mistakes

The dreaming feature works differently from conventional memory systems. Whilst Claude's existing memory function retains preferences and context within sessions, dreaming operates at a higher level of abstraction. It's a scheduled process that reviews an agent's past sessions, extracts patterns across them, and curates those memories to surface insights invisible to individual sessions—such as recurring mistakes, convergent workflows, and shared team preferences. Crucially, dreaming doesn't modify the underlying model weights; instead, agents write plain-text notes and structured playbooks that future sessions can reference, keeping the entire process transparent and auditable.

Alongside dreaming, Anthropic moved two experimental features into public beta: outcomes and multi-agent orchestration. The outcomes feature lets developers define success criteria through rubrics, with a separate grader agent evaluating outputs in an independent context window—preventing accumulated biases from affecting quality assessment. Multi-agent orchestration enables a lead agent to decompose complex tasks and delegate them to specialist agents, each with isolated context windows, producing better results than single-thread approaches for investigation-heavy workloads.

Early adopters are reporting impressive gains. Legal AI firm Harvey saw task completion rates increase roughly sixfold after implementing dreaming, whilst medical document reviewer Wisedocs cut review time by 50% using outcomes. Netflix now processes logs from hundreds of builds simultaneously through multi-agent orchestration. These results come amid explosive growth for Anthropic—CEO Dario Amodei revealed the company experienced 80x annualised growth in revenue and usage during Q1 2026, far exceeding its planned 10x annual growth target.

The updates form part of Anthropic's broader strategy to close the gap between AI capabilities and real-world adoption. The company is doubling rate limits across its subscription tiers and partnering with SpaceX's Colossus data centre to expand compute availability. All three features integrate into Claude Managed Agents, which launched in public beta in April, enabling development teams to ship applications ten times faster than those building custom agent infrastructure. With dreaming now in research preview and outcomes plus multi-agent orchestration available to all developers, Anthropic is positioning itself as the enterprise platform of choice for production-ready AI agents.

Fuente Original: https://venturebeat.com/technology/anthropic-introduces-dreaming-a-system-that-lets-ai-agents-learn-from-their-own-mistakes

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

jueves, 7 de mayo de 2026

IA China Kimi Alcanza Valuacion de 20 Mil Millones

Moonshot AI, la empresa detrás del popular chatbot Kimi, ha cerrado una ronda de financiación masiva de 2 mil millones de dólares, catapultando su valoración a más de 20 mil millones de dólares. Este hito posiciona a Moonshot AI como una de las startups de IA de más rápido crecimiento en China, superando a muchas otras en términos de trayectoria de financiación en un período notablemente corto.

IA China: Kimi Alcanza Valuación de $20 Mil Millones

La ronda de financiación está siendo liderada por Dragon Ball, el brazo de inversión de Meituan, el gigante chino de servicios y entrega. A esta importante inversión se unen otros actores clave como China Mobile, un operador de telecomunicaciones respaldado por el estado, y CITIC Private Equity Funds, uno de los fondos de capital privado más grandes de China. La participac ión de estos inversores estratégicos subraya la confianza en el potencial de Moonshot AI y su tecnología.

La valoración actual de Moonshot AI representa un salto significativo, multiplicando por siete la cifra de hace apenas dieciséis meses. Este crecimiento meteórico se atribuye en gran medida al éxito de su producto estrella, Kimi, un chatbot que ha demostrado ser competitivo en pruebas de codificación y uso de herramientas, compitiendo directamente con ofertas internacionales de vanguardia. Los ingresos recurrentes anuales de Kimi se han duplicado recientemente, pasando de 100 a más de 200 millones de dólares en solo dos meses, un factor clave que habría influido en la determinación de la nueva valoración.

La estrategia de Moonshot AI se diferencia de otras startups chinas de IA, como DeepSeek, por centrarse en productos de consumo y en la generación de ingresos comerciales, en lugar de priorizar la investigación y los lanzamientos de código abierto. L a empresa, fundada por excompañeros de la Universidad de Tsinghua, ha recaudado más de 3.9 mil millones de dólares en los últimos seis meses, consolidándose como la startup de LLM (Large Language Model) más financiada en China durante este ciclo de inversión. Se rumorea que Moonshot AI se está preparando para una oferta pública inicial (OPI).

Sin embargo, es importante mencionar que la ronda aún no se ha cerrado formalmente y los términos exactos de la inversión de Meituan Dragon Ball no han sido revelados. La valoración de 20 mil millones de dólares, aunque informada por Bloomberg y corroborada por otras fuentes, no ha sido confirmada oficialmente por Moonshot AI. La integración estratégica de China Mobile en la estructura de capital de la empresa también presenta implicaciones que aún deben ser probadas.

El panorama general de la financiación de IA en China muestra una convergencia de capital estratégico alineado con el estado, grandes brazos de inv ersión de empresas de plataformas y vehículos de capital privado importantes, todos apostando por un selecto grupo de laboratorios de IA de vanguardia. La ronda de Moonshot AI confirma esta tendencia, y la trayectoria de ingresos de su producto Kimi valida su potencial comercial. La pregunta que queda por responder es si el ciclo de financiación de IA en China, en su conjunto, es sostenible a estos múltiplos y si las futuras pruebas en el mercado público mantendrán estas valoraciones.

Fuente Original: https://thenextweb.com/news/moonshot-ai-20bn-valuation-kimi-meituan-china-mobile

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

EU AI Act Tweaked Nudification Ban Extended Deadlines

The European Union has reached a political agreement on amendments to its landmark Artificial Intelligence Act, often referred to as the 'AI Omnibus.' This crucial deal aims to streamline compliance for businesses, particularly smaller ones, and introduces a significant ban on AI systems that generate non-consensual intimate imagery. This compromise follows earlier unsuccessful negotiations, indicating a determined effort to make the AI Act more practical for industry while upholding its core principles.

EU AI Act Tweaked: Nudification Ban & Extended Deadlines

A key takeaway from the deal is the extension of compliance deadlines. Obligations for standalone high-risk AI systems, previously due in August 2026, will now take effect from December 2027. Similarly, rules for AI embedded in regulated products have been pushed back to August 2028. This postponement is attributed to the need for finalised harmonised standards and clearer guidance documents, providing companies with roughly sixteen extra months to prepare. Furthermore, smaller and small mid-cap companies will benefit from extended simplifications, including templated documentation and reduced fees, aiming to scale obligations according to company size rather than imposing a one-size-fits-all approach.

Perhaps the most impactful addition to the AI Act is the explicit prohibition of AI tools designed to create child sexual abuse material or non-consensual intimate images of identifiable individuals. This ban directly addresses concerns raised by public controversies and aims to curb the malicious use of AI for generating harmful content. Companies will have until December 2026 to bring existing products into compliance. While general-purpose AI models with effective safety measures to prevent misuse are carved out, the core intent is to prevent the generation and dissemination of such images. The fundamental architecture of the AI Act, including its risk-based pyramid and foundation model rules, remains unchanged. However, civil society groups have voiced concerns that the simplifications might dilute fundamental rights protections, particularly regarding biometric identification and AI in schools. The package is still subject to formal endorsement by the European Parliament and the Council before its formal adoption.

Fuente Original: https://thenextweb.com/news/eu-ai-act-omnibus-deal-nudification-ban

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

vm2 Fallezs de Nodejs Permiten Ejecucion de Codigo Malicioso

¡Atención desarrolladores de Node.js! Una biblioteca crucial, vm2, ha sido el foco de vulnerabilidades serias que abren la puerta a la ejecución de código arbitrario y a la evasión de entornos seguros (sandbox). Esto significa que atacantes podrían infiltrarse en tus aplicaciones, tomar el control y ejecutar comandos maliciosos, representando un riesgo significativo para la seguridad de tus proyectos.

vm2: Fallezs de Node.js Permiten Ejecución de Código Malicioso

La biblioteca vm2 es utilizada para aislar y ejecutar código de forma segura. Sin embargo, se descubrieron fallos críticos que comprometen precisamente esa seguridad. Los a tacantes pueden explotar estas debilidades para salirse del sandbox, obteniendo así acceso no autorizado a recursos del sistema y ejecutando código no deseado. Esto podría llevar desde el robo de datos hasta la interrupción completa de servicios.

La investigación ha revelado la gravedad de estas vulnerabilidades, destacando la importancia de mantener actualizadas las dependencias y de implementar capas adicionales de seguridad. Los desarrolladores deben estar alerta y aplicar los parches correspondientes cuanto antes para mitigar estos riesgos. Ignorar estas advertencias podría tener consecuencias desastrosas para la integridad y confidencialidad de las aplicaciones construidas con Node.js.

Fuente Original: https://thehackernews.com/2026/05/vm2-nodejs-library-vulnerabilities.html

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Scale AI Gana Contrato de 500M del Pentagono

Scale AI ha conseguido un impresionante contrato de $500 millones con el Departamento de Defensa de Estados Unidos, multiplicando por cinco su acuerdo anterior con el Pentágono. Este contrato representa uno de los mayores compromisos individuales en inteligencia artificial que ha realizado el ejército estadounidense y marca una expansión significativa en la integración de IA en operaciones militares.

Scale AI Gana Contrato de $500M del Pentágono

El nuevo acuerdo fue firmado con la Oficina Principal Digital e Inteligencia Artificial del Pentágono, conocida como CDAO, que se ha convertido en el principal vehículo de adquisición para inversiones en IA militar durante 2025 y 2026. Este contrato es cinco veces mayor que los $100 millones que Scale AI recibió en septiembre de 2025. Según Dan Tadross, director del negocio del sector público de Scale, el Pentágono ya estaba alcanzando los límites del contrato original, lo que justificó esta ampliación sustancial.

Scale AI se une ahora a un grupo selecto de proveedores tecnológicos que han firmado acuerdos importantes con el CDAO. Microsoft, Amazon y Google también firmaron contratos clasificados para uso militar en mayo de 2026. Sin embargo, el rol de Scale AI es estructuralmente diferente: mientras que los gigantes tecnológicos proporcionan infraestructura de nube y modelos, Scale se especializa en la capa de etiquetado de datos y soporte de decisiones que funciona sobre esa infraestructura.

El negocio de defensa ha sido el segmento de más rápido crecimiento para Scale AI. La empresa se ha posicionado estratégicamente para resolver el cuello de botella de calidad de datos que ha limitado la implementación operativa de IA en contextos militares. Los modelos de IA funcionan bien en pruebas, pero tienen dificultades cuando los datos de entrenamiento están fragmentados o mal etiquetados. La propuesta de Scale es precisamente mejorar esa capa de datos para permitir implementaciones confiables.

La compañía, valorada en más de $14 mil millones tras una inversión de Meta en junio de 2024, tiene ahora la capacidad financiera para expandir sus operaciones gubernamentales a la velocidad requerida. Su CEO, Alexandr Wang, se ha convertido en una figura visible en la política de IA estadounidense, testificando regularmente ante el Congreso sobre competitividad en IA militar. Este contrato de $500 millones le da a Scale aproximadamente dos o tres años para consolidar su posición en este mercado en rápida evolución.

Fuente Original: https://thenextweb.com/news/scale-ai-500m-pentagon-defense-contract-cdao

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

miércoles, 6 de mayo de 2026

Agentes IA Ya Estan Dentro Descubrelo

En el cambiante panorama de la ciberseguridad, una nueva amenaza acecha: los agentes de Inteligencia Artificial (IA). No se trata de robots futuristas invadiendo nuestros hogares, sino de programas de IA que, de forma sigilosa, ya se han infiltrado en las redes de las organizaciones. La pregunta clave no es si están fuera o dentro, sino qué están haciendo una vez que han cruzado el perímetro digital.

Agentes IA: ¿Ya Están Dentro? ¡Descúbrelo!

Estos agentes de IA son capaces de realizar una amplia gama de tareas, desde la exploración y el reconocimiento hasta la ejecución de ataques complejos. A diferencia de los atacant es humanos, la IA opera a una velocidad vertiginosa y con una escala sin precedentes, lo que dificulta enormemente su detección y neutralización. Pueden identificar vulnerabilidades, extraer datos sensibles e incluso manipular sistemas de forma autónoma, todo ello antes de que los equipos de seguridad tradicionales se den cuenta de la intrusión.

La verdadera preocupación reside en la falta de visibilidad y control sobre estas operaciones de IA. Las organizaciones a menudo desconocen la presencia de estos agentes o su propósito real dentro de sus sistemas. La IA puede ser utilizada tanto por adversarios como, paradójicamente, por las propias defensas de una empresa, lo que añade una capa de complejidad. Es fundamental que las empresas adopten un enfoque proactivo, invirtiendo en herramientas y estrategias que les permitan monitorizar, comprender y gestionar la actividad de la IA dentro de sus perímetros. Ignorar esta realidad emergente es abrir la puerta a riesgos de s eguridad sin precedentes en la era digital.

Fuente Original: https://thehackernews.com/2026/05/your-ai-agents-are-already-inside.html

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Googles AI Leap Challenging Nvidias Chip Dominance

Alphabet, Google's parent company, has made a significant move, signalling the arrival of a new era in artificial intelligence. The tech giant is not just participating in the AI revolution; it's actively aiming to disrupt the market, particularly by challenging Nvidia's long-held dominance in the AI chip sector. This strategic pivot suggests a more aggressive approach from Google in leveraging its extensive resources and research capabilities to develop and deploy cutting-edge AI technologies.

Google's AI Leap: Challenging Nvidia's Chip Dominance

The article highlights Google's commitment to building its own AI hardware, specifically Tensor Processing Units (TPUs). These custom-designed chips are tailored for the demanding computational needs of AI workloads, offering a potentially more efficient and cost-effective alternative to Nvidia's graphics processing units (GPUs), which have become the industry standard. By developing its own hardware, Google aims to gain greater control over its AI infrastructure, optimise performance for its specific applications, and potentially lower its reliance on third-party chip manufacturers. This move is seen as a crucial step in accelerating its AI development and deployment across its vast array of products and services, from search and cloud computing to autonomous vehicles and beyond.

Furthermore, Alphabet's intensified focus on AI hardware underscores its ambition to not only lead in AI research but also to solidify its position as a major player in the AI hardware market. This could have significant implications for the competitive landscape, potentially forcing other tech companies to re-evaluate their own AI strategies and hardware sourcing. The company's investment in proprietary AI chips is a clear indication that they believe in their ability to innovate and compete at the highest level, positioning themselves as a formidable contender against established giants like Nvidia.

Fuente Original: https://news.google.com/rss/articles/CBMilgFBVV95cUxNUWFlR1dybnoxTlloMER6SXV1XzdQdGhlS Gxjc2FKOGF3dnJQN1NqV3oyZXlXaC1wSG13bzNuRjh2cmhHOVNoRlFzdlA0R2JoaFNnaURGWnFUTG1TUTBhWVNkX2NYVUlVVzU0bDc4Z3IwOVdORnpBblY2R2Y4Q3Y0VGU3R1NPM2h1dGZ6blRGRjBrTTZZb2c?oc=5

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Agentes IA Nueva Amenaza Oculta en Codigo Abierto

Una nueva vulnerabilidad ha surgido en el mundo del desarrollo de software, gracias a herramientas como CLI-Anything. Estas innovaciones permiten que los agentes de codificación de IA interactúen con cualquier repositorio de código abierto mediante un simple comando. Si bien esto acelera enormemente el desarrollo, también abre la puerta a un tipo de ataque hasta ahora desconocido: el envenenamiento de agentes de IA.

Agentes IA: Nueva Amenaza Oculta en Código Abierto

El problema fundamental reside en la forma en que funcionan estos agentes. Generan archivos SKILL.md, que son esenciales para que la IA entienda cómo operar el software. Sin embargo, estos archivos pueden contener instrucciones maliciosas incrustadas que no son detectadas por las herramientas de seguridad tradicio nales. Ni los escáneres de seguridad de aplicaciones estáticas (SAST) ni los análisis de composición de software (SCA) están diseñados para entender este nivel semántico de instrucciones. Simplemente no buscan código malicioso en este formato, que además no genera una alerta CVE ni aparece en un SBOM (Software Bill of Materials).

La cadena de ataque es insidiosa: un actor malintencionado inserta un archivo SKILL.md en un proyecto de código abierto. Este archivo, que parece documentación estándar, contiene instrucciones ocultas que el agente de IA, al ser conectado al repositorio, interpretará como directivas operativas. Dado que no hay una capa de verificación que distinga la intención benigna de la maliciosa en este nivel, el agente ejecuta las instrucciones incrustadas con sus propios credenciales legítimos. Esto permite la exfiltración de datos, la modificación de configuraciones o el robo de credenciales, todo ello pasando desapercibido para las herramien tas de monitoreo convencionales, que ven llamadas a API aprobadas desde procesos autorizados.

La falta de una capa de seguridad específica para este “nivel de integración de agentes” es una brecha estructural en la seguridad de la cadena de suministro de software. Herramientas como OpenClaw han demostrado que la barrera de entrada para publicar habilidades maliciosas es extremadamente baja, con un alto porcentaje de habilidades en sus mercados que contienen problemas de seguridad críticos. Plataformas como ClawHub han sido víctimas de campañas que distribuyen malware a través de definiciones de habilidades con documentación profesional. Incluso el protocolo MCP, utilizado para la comunicación entre agentes, ha mostrado vulnerabilidades similares. Ante esta amenaza emergente, se hace imperativo que las organizaciones comiencen a auditar este nuevo vector de ataque, inventariando las herramientas de agente, auditando las fuentes de habilidades y desplegando herramien tas de escaneo específicas para la capa de integración de agentes, como las ofrecidas por Cisco y Snyk, antes de que los incidentes se vuelvan más comunes.

Fuente Original: https://venturebeat.com/security/one-command-open-source-repo-ai-agent-backdoor-openclaw-supply-chain-scanner

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Grave Fallo CopyFail Amenaza Sistemas Linux Globalmente

Una vulnerabilidad de seguridad crítica está sacudiendo el mundo de la tecnología al afectar prácticamente todas las versiones del sistema operativo Linux. El fallo, bautizado como "CopyFail", ha tomado por sorpresa a expertos en ciberseguridad y ha desencadenado una carrera contrarreloj para implementar parches de seguridad en millones de sistemas vulnerables alrededor del mundo.

Grave Fallo CopyFail Amenaza Sistemas Linux Globalmente

Lo más alarmante de esta situación es que investigadores de seguridad han publicado código de explotación que permite a los atacantes tomar control completo de los sistemas afectados. Según informes de TechCrunch, el gobierno de Estados Unidos ha confirmado que esta vulnerabilidad ya está siendo explotada activamente en campañas de hackeo malicioso en el entorno real, lo que eleva significativamente el nivel de amenaza para organizaciones y usuarios.

La magnitud del problema ha llevado a la agencia de ciberseguridad estadounidense CISA a tomar medidas urgentes. Reconociendo el riesgo sustancial que representa para la red empresarial federal, CISA ha emitido una orden obligatoria para que todas las agencias federales civiles implementen los parches de seguridad necesarios en sus sistemas afectados antes del 15 de mayo. Esta fecha límite subraya la gravedad de la situación y la necesidad de actuar con rapidez.

Los defensores de ciberseguridad en todo el mundo están trabajando intensamente para proteger infraestructuras críticas y sistemas empresariales que dependen de Linux, uno de los sistemas operativos más utilizados en servidores, dispositivos IoT y entornos empresariales. La amplia adopción de Linux en infraestructuras tecnológicas globales hace que esta vulnerabilidad sea particularmente preocupante, ya que millones de dispositivos y servidores podrían estar en riesgo si no se toman las medidas correctivas apropiadas de inmediato.

Fuente Original: https://linux.slashdot.org/story/26/05/05/1535209/us-government-warns-of-severe-copyfail-bug-affecting-major-versions-of-linux?utm_source=rss1.0mainlinkanon&amp;utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT