domingo, 10 de mayo de 2026

Prueba ADN IA Cisco Lanza Herramienta Open Source

En el vertiginoso mundo de la inteligencia artificial, saber de dónde provienen los modelos es crucial. Cisco ha dado un paso adelante al lanzar el 'Model Provenance Kit', una herramienta de código abierto diseñada para actuar como una prueba de ADN para los modelos de IA.

Prueba ADN IA: Cisco Lanza Herramienta Open Source

Esta innovadora utilidad, presentada como un kit de Python con una interfaz de línea de comandos (CLI), examina detalles como metadatos y los pesos de los modelos para crear una "huella digital" única. Esta huella permite comparar modelos y determinar si comparten un origen común o han sido modificados. Los investigadores de Cisco comparan su herramienta con las pruebas genéticas humanas, ya que, al igual que el ADN revela orígenes biológicos, el kit analiza la información y los parámetros aprendidos d e un modelo para evaluar su linaje.

El principal objetivo de esta iniciativa es abordar la falta de transparencia en la cadena de suministro de IA. Con la creciente popularidad de modelos de código abierto de plataformas como HuggingFace, existe el riesgo de que se distribuyan modelos con documentación engañosa o incompleta. El 'Model Provenance Kit' permite a las organizaciones verificar afirmaciones, como si un modelo fue entrenado desde cero o si es una copia de otro. Esto es vital para mitigar riesgos asociados a modelos con sesgos, vulnerabilidades o manipulaciones desconocidas, facilitando la gestión de incidentes.

Fuente Original: https://slashdot.org/story/26/05/09/0616224/cisco-releases-open-source-dna-test-for-ai-models?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Registros Open Source Enfrentan Crisis de Trafico Automatizado

Los registros de paquetes de código abierto están experimentando una crisis de sostenibilidad sin precedentes debido al explosivo crecimiento del tráfico generado por máquinas. Bajo el paraguas de la Fundación Linux, se ha creado un nuevo Grupo de Trabajo para Sostener Registros de Paquetes, con el objetivo de identificar prácticas concretas de financiamiento, gobernanza y seguridad que mantengan el flujo de código mientras las descargas continúan multiplicándose exponencialmente.

Registros Open Source Enfrentan Crisis de Tráfico Automatizado

El problema es alarmante: mientras que tradicionalmente los usuarios humanos descargaban paquetes a velocidad humana, ahora los sistemas de construcción de software, las tuberías de integración continua y los sistemas de inteligencia artificial bombardean estos registros a velocidad de máquina. Esta avalancha ha generado un aumento masivo en el tráfico de bots, publicaciones automatizadas, reportes de seguridad y abuso directo, revelando lo que el grupo de trabajo denomina francamente como una brecha de sostenibilidad.

Las cifras son asombrosas: Brian Fox, CTO de Sonatype, quien supervisa el registro Maven Central para Java, estima que los registros de código abierto experimentaron 10 billones de descargas en 2025. Este patrón se está replicando en todos los ecosistemas tecnológicos, con más tráfico automatizado, más escaneo, más expectativas sobre disponibilidad, integridad y cumplimiento de políticas, lo que se traduce en mayores costos y cargas de soporte para una infraestructura que la industria aún asume funciona con buena voluntad y tiempo libre.

Para abordar este desafío, Sonatype se ha unido con la Fundación Linux y otros líderes de registros de paquetes, incluyendo Alpha-Omega, Eclipse Foundation, OpenJS Foundation, OpenSSF, Packagist, Python Software Foundation, Ruby Central y Rust Foundation. El objetivo es proporcionar un foro neutral donde los operadores puedan discutir abiertamente sobre dinero, gobernanza y cargas operativas compartidas, para luego coordinar cómo explicar estas realidades a las empresas que han asumido durante mucho tiempo que los registros son gratuitos.

La realidad es que los registros nunca fueron gratuitos. Actualmente funcionan principalmente con donaciones de infraestructura, créditos y esfuerzos heroicos de pequeños equipos pagados y voluntarios no remunerados. El grupo de trabajo buscará alinear prácticas de seguridad, crear marcos que permitan introducir modelos de financiamiento sostenible sin fracturar comunidades, y desarrollar contenido educativo para que desarrolladores, empresas y responsables políticos comprendan finalmente los costos reales de mantener estos servicios críticos.

Fuente Original: https://news.slashdot.org/story/26/05/10/0023237/open-source-registries-join-linux-foundation-working-group-to-address-machine-generated-traffic?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Anthropics AI Discovers Thousands of Zero-Day Vulnerabilities

Anthropic has developed an artificial intelligence model called Claude Mythos Preview that has uncovered thousands of previously unknown security vulnerabilities across major operating systems and web browsers. The discovery has prompted urgent discussions between the Federal Reserve chairman, the Treasury secretary, and chief executives of major US banks about the unprecedented cybersecurity risks this capability represents. The company warns that adversaries could replicate this technology within six to twelve months, creating a critical window for organisations to secure their systems.

Anthropic's AI Discovers Thousands of Zero-Day Vulnerabilities

In controlled testing, Mythos demonstrated capabilities that surpassed all but the most skilled human security researchers at identifying and exploiting software vulnerabilities. The model discovered flaws that had remained hidden for decades, including a 27-year-old bug in OpenBSD and a 17-year-old remote code execution vulnerability in FreeBSD. Most strikingly, Mozilla's Firefox 150 release included fixes for 271 security vulnerabilities that Mythos identified in a single evaluation pass—flaws that no human team had previously detected despite years of development and security auditing.

The emergence of Mythos fundamentally challenges the traditional economics of cybersecurity, which has long relied on the asymmetry between attackers and defenders. Whilst attackers only need to find one exploitable flaw, defenders must secure all potential entry points. Mythos collapses the cost of vulnerability discovery to near zero for both sides, creating an environment where automated systems can scan entire codebases in ways that were previously impossible. This shift has profound implications for the security of critical infrastructure, financial systems, and the broader digital economy.

Anthropic has implemented a controlled rollout strategy called Project Glasswing, providing initial access to approximately 40 technology companies and institutions whilst deliberately excluding most central banks and governments. This approach aims to give defenders a head start before the capability becomes more widely available. However, the company finds itself in a paradoxical position: simultaneously warning organisations about AI-powered cyber threats whilst selling AI products to those same entities. This tension is exemplified by Anthropic's announcement of a 1.5 billion dollar Wall Street joint venture with Blackstone and Hellman and Friedman, launched just one day after revealing the Mythos findings.

The six-to-twelve month window that Anthropic CEO Dario Amodei describes represents the estimated time before Chinese AI companies and other adversaries develop equivalent capabilities. OpenAI has already responded by releasing GPT-5.4-Cyber for vetted security teams, extending the competitive dynamic between the two companies into the cybersecurity domain. The cybersecurity community has responded with a mixture of alarm and scepticism, noting that whilst the scale of Mythos's discoveries is impressive, AI-assisted vulnerability discovery has been developing for years. The fundamental question facing organisations is whether this limited timeframe provides sufficient opportunity to address decades of accumulated security flaws across every operating system, browser, and financial platform currently in production.

Fuente Original: https://thenextweb.com/news/anthropic-mythos-cybersecurity-banks-vulnerability

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

sábado, 9 de mayo de 2026

AI Repositories Under Siege by Malware Attacks

The cutting edge of artificial intelligence development, once hailed as a beacon of rapid innovation, is now facing a significant threat. Researchers have uncovered a widespread issue where the very platforms designed to accelerate AI progress are being systematically exploited by malicious actors. Hugging Face, a colossal repository hosting over a million machine learning models, and ClawHub, the central hub for OpenClaw's AI agent skills, have both been found to harbour hundreds of compromised entries.

AI Repositories: Under Siege by Malware Attacks

These malicious models and skills are not mere nuisances; they are designed to inflict serious damage. Attackers are leveraging the inherent trust developers place in these central repositories to inject malware that can steal credentials, establish covert backdoors into systems, and even hijack AI agents for illicit purposes like cryptocurrency mining. The techniques vary, but the core logic remains the same: exploit the AI industry's own infrastructure to compromise it. For instance, on Hugging Face, a technique called 'nullifAI' bypasses existing security measures by embedding malicious Python code within models, which executes upon loading due to the vulnerabilities in Python's pickle serialisation format. This can grant attackers direct control over a user's machine.

Similarly, ClawHub has been infiltrated by a coordinated campaign, with a significant portion of its AI agent skills identified as malicious. These compromised skills can access sensitive data and internal networks within enterprise environments, as AI agents autonomously select and execute these tools as part of their workflows. The implications are far-reaching, impacting not just individual developers but potentially entire organisations. These attacks are part of a broader trend of software supply chain compromises, seen recently in packages like LiteLLM and PyPI, highlighting the growing vulnerability of the interconnected digital ecosystem. The speed at which these attacks can be executed, often within hours or even minutes, presents a formidable challenge for defenders. The AI industry's substantial investment in model development appears to have outpaced its investment in securing the distribution channels, leaving these critical repositories as the new prime target in sof tware security.

Fuente Original: https://thenextweb.com/news/hugging-face-clawhub-malware-ai-supply-chain

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Cloudflare IA Despide 1100 Empleados Tras Exito

Cloudflare ha sorprendido al mercado con una noticia dual: por un lado, superó las expectativas de ganancias y ingresos en su primer trimestre, mostrando un crecimiento sólido del 34% interanual. Sin embargo, la compañía también anunció el despido de 1.100 empleados, aproximadamente el 20% de su fuerza laboral. La razón explícita detrás de esta drástica medida es la adopción de un nuevo modelo operativo enfocado en la inteligencia artificial, al que han denominado "agentic AI-first".

Cloudflare: IA Despide 1.100 Empleados Tras Éxito

Según el CEO Matthew Prince y la cofundadora Michelle Zatlyn, el uso interno de IA en Cloudflare ha experimentado un aumento superior al 600% en tan solo tres meses. La compañía está utilizando miles de sesiones diarias de agentes de IA en áreas como ingeniería, recursos humanos, finanzas y marketing. La particularidad de este enfoque radica en que la IA no se presenta como una herramienta de apoyo para los empleados existentes, sino como un reemplazo directo para ciertas categorías de roles, especialmente aquellos de soporte detrás del personal de cara al cliente y de ingeniería. Esto marca un punto de inflexión, siendo uno de los casos más claros donde una empresa atribuye despidos directamente a la sustitución de puestos de trabajo por la IA.

A pesar de los sólidos resultados financieros, que incluyeron un aumento en clientes de alto valor y proyecciones de ingresos y ganancias futuras optimistas impulsadas por la IA, el mercado reaccionó negativamente. Las acciones de Cloudflare cayeron un 24% al día siguiente de los anuncios. Esta caída refleja la incertidumbre de los inversores sobre la capacidad de la empresa para ejecutar esta transformación y mantener su trayectoria de crecimiento, a pesar de los despidos y los costos de reestructuración de entre 140 y 150 millones de dólares. Los empleados afectados recibirán beneficios significativos, incluyendo salario hasta finales de 2026 y cobertura médica extendida. Cloudflare ve esta reestructuración como una medida estratégica y estructural, no cíclica, anticipando que el trabajo realizado por los empleados despedidos será ahora cubierto por el software, sentando un precedente para la industria tecnológica y, potencialmente, para otros sectores.

Fuente Original: https://thenextweb.com/news/cloudflare-layoffs-agentic-ai-earnings-stock

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Linux Dirty Frag Zero-Day Grants Root Access

A critical new vulnerability class dubbed 'Dirty Frag' has been discovered in Linux systems, posing a severe security threat to all major distributions. Security researcher Hyunwoo Kim first identified and reported this exploit, which enables attackers to gain root privileges by chaining two separate vulnerabilities: the xfrm-ESP Page-Cache Write vulnerability and the RxRPC Page-Cache Write vulnerability. This discovery extends the bug class that includes the previously known Dirty Pipe and Copy Fail vulnerabilities.

Linux 'Dirty Frag' Zero-Day Grants Root Access

What makes Dirty Frag particularly dangerous is its reliability and ease of exploitation. Unlike many vulnerabilities that depend on race conditions or specific timing windows, Dirty Frag is a deterministic logic bug. This means it achieves a very high success rate without requiring precise timing, the kernel doesn't panic when exploitation attempts fail, and attackers can execute it with greater confidence. The vulnerability allows for immediate root privilege escalation across all major Linux distributions, giving malicious actors complete control over affected systems.

The security community faces an urgent situation as the embargo on this vulnerability has been broken prematurely. Currently, no official patch or CVE designation exists to address Dirty Frag, leaving countless Linux systems exposed. However, BleepingComputer has reported that the two chained vulnerabilities have now been assigned CVE identifiers: the xfrm-ESP vulnerability is tracked as CVE-2026-43284, whilst the RxRPC issue has been designated CVE-2026-43500. System administrators and security professionals should monitor their distribution's security advisories closely for forthcoming patches and apply them immediately upon release. Detailed technical information about the exploit mechanism is available for those seeking to understand the vulnerability's inner workings and potential mitigation strategies whilst official fixes are being developed.

Fuente Original: https://linux.slashdot.org/story/26/05/08/1913238/new-linux-dirty-frag-zero-day-gives-root-on-all-major-distros?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

viernes, 8 de mayo de 2026

RAT Linux Quasar Robo de credenciales devasta cadena de suministro

¡Atención, desarrolladores y profesionales de la ciberseguridad! Una nueva amenaza acecha en el mundo Linux: Quasar, un RAT (Troyano de Acceso Remoto) diseñado para infiltrarse y robar credenciales de desarrolladores, abriendo la puerta a compromisos devastadores en la cadena de suministro de software. Este sofisticado malware no solo busca acceso, sino que apunta directamente a la información sensible que permite a los desarrolladores trabajar, abriendo una vía para que los atacantes manipulen el código fuente, inyecten código malicioso o desaten ataques a gran escala.

RAT Linux Quasar: ¡Robo de credenciales devasta cadena de suministro!< /p>

La estrategia de Quasar es preocupante. Al dirigirse a las credenciales de desarrollo, como claves SSH, tokens de API y contraseñas de repositorios de código, los atacantes obtienen un nivel de acceso sin precedentes. Esto les permite no solo acceder a sistemas individuales, sino también comprometer la integridad de todo el proceso de desarrollo de software. Imagina que el código que descargas e implementas ha sido sutilmente modificado para contener puertas traseras o funcionalidades maliciosas, todo ello facilitado por el robo de las credenciales de quienes lo crearon.

Este tipo de ataque a la cadena de suministro de software es particularmente peligroso porque puede tener un efecto dominó. Una vez que una herramienta o una biblioteca de software se ve comprometida, todas las aplicaciones que dependen de ella pueden verse afectadas, propagando la infección de forma masiva y silenciosa. La detección de Quasar se vuelve crucial, y las defensas deben ir más allá de la protección de endpoints, centrándose también en la seguridad de las credenciales, la monitorización de la actividad de desarrollo y la validación rigurosa de las dependencias de software. La seguridad de la cadena de suministro es ahora un campo de batalla fundamental, y Quasar es un recordatorio vívido de los riesgos.

Fuente Original: https://thehackernews.com/2026/05/quasar-linux-rat-steals-developer.html

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

China OBON Corp y servidores Supermicro millonarios

Fiscales estadounidenses sospechan que OBON Corp., una empresa tailandesa clave en la estrategia nacional de inteligencia artificial del país, habría facilitado el envío ilegal de miles de millones de dólares en servidores equipados con chips de Nvidia a China. Alibaba figuraría entre los compradores finales de estos equipos, según reportes recientes.

China: OBON Corp. y servidores Supermicro millonarios

OBON Corp., con sede en Bangkok, se ha promocionado como un proveedor regional de servicios en la nube y supercomputación, y ha sido un socio activo en la Estrategia Nacional de IA de Tailandia. Los fiscales la identifican como la misteriosa "Compañía-1" mencionada en la acusación federal contra el cofundador de Supermicro, Yih-Shyan "Wally" Liaw, y dos asociados. Liaw fue arrestado en marzo por conspiración para violar la Ley de Reforma de Control de Exportaciones.

Se alega que Liaw y otros intermediarios habrían utilizado OBON Corp. para desviar alrededor de 2.500 millones de dólares en servidores entre 2024 y 2025. El presunto modus operandi incluía documentación de envío falsificada, cambio de números de serie y la construcción de servidores 'dummy' para evadir inspecciones. Ni OBON Corp. ni Alibaba han sido acusados formalmente, pero ambos son considerados por los fiscales como partes finales de esta cadena de desvío, cuya participación aún se investiga. Este caso pone de relieve las complejidades de las políticas de control de exportaciones de EE.UU. en el ámbito de la IA y la tensión geopolítica en torno al acceso a tecnología avanzada.

Fuente Original: https://thenextweb.com/news/us-prosecutors-thailand-obon-corp-supermicro-nvidia-alibaba-smuggling

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Exploit Dirty Frag Acceso Root en Linux

Una nueva y crítica vulnerabilidad de escalada de privilegios locales ha sido descubierta en el kernel de Linux, conocida como "Dirty Frag". Este exploit permite a atacantes con acceso limitado al sistema obtener privilegios de root completos en las principales distribuciones de Linux, representando una amenaza significativa para la seguridad de millones de servidores y sistemas operativos basados en Linux en todo el mundo.

Exploit Dirty Frag: Acceso Root en Linux

El exploit Dirty Frag aprovecha una falla en el manejo de la fragmentación de memoria del kernel de Linux, permitiendo a usuarios no privilegiados ejecutar código con permisos de superusuario. Esta vulnerabilidad afecta a múltiples versiones del kernel y ha sido confirmada en las distribuciones más populares como Ubuntu, Debian, Red Hat Enterprise Linux, CentOS y Fedora, entre otras. La gravedad de esta falla radica en que un atacante que ya haya conseguido acceso básico al sistema, incluso con permisos mínimos, puede explotar esta vulnerabilidad para tomar control total del equipo comprometido.

Los investigadores de seguridad han demostrado la efectividad del exploit en entornos de producción reales, evidenciando cómo la manipulación específica de estructuras de memoria fragmentada puede derivar en la ejecución de código arbitrario con privilegios elevados. Este tipo de vulnerabilidad de escalada de privilegios locales (LPE, por sus siglas en inglés) es particularmente peligrosa en entornos compartidos, servidores cloud y sistemas con múltiples usuarios, donde el aislamiento entre cuentas es fundamental para la seguridad.

Los mantenedores del kernel de Linux y las principales distribuciones ya están trabajando en parches de seguridad para mitigar esta vulnerabilidad. Se recomienda encarecidamente a los administradores de sistemas que actualicen sus sistemas tan pronto como los parches estén disponibles. Mientras tanto, es aconsejable implementar medidas de seguridad adicionales como la monitorización intensiva de actividades sospechosas, restricción de accesos locales y aplicación de políticas de seguridad más estrictas mediante herramientas como SELinux o AppArmor.

Fuente Original: https://thehackernews.com/2026/05/linux-kernel-dirty-frag-lpe-exploit.html

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Anthropics AI Agents Now Learn From Mistakes

Anthropic has unveiled groundbreaking updates to its Claude Managed Agents platform, introducing a revolutionary capability called "dreaming" that enables AI agents to learn from their past sessions and improve autonomously over time. Announced at the company's second annual Code with Claude developer conference in San Francisco, this innovation represents a significant leap towards self-correcting AI systems that enterprises can trust with critical production workloads.

Anthropic's AI Agents Now Learn From Mistakes

The dreaming feature works differently from conventional memory systems. Whilst Claude's existing memory function retains preferences and context within sessions, dreaming operates at a higher level of abstraction. It's a scheduled process that reviews an agent's past sessions, extracts patterns across them, and curates those memories to surface insights invisible to individual sessions—such as recurring mistakes, convergent workflows, and shared team preferences. Crucially, dreaming doesn't modify the underlying model weights; instead, agents write plain-text notes and structured playbooks that future sessions can reference, keeping the entire process transparent and auditable.

Alongside dreaming, Anthropic moved two experimental features into public beta: outcomes and multi-agent orchestration. The outcomes feature lets developers define success criteria through rubrics, with a separate grader agent evaluating outputs in an independent context window—preventing accumulated biases from affecting quality assessment. Multi-agent orchestration enables a lead agent to decompose complex tasks and delegate them to specialist agents, each with isolated context windows, producing better results than single-thread approaches for investigation-heavy workloads.

Early adopters are reporting impressive gains. Legal AI firm Harvey saw task completion rates increase roughly sixfold after implementing dreaming, whilst medical document reviewer Wisedocs cut review time by 50% using outcomes. Netflix now processes logs from hundreds of builds simultaneously through multi-agent orchestration. These results come amid explosive growth for Anthropic—CEO Dario Amodei revealed the company experienced 80x annualised growth in revenue and usage during Q1 2026, far exceeding its planned 10x annual growth target.

The updates form part of Anthropic's broader strategy to close the gap between AI capabilities and real-world adoption. The company is doubling rate limits across its subscription tiers and partnering with SpaceX's Colossus data centre to expand compute availability. All three features integrate into Claude Managed Agents, which launched in public beta in April, enabling development teams to ship applications ten times faster than those building custom agent infrastructure. With dreaming now in research preview and outcomes plus multi-agent orchestration available to all developers, Anthropic is positioning itself as the enterprise platform of choice for production-ready AI agents.

Fuente Original: https://venturebeat.com/technology/anthropic-introduces-dreaming-a-system-that-lets-ai-agents-learn-from-their-own-mistakes

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

jueves, 7 de mayo de 2026

IA China Kimi Alcanza Valuacion de 20 Mil Millones

Moonshot AI, la empresa detrás del popular chatbot Kimi, ha cerrado una ronda de financiación masiva de 2 mil millones de dólares, catapultando su valoración a más de 20 mil millones de dólares. Este hito posiciona a Moonshot AI como una de las startups de IA de más rápido crecimiento en China, superando a muchas otras en términos de trayectoria de financiación en un período notablemente corto.

IA China: Kimi Alcanza Valuación de $20 Mil Millones

La ronda de financiación está siendo liderada por Dragon Ball, el brazo de inversión de Meituan, el gigante chino de servicios y entrega. A esta importante inversión se unen otros actores clave como China Mobile, un operador de telecomunicaciones respaldado por el estado, y CITIC Private Equity Funds, uno de los fondos de capital privado más grandes de China. La participac ión de estos inversores estratégicos subraya la confianza en el potencial de Moonshot AI y su tecnología.

La valoración actual de Moonshot AI representa un salto significativo, multiplicando por siete la cifra de hace apenas dieciséis meses. Este crecimiento meteórico se atribuye en gran medida al éxito de su producto estrella, Kimi, un chatbot que ha demostrado ser competitivo en pruebas de codificación y uso de herramientas, compitiendo directamente con ofertas internacionales de vanguardia. Los ingresos recurrentes anuales de Kimi se han duplicado recientemente, pasando de 100 a más de 200 millones de dólares en solo dos meses, un factor clave que habría influido en la determinación de la nueva valoración.

La estrategia de Moonshot AI se diferencia de otras startups chinas de IA, como DeepSeek, por centrarse en productos de consumo y en la generación de ingresos comerciales, en lugar de priorizar la investigación y los lanzamientos de código abierto. L a empresa, fundada por excompañeros de la Universidad de Tsinghua, ha recaudado más de 3.9 mil millones de dólares en los últimos seis meses, consolidándose como la startup de LLM (Large Language Model) más financiada en China durante este ciclo de inversión. Se rumorea que Moonshot AI se está preparando para una oferta pública inicial (OPI).

Sin embargo, es importante mencionar que la ronda aún no se ha cerrado formalmente y los términos exactos de la inversión de Meituan Dragon Ball no han sido revelados. La valoración de 20 mil millones de dólares, aunque informada por Bloomberg y corroborada por otras fuentes, no ha sido confirmada oficialmente por Moonshot AI. La integración estratégica de China Mobile en la estructura de capital de la empresa también presenta implicaciones que aún deben ser probadas.

El panorama general de la financiación de IA en China muestra una convergencia de capital estratégico alineado con el estado, grandes brazos de inv ersión de empresas de plataformas y vehículos de capital privado importantes, todos apostando por un selecto grupo de laboratorios de IA de vanguardia. La ronda de Moonshot AI confirma esta tendencia, y la trayectoria de ingresos de su producto Kimi valida su potencial comercial. La pregunta que queda por responder es si el ciclo de financiación de IA en China, en su conjunto, es sostenible a estos múltiplos y si las futuras pruebas en el mercado público mantendrán estas valoraciones.

Fuente Original: https://thenextweb.com/news/moonshot-ai-20bn-valuation-kimi-meituan-china-mobile

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

EU AI Act Tweaked Nudification Ban Extended Deadlines

The European Union has reached a political agreement on amendments to its landmark Artificial Intelligence Act, often referred to as the 'AI Omnibus.' This crucial deal aims to streamline compliance for businesses, particularly smaller ones, and introduces a significant ban on AI systems that generate non-consensual intimate imagery. This compromise follows earlier unsuccessful negotiations, indicating a determined effort to make the AI Act more practical for industry while upholding its core principles.

EU AI Act Tweaked: Nudification Ban & Extended Deadlines

A key takeaway from the deal is the extension of compliance deadlines. Obligations for standalone high-risk AI systems, previously due in August 2026, will now take effect from December 2027. Similarly, rules for AI embedded in regulated products have been pushed back to August 2028. This postponement is attributed to the need for finalised harmonised standards and clearer guidance documents, providing companies with roughly sixteen extra months to prepare. Furthermore, smaller and small mid-cap companies will benefit from extended simplifications, including templated documentation and reduced fees, aiming to scale obligations according to company size rather than imposing a one-size-fits-all approach.

Perhaps the most impactful addition to the AI Act is the explicit prohibition of AI tools designed to create child sexual abuse material or non-consensual intimate images of identifiable individuals. This ban directly addresses concerns raised by public controversies and aims to curb the malicious use of AI for generating harmful content. Companies will have until December 2026 to bring existing products into compliance. While general-purpose AI models with effective safety measures to prevent misuse are carved out, the core intent is to prevent the generation and dissemination of such images. The fundamental architecture of the AI Act, including its risk-based pyramid and foundation model rules, remains unchanged. However, civil society groups have voiced concerns that the simplifications might dilute fundamental rights protections, particularly regarding biometric identification and AI in schools. The package is still subject to formal endorsement by the European Parliament and the Council before its formal adoption.

Fuente Original: https://thenextweb.com/news/eu-ai-act-omnibus-deal-nudification-ban

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

vm2 Fallezs de Nodejs Permiten Ejecucion de Codigo Malicioso

¡Atención desarrolladores de Node.js! Una biblioteca crucial, vm2, ha sido el foco de vulnerabilidades serias que abren la puerta a la ejecución de código arbitrario y a la evasión de entornos seguros (sandbox). Esto significa que atacantes podrían infiltrarse en tus aplicaciones, tomar el control y ejecutar comandos maliciosos, representando un riesgo significativo para la seguridad de tus proyectos.

vm2: Fallezs de Node.js Permiten Ejecución de Código Malicioso

La biblioteca vm2 es utilizada para aislar y ejecutar código de forma segura. Sin embargo, se descubrieron fallos críticos que comprometen precisamente esa seguridad. Los a tacantes pueden explotar estas debilidades para salirse del sandbox, obteniendo así acceso no autorizado a recursos del sistema y ejecutando código no deseado. Esto podría llevar desde el robo de datos hasta la interrupción completa de servicios.

La investigación ha revelado la gravedad de estas vulnerabilidades, destacando la importancia de mantener actualizadas las dependencias y de implementar capas adicionales de seguridad. Los desarrolladores deben estar alerta y aplicar los parches correspondientes cuanto antes para mitigar estos riesgos. Ignorar estas advertencias podría tener consecuencias desastrosas para la integridad y confidencialidad de las aplicaciones construidas con Node.js.

Fuente Original: https://thehackernews.com/2026/05/vm2-nodejs-library-vulnerabilities.html

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Scale AI Gana Contrato de 500M del Pentagono

Scale AI ha conseguido un impresionante contrato de $500 millones con el Departamento de Defensa de Estados Unidos, multiplicando por cinco su acuerdo anterior con el Pentágono. Este contrato representa uno de los mayores compromisos individuales en inteligencia artificial que ha realizado el ejército estadounidense y marca una expansión significativa en la integración de IA en operaciones militares.

Scale AI Gana Contrato de $500M del Pentágono

El nuevo acuerdo fue firmado con la Oficina Principal Digital e Inteligencia Artificial del Pentágono, conocida como CDAO, que se ha convertido en el principal vehículo de adquisición para inversiones en IA militar durante 2025 y 2026. Este contrato es cinco veces mayor que los $100 millones que Scale AI recibió en septiembre de 2025. Según Dan Tadross, director del negocio del sector público de Scale, el Pentágono ya estaba alcanzando los límites del contrato original, lo que justificó esta ampliación sustancial.

Scale AI se une ahora a un grupo selecto de proveedores tecnológicos que han firmado acuerdos importantes con el CDAO. Microsoft, Amazon y Google también firmaron contratos clasificados para uso militar en mayo de 2026. Sin embargo, el rol de Scale AI es estructuralmente diferente: mientras que los gigantes tecnológicos proporcionan infraestructura de nube y modelos, Scale se especializa en la capa de etiquetado de datos y soporte de decisiones que funciona sobre esa infraestructura.

El negocio de defensa ha sido el segmento de más rápido crecimiento para Scale AI. La empresa se ha posicionado estratégicamente para resolver el cuello de botella de calidad de datos que ha limitado la implementación operativa de IA en contextos militares. Los modelos de IA funcionan bien en pruebas, pero tienen dificultades cuando los datos de entrenamiento están fragmentados o mal etiquetados. La propuesta de Scale es precisamente mejorar esa capa de datos para permitir implementaciones confiables.

La compañía, valorada en más de $14 mil millones tras una inversión de Meta en junio de 2024, tiene ahora la capacidad financiera para expandir sus operaciones gubernamentales a la velocidad requerida. Su CEO, Alexandr Wang, se ha convertido en una figura visible en la política de IA estadounidense, testificando regularmente ante el Congreso sobre competitividad en IA militar. Este contrato de $500 millones le da a Scale aproximadamente dos o tres años para consolidar su posición en este mercado en rápida evolución.

Fuente Original: https://thenextweb.com/news/scale-ai-500m-pentagon-defense-contract-cdao

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT