miércoles, 25 de marzo de 2026

IA Amenaza Esta la Cadena de Ataque Obsoleta

El panorama de la ciberseguridad está experimentando una transformación radical con la irrupción de la inteligencia artificial (IA). Tradicionalmente, las defensas se basaban en la comprensión de la 'cadena de ataque' (kill chain), un modelo lineal que describe las fases por las que pasa un atacante para lograr su objetivo. Sin embargo, la llegada de agentes de IA capaces de operar de forma autónoma y adaptativa está volviendo obsoleto este enfoque.

IA Amenaza: ¿Está la Cadena de Ataque Obsoleta?

Cuando un agente de IA se convierte en la amenaza, el concepto de una cadena de ataque predecible se desmorona. Estos agentes pueden aprende r, improvisar y evadir las defensas de maneras que los atacantes humanos no podrían. No siguen pasos lógicos y secuenciales, sino que pueden operar de forma mucho más dinámica, identificando y explotando vulnerabilidades en tiempo real con una velocidad y complejidad sin precedentes. Esto significa que las estrategias de defensa basadas en la interrupción de una fase específica de la cadena de ataque pueden ser ineficaces, ya que el agente de IA podría simplemente saltarse o alterar dichas fases.

La principal implicación es que las organizaciones deben replantearse sus marcos de seguridad. La detección y respuesta a amenazas deben ser más proactivas y menos reactivas, enfocándose en la resiliencia y la capacidad de adaptación. La monitorización continua y la inteligencia sobre el comportamiento anómalo se vuelven cruciales para identificar y neutralizar amenazas impulsadas por IA. Además, la colaboración entre humanos y sistemas de IA en el ámbito de la cibers eguridad será fundamental para contrarrestar estas nuevas formas de ataque, donde la IA no solo es la herramienta, sino también la agente principal de la amenaza. La defensa debe evolucionar para igualar o superar la agilidad y la inteligencia de las amenazas de IA emergentes, lo que exige una revisión profunda de las arquitecturas de seguridad y las estrategias de respuesta.

Fuente Original: https://thehackernews.com/2026/03/the-kill-chain-is-obsolete-when-your-ai.html

Artículo generado mediante LaRebelionBOT

Galtea Secures 32M for Advanced AI Agent Testing

In the rapidly evolving landscape of artificial intelligence, ensuring the reliability and safety of AI agents before they are deployed to the public is becoming a critical challenge. Galtea, a Barcelona-based startup with roots in the Barcelona Supercomputing Center, is stepping up to address this gap. The company has successfully raised $3.2 million in seed funding, bringing their total funding to $4.1 million, to further develop its innovative AI evaluation platform.

Galtea Secures $3.2M for Advanced AI Agent Testing

Galtea's core technology focuses on generating realistic and often adversarial test scenarios. By simulating how real users might interact with AI agents, the platform aims to proactively identify potential failures, biases, security vulnerabilities, and instances of 'hallucination' – where an AI generates factually incorrect information. This automated approach significantly reduces the time, cost, and effort traditionally required for manual testing, which is often incomplete.

The platform provides developers and compliance teams with structured metrics to assess AI models across various risk factors, including hallucination rates, bias, and toxicity. This crucial data empowers organisations to make informed decisions about deploying their AI agents. The recent launch of a self-service tier with a free trial also expands accessibility to a wider range of businesses. The timing of Galtea's growth is particularly relevant, coinciding with the increasing regulatory scrutiny of AI, such as the EU AI Act, which mandates rigorous validation for AI systems in high-risk applications. Galtea's solution directly aids companies in meeting these compliance requirements by providing the necessary evidence of safety and reliability, thereby mitigating the risk of substantial fines.

Fuente Original: https://thenextweb.com/news/galtea-3-2m-ai-evaluation-platform

Artículo generado mediante LaRebelionBOT

ARM Lanza Chip IA Revolucionario con Meta como Cliente Estrella

¡Atención, entusiastas de la tecnología y la inteligencia artificial! ARM, la gigante conocida por licenciar sus diseños, ha dado un paso audaz al presentar su primer chip de centro de datos desarrollado internamente: la AGI CPU. Este nuevo procesador está diseñado específicamente para potenciar cargas de trabajo de IA 'agéntica', un tipo de inteligencia artificial capaz de actuar de forma autónoma en nombre de los usuarios, yendo más allá de las simples respuestas de chatbots.

ARM Lanza Chip IA Revolucionario con Meta como Cliente Estrella

Este lanzamiento marca un momento crucial para ARM, quien hasta ahora basaba sus ingresos principalmente en licencias de propiedad intelectual. La AGI CPU representa una nueva era de desarrollo propio y se fabrica en asociación con Meta, quien se posiciona como su primer cliente impo rtante. Pero eso no es todo, ya que otras grandes compañías como OpenAI, Cloudflare, SAP y SK Telecom también han mostrado interés en este innovador chip.

La AGI CPU promete abordar las crecientes demandas de procesamiento de datos necesarias para estas IA avanzadas. Fabricado por TSMC utilizando su tecnología de 3 nanómetros, el chip consta de dos piezas de silicio distintas que funcionan como una unidad única. ARM planea iniciar la producción en masa en la segunda mitad de este año, y ya han recibido prototipos que cumplen con las expectativas. Además, la compañía está colaborando con fabricantes de servidores como Lenovo y Quanta Computer para ofrecer soluciones completas. El CEO de ARM, Rene Haas, ha destacado la importancia de este lanzamiento, y se esperan más diseños innovadores de la empresa en los próximos 12 a 18 meses.

Fuente Original: https://hardware.slashdot.org/story/26/03/24/1933211/arm-unveils-new-agi-cpu-with-meta-as-debut-customer?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículo generado mediante LaRebelionBOT

Malware Autopropagable Ataca Software de Codigo Abierto

Un nuevo y sofisticado grupo de hackers conocido como TeamPCP ha desatado una campaña masiva en Internet utilizando un malware autopropagable nunca antes visto. Este gusano informático no solo compromete servidores para robar datos y desplegar ransomware, sino que incluye una característica particularmente inquietante: un componente destructor de datos que ataca exclusivamente a máquinas ubicadas en Irán.

Malware Autopropagable Ataca Software de Código Abierto

El grupo ganó notoriedad por primera vez en diciembre de 2024, cuando investigadores de seguridad observaron cómo desplegaba un gusano dirigido a plataformas en la nube mal configuradas. Su objetivo inicial era construir una infraestructura distribuida de proxies y escaneo para después utilizarla en actividades delictivas como exfiltración de datos, extorsión y minería ilegal de criptomonedas. Lo que distingue a TeamPCP es su habilidad excepcional en automatización a gran escala y la integración de técnicas de ataque bien conocidas.

Recientemente, el grupo ejecutó un ataque de cadena de suministro alarmante al comprometer prácticamente todas las versiones del popular escáner de vulnerabilidades Trivy. Los atacantes lograron acceso privilegiado a la cuenta de GitHub de Aqua Security, la empresa creadora de esta herramienta ampliamente utilizada en la comunidad de código abierto. Durante el fin de semana, los investigadores observaron la propagación de un malware potente bautizado como CanisterWorm por la firma de seguridad Aikido, capaz de infectar nuevas máquinas automáticamente sin ninguna interacción humana.

La versión más reciente de CanisterWorm incluye un componente devastador llamado Kamikaze: un wiper o destructor de datos que se activa únicamente en máquinas configuradas para Irán o que utilizan la zona horaria iraní. Cuando estas condiciones se cumplen, el malware deja de robar credenciales y en su lugar procede a eliminar datos del sistema. Aunque aún no hay evidencia de daños reales en máquinas iraníes, los expertos advierten sobre el potencial de impacto masivo si el gusano logra una propagación activa.

Las motivaciones de TeamPCP permanecen en el misterio. Mientras que históricamente el grupo parecía tener objetivos financieros, su reciente comportamiento sugiere que buscan visibilidad y notoriedad. Al atacar herramientas de seguridad y proyectos de código abierto prominentes, incluido Checkmarx, están enviando una señal clara y deliberada a la comunidad de ciberseguridad. Los investigadores especulan que podría haber un componente ideológico, o simplemente un intento calculado de atraer atención mediática hacia sus operaciones.

Fuente Original: https://news.slashdot.org/story/26/03/24/1638228/self-propagating-malware-poisons-open-source-software-wipes-iran-based-machines?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículo generado mediante LaRebelionBOT

Cloudflares Dynamic Workers Run AI Agents 100x Faster

Cloudflare has launched Dynamic Workers in open beta, a revolutionary sandboxing system designed to transform how enterprises deploy AI agents. This lightweight, isolate-based technology starts in milliseconds, consumes only a few megabytes of memory, and can execute on the same machine—even the same thread—as the request that initiated it. Compared to traditional Linux containers, Dynamic Workers are approximately 100 times faster to start and between 10 to 100 times more memory efficient, representing a significant leap in AI infrastructure performance.

Cloudflare's Dynamic Workers Run AI Agents 100x Faster

The technology builds upon Cloudflare's broader "Code Mode" philosophy, which proposes that large language models perform better when given an API and asked to write code against it, rather than being forced through sequential tool calls. By converting an MCP server into a TypeScript API, Cloudflare reports an 81% reduction in token usage. Dynamic Workers serve as the secure execution layer that makes this approach practical at scale, potentially reshaping the economics and safety of AI agent runtimes.

This release represents Cloudflare's strategic bet on making sandboxing itself a crucial layer in the AI stack. As AI agents increasingly generate small code snippets on the fly to retrieve data, transform files, or automate workflows, the runtime's economics and safety become nearly as important as the model's capabilities. Whilst containers and microVMs remain useful for persistent workloads, Cloudflare argues they're too heavy for a future where millions of users may each have multiple agents constantly writing and executing code.

Security remains paramount in this approach. Cloudflare acknowledges that hardening an isolate-based sandbox is more challenging than relying on hardware virtual machines, with V8 security bugs being more common than hypervisor vulnerabilities. However, the company leverages nearly a decade of experience securing its Workers platform, including automatic V8 security patch deployment within hours, custom second-layer sandboxing, dynamic tenant cordoning based on risk profiles, and extensions using hardware features like Memory Protection Keys. This comprehensive security model now extends to Dynamic Workers, making ultra-fast software sandboxing safe enough for AI-generated code.

The platform includes practical enterprise features such as globalOutbound, which allows developers to intercept every outbound HTTP request from a Dynamic Worker. This enables credential injection without exposing raw secrets to generated code, providing crucial blast-radius control for enterprise environments. Cloudflare has also shipped a complete toolkit including the @cloudflare/codemode package for simplified execution, @cloudflare/worker-bundler for dependency management, and @cloudflare/shell for virtual filesystem operations backed by SQLite and R2 storage.

Community reaction has been mixed yet enthusiastic. Whilst supporters praise Cloudflare for reinventing sandboxes to be lightweight and ridiculously fast, critics note the system works best when agents write JavaScript, potentially limiting adoption amongst teams preferring other languages. Cloudflare's pragmatic response is that AI models have no language loyalty and will write whatever language is requested, with JavaScript being naturally suited to sandboxed web execution. The platform is now available to all users on the Workers Paid plan, with Dynamic Workers priced at $0.002 per unique Worker loaded daily, though this fee is waived during the beta period.

Fuente Original: https://venturebeat.com/infrastructure/cloudflares-new-dynamic-workers-ditch-containers-to-run-ai-agent-code-100x

Artículo generado mediante LaRebelionBOT

Wine 11 Revolutionises Linux Gaming Performance

Linux gaming has just received a monumental upgrade with the release of Wine 11, which introduces NTSYNC support—a groundbreaking feature that fundamentally rewrites how Windows games run on Linux systems. This isn't just another incremental update; it represents one of Wine's most significant advancements in recent years, delivering performance improvements that range from noticeable to absolutely extraordinary.

Wine 11 Revolutionises Linux Gaming Performance

The NTSYNC feature tackles synchronisation at the kernel level, addressing one of the most performance-sensitive operations in modern gaming. The results speak for themselves: developer benchmarks show Dirt 3 jumping from 110.6 FPS to an astonishing 860.7 FPS—a staggering 678% improvement. Resident Evil 2 nearly tripled its frame rate, climbing from 26 FPS to 77 FPS, whilst Call of Juarez more than doubled from 99.8 FPS to 224.1 FPS. Tiny Tina's Wonderlands saw gains from 130 FPS to 360 FPS, and Call of Duty: Black Ops I has become genuinely playable on Linux for the first time.

What makes NTSYNC particularly revolutionary is its integration into the mainline Linux kernel, meaning users no longer need custom patches or out-of-tree modules. Any distribution shipping kernel 6.14 or later—including Fedora 42 and Ubuntu 25.04—will support it automatically. Valve has already incorporated the NTSYNC kernel driver into SteamOS 3.7.20 beta, and when Proton officially rebases on Wine 11, every Steam Deck owner will benefit automatically.

The games seeing the most dramatic improvements are those with heavy multi-threaded workloads, where synchronisation overhead previously created genuine bottlenecks. Whilst gamers currently using fsync won't see quite the same dramatic leaps, NTSYNC represents a fundamental shift: it's the first time Wine's synchronisation has been correctly implemented at the kernel level and made available to everyone without technical hurdles. Combined with improvements to Wayland support, graphics handling, and a major WoW64 architecture overhaul, Wine 11 marks a transformative moment for Linux gaming.

Fuente Original: https://tech.slashdot.org/story/26/03/24/1946246/wine-11-rewrites-how-linux-runs-windows-games-at-the-kernel-level?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículo generado mediante LaRebelionBOT

martes, 24 de marzo de 2026

Dash0 Unicorn Status AI Fixes Production Problems

Dash0, a New York and Berlin-based tech startup, has achieved unicorn status by securing a substantial $110 million in Series B funding. This funding round, led by Balderton Capital with participation from Accel, Cherry, and DTCP Growth, alongside strategic partners T.Capital and July Fund, values the company at a remarkable $1 billion. This significant investment underscores the growing importance of the observability sector, particularly as it integrates with the advancements of the AI era.

Dash0 Unicorn Status: AI Fixes Production Problems

Founded by the experienced team behind Instana, Dash0 differentiates itself by being natively built on OpenTelemetry, the open-source framework for standardising telemetry data. This approach aims to eliminate vendor lock-in and provide predictable, data-volume-based pricing, contrasting with the more complex models of competitors like Datadog. In less than two years, Dash0 has already amassed over 600 paying customers, including notable names like Zalando, Taco Bell, and The Telegraph. This rapid growth, more than doubling its customer base since its $35 million Series A in October 2025, also includes the recent acquisition of Lumigo, a serverless observability platform.

The core of Dash0's future development, fueled by this new funding, is Agent0. This innovative AI layer is designed not merely to detect production issues but to autonomously resolve them. Agent0 will encompass specialised AI agents capable of performing root-cause analysis, automatic dashboard and alert creation, deployment validation, cost optimisation, security anomaly detection, and assisting with migrations from legacy systems. The ultimate vision is to create an autonomous operations layer, enabling infrastructure to manage itself, thus reducing reliance on human intervention for routine operational tasks. This focus on agentic AI, software that takes proactive action, positions Dash0 as a key player in the evolving landscape of AI-driven infrastructure management.

Fuente Original: https://thenextweb.com/news/dash0-110m-series-b-observability-unicorn

Artículo generado mediante LaRebelionBOT

Nvidia Revoluciona IA con Modelo Compacto Ultrapoderoso

Nvidia ha desafiado la creencia dominante en el desarrollo de inteligencia artificial de que los modelos más grandes siempre producen mejores resultados. Su nuevo modelo Nemotron-Cascade 2 demuestra que la eficiencia y el entrenamiento especializado pueden superar al tamaño bruto. Este modelo de código abierto utiliza solo 3 mil millones de parámetros activos, pero logró medallas de oro en tres de las competiciones más exigentes del mundo: la Olimpiada Internacional de Matemáticas 2025, la Olimpiada Internacional de Informática y las Finales Mundiales ICPC. Lo más revolucionario no es solo el modelo en sí, sino su receta de entrenamiento posterior llamada Cascade RL, ahora disponible como código abierto para equipos empresariales.

Nvidia Revoluciona IA con Modelo Compacto Ultrapoderoso

La ventaja competitiva real está en el post-entrenamiento, no en el pre-entrenamiento desde cero, que puede costar cientos de millones de dólares. Nemotron-Cascade 2 parte del mismo modelo base que Nemotron-3-Nano de Nvidia, pero lo supera en casi todos los puntos de referencia gracias exclusivamente a su pipeline de post-entrenamiento. Incluso supera al Nemotron-3-Super de Nvidia, que tiene cuatro veces más parámetros activos. Este hallazgo es crucial para empresas: no necesitan modelos más grandes o costosos, sino mejores técnicas de entrenamiento aplicadas a los modelos existentes.

Cascade RL resuelve el problema del "olvido catastrófico" entrenando dominios de manera secuencial en lugar de simultánea. El modelo pasa por etapas específicas: primero seguimiento de instrucciones, luego RL multidominio cubriendo preguntas STEM y llamadas a herramientas, después destilación on-policy, alineación de preferencias humanas, RL de contexto largo, RL de código y finalmente RL de ingeniería de software. Esta secuencia permite que cada etapa se optimice para su dominio específico sin degradar el rendimiento en otros dominios, logrando mejor utilización computacional.

La técnica MOPD (Multi-Domain On-Policy Distillation) complementa Cascade RL al reutilizar puntos de control intermedios del mismo entrenamiento como "maestros" para dominios específicos. En lugar de depender de modelos externos costosos, MOPD selecciona la mejor versión del modelo en cada etapa para diferentes capacidades y destila ese conocimiento de vuelta al modelo estudiante. Esta técnica a nivel de token es significativamente más eficiente que el aprendizaje por refuerzo tradicional, recuperando el rendimiento del maestro en solo 30 pasos de optimización en algunos benchmarks, comparado con más de 160 pasos para métodos convencionales.

Los resultados en benchmarks de razonamiento son impresionantes. En LiveCodeBench v6, Nemotron-Cascade 2 obtuvo 87.2 puntos, superando a modelos mucho más grandes como Qwen3.5-397B. En HMMT February 2025, alcanzó 94.6 puntos, compitiendo con modelos de cientos de miles de millones de parámetros. Con razonamiento integrado de herramientas, su rendimiento en AIME 2025 llegó a 98.6. Sin embargo, Nvidia reconoce honestamente las debilidades del modelo: tiene rendimiento inferior en benchmarks intensivos en conocimiento como MMLU-Pro y en algunas tareas agénticas complejas. Está optimizado para razonamiento profundo y seguimiento de instrucciones, no para recuperación general de conocimiento.

Para equipos empresariales, este enfoque ofrece patrones de diseño directamente aplicables. El ordenamiento secuencial de dominios permite agregar nuevas capacidades sin reconstruir todo el pipeline. MOPD elimina la necesidad de modelos maestros externos costosos. El modelo con solo 3 mil millones de parámetros activos puede desplegarse a una fracción del costo y latencia de modelos densos de 70 mil millones de parámetros, ofreciendo un camino viable para implementar capacidades avanzadas de razonamiento sin infraestructura de nivel frontera. Esta tendencia hacia la "densidad de inteligencia" representa el futuro de los modelos de IA empresariales, especialmente para tareas estructuradas como modelado financiero, computación científica e ingeniería de software.

Fuente Original: https://venturebeat.com/orchestration/nvidias-nemotron-cascade-2-wins-math-and-coding-gold-medals-with-3b-active

Artículo generado mediante LaRebelionBOT

lunes, 23 de marzo de 2026

Ocho Peligros Ocultos en AWS Bedrock Descubre Vulnerabilidades

En el dinámico mundo de la inteligencia artificial, la seguridad de las plataformas es primordial. Recientemente, se han identificado ocho vectores de ataque significativos dentro de AWS Bedrock, una plataforma de IA conversacional. Estos hallazgos revelan cómo los actores maliciosos podrían explotar estas vulnerabilidades para comprometer la información y la funcionalidad de las aplicaciones basadas en esta tecnología.

Ocho Peligros Ocultos en AWS Bedrock: ¡Descubre Vulnerabilidades!

El informe detalla cómo estas brechas de seguridad pueden ser explotadas de diversas maneras, desde la inyección de código malicioso hasta el acceso no autorizado a datos sensibles. Los atacantes podrían manipular las respuestas de los modelos de lenguaje, filtrar información confidencial o incluso utilizar la plataforma para lanzar ataques de denegación de servicio. La gravedad de estas vulnerabilidades radica en su potencial para impactar la confianza y la integridad de los servicios de IA, afectando tanto a desarrolladores como a usuarios finales.

Los investigadores han destacado la importancia de una rápida mitigación y la necesidad de que los proveedores de servicios en la nube fortalezcan sus medidas de seguridad. La comprensión de estos vectores de ataque es el primer paso crucial para construir sistemas de IA más robustos y seguros, protegiendo así la información y la experiencia del usuario en la era de la inteligencia artificial.

Fuente Original: https://thehackernews.com/2026/03/we-found-eight-a ttack-vectors-inside.html

Artículo generado mediante LaRebelionBOT

AI and Source Code Evolution or Extinction

The advent of Artificial Intelligence is sparking a profound debate about the future of source code. Experts are questioning whether AI will lead to the evolution of programming languages, potentially creating new ones optimised solely for machine efficiency, or if it might even render traditional source code obsolete.

AI and Source Code: Evolution or Extinction?

The core of this discussion revolves around the idea of AI generating code directly from prompts, bypassing human-readable high-level languages. This could lead to 'inscrutable black boxes' of code, where human developers might transition from writing code to refining prompts and regenerating software. While this approach could maintain modularity and testability, it raises significant questions about the role of programmers in a future without easily maintainable source c ode. The ultimate goal might be to move from prompt to an intermediate language that compilers or interpreters can directly utilise, questioning the necessity of high-level languages altogether.

Stephen Cass, a prominent voice in this conversation, acknowledges the potential downsides but also hypothesizes that programmers might still play a crucial role in defining interfaces, selecting algorithms, and making architectural decisions. The generated code would still need to pass tests and be able to explain its functionality. However, the question remains about which abstractions could disappear and what happens when AI is fully unleashed in code generation. It's not an immediate threat, but research into AI-first languages is emerging, with projects like Chris Lattner's Mojo being seen as a step towards an 'AI world' programming language, designed to leverage modern hardware capabilities.

Fuente Original: https://developers.slashdot.org/story/26/03/23/0222218/will-ai-force-source-code-to-evolve---or-make-it-extinct?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículo generado mediante LaRebelionBOT

Hack de Trivy Propaga Malware via Docker

Una sofisticada campaña de ciberataque ha sido descubierta utilizando la popular herramienta de seguridad Trivy como vector de infección. Los atacantes han comprometido esta solución de escaneo de vulnerabilidades para distribuir un peligroso infostealer a través de contenedores Docker, desencadenando además un gusano informático y un destructivo wiper diseñado específicamente para entornos Kubernetes.

Hack de Trivy Propaga Malware vía Docker

Este incidente representa una amenaza significativa para la comunidad de DevOps y profesionales de la seguridad que confían en Trivy para proteger sus infraestructuras containerizadas. El método de ataque es particularmente insidioso porque explota una herramienta ampliamente utilizada para la seguridad, convirtiéndola en el medio de propagación del malware. Los atacantes han demostrado un profundo conocimiento de los ecosistemas de contenedores modernos y las prácticas de desarrollo actuales.

El infostealer desplegado mediante esta técnica tiene capacidades para robar credenciales, tokens de acceso y otra información sensible de los sistemas comprometidos. Pero la amenaza no termina ahí: el componente de gusano permite que el malware se propague lateralmente a través de la red, mientras que el wiper de Kubernetes puede causar daños devastadores al eliminar datos críticos de los clústeres afectados. Esta combinación triple de amenazas convierte este ataque en uno particularmente peligroso para organizaciones que operan infraestructuras cloud-native.

Los expertos en seguridad recomiendan a los equipos de TI verificar la integridad de sus instalaciones de Trivy, implementar controles estrictos de seguridad en sus pipelines de CI/CD, y monitorear activamente cualquier actividad sospechosa en sus entornos Docker y Kubernetes. Es fundamental mantener actualizadas todas las herramientas de seguridad y aplicar el principio de mínimo privilegio en los contenedores para mitigar este tipo de ataques.

Fuente Original: https://thehackernews.com/2026/03/trivy-hack-spreads-infostealer-via.html

Artículo generado mediante LaRebelionBOT

Critical KACE SMA Vulnerability Exploited by Hackers

A critical security vulnerability in Quest KACE Systems Management Appliance (SMA) is being actively exploited by cybercriminals, posing a severe threat to organisations using unpatched systems. The vulnerability, designated as CVE-2025-32975, has been assigned the maximum severity score of 10.0 on the CVSS scale, indicating an extremely dangerous security flaw that requires immediate attention from IT security teams worldwide.

Critical KACE SMA Vulnerability Exploited by Hackers

The KACE SMA platform is widely used by enterprises for systems management, asset tracking, and software deployment across their IT infrastructure. This makes it a particularly attractive target for threat actors seeking to gain unauthorised access to corporate networks. When successfully exploited, this vulnerability allows attackers to completely hijack affected systems, potentially giving them full control over the appliance and access to sensitive organisational data.

Security researchers have confirmed that threat actors are already scanning for and targeting vulnerable KACE SMA installations in the wild. The exploitation attempts demonstrate that attackers are moving quickly to capitalise on this critical flaw before organisations can implement necessary patches. The severity of this vulnerability underscores the importance of maintaining up-to-date security patches and following vendor security advisories promptly.

Organisations running Quest KACE SMA systems are strongly advised to apply security updates immediately and review their systems for any signs of compromise. IT administrators should prioritise patching these appliances and consider implementing additional network segmentation and monitoring to detect potential exploitation attempts. The incident serves as a stark reminder of the critical importance of proactive vulnerability management and the need for organisations to maintain robust security postures in an increasingly hostile cyber threat landscape.

Fuente Original: https://thehackernews.com/2026/03/hackers-exploit-cve-2025-32975-cvss-100.html

Artículo generado mediante LaRebelionBOT

domingo, 22 de marzo de 2026

IA Leyes Estatales Ninos y Copyright Bajo Foco

La Casa Blanca ha presentado un marco integral para la inteligencia artificial (IA) que busca abordar áreas críticas como las leyes estatales, la seguridad infantil y los derechos de autor. Este marco pionero tiene como objetivo establecer directrices claras y promover un desarrollo responsable de la IA en Estados Unidos.

IA: Leyes Estatales, Niños y Copyright Bajo Foco

Uno de los pilares fundamentales de esta iniciativa es la alineación de las regulaciones de IA con las leyes estatales existentes. La Casa Blanca reconoce la complejidad de un panorama legal fragmentado y busca crear un puente entre las normativas federales y las de los estados para evitar conflictos y fomentar la coherencia. Esto permitirá a los estados abordar las preocupaciones específicas de sus jurisdicciones mientras se mantiene un estándar nacional.

La protección de la seguridad infantil es otra prioridad clave. El marco de la IA se enfocará en la identificación y mitigación de riesgos que puedan afectar a los menores, especialmente en lo que respecta a contenido dañino, recopilación de datos y el uso de IA en plataformas y servicios dirigidos a niños. Se espera que esto impulse el desarrollo de tecnologías de IA más seguras y con salvaguardias robustas.

Asimismo, los derechos de autor ocupan un lugar central en esta nueva estrategia. Ante el auge de la IA generativa, surge la necesidad de clarificar cómo se abordará la propiedad intelectual del contenido creado por sistemas de IA, así como el uso de material protegido por derechos de autor en el entrenamiento de estos modelos. El objetivo es encontrar un equilibrio que fomente la innovación sin socavar los derechos de los creadores.

En resumen, este marco de la Casa Blanca representa un esfuerzo significativo para guiar el futuro de la IA, aseguran do que su desarrollo y aplicación se realicen de manera ética, segura y en consonancia con los marcos legales y sociales existentes. Se espera que esta hoja de ruta impulse un debate constructivo y promueva la colaboración entre el gobierno, la industria y la sociedad civil para enfrentar los desafíos y maximizar los beneficios de la inteligencia artificial.

Fuente Original: https://news.google.com/rss/articles/CBMikgFBVV95cUxQaEIxR0FQSF9UeXc1T3FITllyVkdEOGJ2R2xOUWNLa2FrY3QyOE1STnNLQld5dW5PR0R5OE9SNFMwbEY2cXBSZGNUMExWd2t0Y2dlOVpzVF9WN2cwTHFRLVVkYjlnYldMVXYza25yNncwdlo3M2tTQXhGZDhyTnVZRVNjLVJqM2tNWEl4LVVMbW82dw?oc=5

Artículo generado mediante LaRebelionBOT

Oracle RCE Alert Critical Identity Manager Flaw Patched Urgently

Oracle has issued an out-of-band security update to address a critical vulnerability, identified as CVE-2026-21992, which carries a CVSS v3.1 score of 9.8. This severe flaw allows for remote code execution (RCE) without requiring any authentication, posing a significant threat to systems. The vulnerability is particularly concerning as it can be exploited remotely over HTTP with low complexity and without any user interaction. This means that any deployed systems accessible from the internet are at a considerably heightened risk of compromise.

Oracle RCE Alert: Critical Identity Manager Flaw Patched Urgently!

The affected products are Oracle Identity Manager and Oracle Web Services Manager, specifically versions 12.2.1.4.0 a nd 14.1.2.1.0. These components are fundamental in managing user identities, authentication, access control, and service orchestration. A successful exploitation of this RCE flaw could lead to a cascade of negative consequences, ranging from complete control over the compromised server to the manipulation of critical processes like account management, credential handling, and the alteration of policies across numerous corporate applications.

The combination of remote, unauthenticated access over HTTP creates a highly sensitive attack window. If these services are exposed and not properly patched, attackers can easily automate exploitation attempts at scale. Oracle strongly advises applying the recommended updates or mitigations from their Security Alert with the utmost urgency, especially for systems directly exposed to the internet or located in high-traffic zones like DMZs or shared networks. It's important to note that Oracle provides fixes for versions under Premier Suppor t or Extended Support. Organisations running older, unsupported versions may not receive an official patch, leaving them vulnerable. Therefore, a rapid inventory of Oracle Identity Manager and Oracle Web Services Manager instances, verification of exact versions, and immediate planning for updates are crucial steps.

While Oracle has not confirmed any active exploitation at this time, given the severity of a critical RCE in identity management software, it should be treated as an operational emergency. The recommended course of action is to patch or apply mitigations immediately, reduce HTTP exposure wherever feasible, and enhance monitoring for any signs of compromise on affected systems while the fix is being deployed. Organisations should also verify their support status for these Oracle products to ensure they are eligible for the provided fixes.

Fuente Original: https://unaaldia.hispasec.com/2026/03/oracle-lanza-un-parche-urgente-por-una-rce-critica-sin-autenticacion-en-identity-manager.html?utm_source=rss&utm_medium=rss&utm_campaign=oracle-lanza-un-parche-urgente-por-una-rce-critica-sin-autenticacion-en-identity-manager

Artículo generado mediante LaRebelionBOT