miércoles, 6 de mayo de 2026

Grave Fallo CopyFail Amenaza Sistemas Linux Globalmente

Una vulnerabilidad de seguridad crítica está sacudiendo el mundo de la tecnología al afectar prácticamente todas las versiones del sistema operativo Linux. El fallo, bautizado como "CopyFail", ha tomado por sorpresa a expertos en ciberseguridad y ha desencadenado una carrera contrarreloj para implementar parches de seguridad en millones de sistemas vulnerables alrededor del mundo.

Grave Fallo CopyFail Amenaza Sistemas Linux Globalmente

Lo más alarmante de esta situación es que investigadores de seguridad han publicado código de explotación que permite a los atacantes tomar control completo de los sistemas afectados. Según informes de TechCrunch, el gobierno de Estados Unidos ha confirmado que esta vulnerabilidad ya está siendo explotada activamente en campañas de hackeo malicioso en el entorno real, lo que eleva significativamente el nivel de amenaza para organizaciones y usuarios.

La magnitud del problema ha llevado a la agencia de ciberseguridad estadounidense CISA a tomar medidas urgentes. Reconociendo el riesgo sustancial que representa para la red empresarial federal, CISA ha emitido una orden obligatoria para que todas las agencias federales civiles implementen los parches de seguridad necesarios en sus sistemas afectados antes del 15 de mayo. Esta fecha límite subraya la gravedad de la situación y la necesidad de actuar con rapidez.

Los defensores de ciberseguridad en todo el mundo están trabajando intensamente para proteger infraestructuras críticas y sistemas empresariales que dependen de Linux, uno de los sistemas operativos más utilizados en servidores, dispositivos IoT y entornos empresariales. La amplia adopción de Linux en infraestructuras tecnológicas globales hace que esta vulnerabilidad sea particularmente preocupante, ya que millones de dispositivos y servidores podrían estar en riesgo si no se toman las medidas correctivas apropiadas de inmediato.

Fuente Original: https://linux.slashdot.org/story/26/05/05/1535209/us-government-warns-of-severe-copyfail-bug-affecting-major-versions-of-linux?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Miami Startup Claims Revolutionary 1000x AI Efficiency Breakthrough

A Miami-based startup called Subquadratic has emerged from stealth mode with an extraordinary claim that's dividing the AI research community: they've built the first large language model to completely overcome the mathematical limitation that has constrained every major AI system since 2017. The company asserts its SubQ 1M-Preview model operates on a fully subquadratic architecture, where computational demands grow linearly rather than quadratically with context length. If validated independently, this would represent a genuine paradigm shift in how AI systems scale, with the company claiming nearly 1,000 times reduced attention compute compared to frontier models at 12 million tokens.

Miami Startup Claims Revolutionary 1,000x AI Efficiency Breakthrough

The startup has launched three products into private beta—an API with full context window access, a coding agent called SubQ Code, and a search tool named SubQ Search—whilst securing $29 million in seed funding at a reported $500 million valuation. Investors include Tinder co-founder Justin Mateen, former SoftBank Vision Fund partner Javier Villamizar, and early backers of Anthropic, OpenAI, Stripe, and Brex. The company's approach, called Subquadratic Sparse Attention (SSA), tackles the fundamental problem plaguing transformer-based models: quadratic scaling, where doubling input size quadruples computational cost rather than merely doubling it.

Subquadratic's solution is conceptually straightforward but technically ambitious: eliminate unnecessary computations by learning which token-to-token comparisons actually matter. Rather than comparing every token against every other token—the standard transformer approach—SSA identifies and computes only meaningful comparisons based on content, not fixed positional patterns. The company reports achieving a 7.2x prefill speedup over dense attention at 128,000 tokens, scaling to 52.2x at 1 million tokens. This represents the inverse of the traditional problem: efficiency gains that increase with context length rather than degrading.

The benchmark results Subquadratic has published are impressive but selective. On SWE-Bench Verified, SubQ scored 81.8% versus Claude Opus 4.6's 80.8%. On RULER at 128,000 tokens, it achieved 95% compared to Claude Opus 4.6's 94.8%. Most strikingly, on MRCR v2—a demanding multi-hop retrieval test—SubQ posted 65.9% versus Claude Opus 4.7's 32.2% and Gemini 3.1 Pro's 26.3%. However, the company has released only three benchmarks, all emphasising long-context retrieval and coding tasks where its architecture should excel. Broader evaluations covering general reasoning, mathematics, multilingual performance, and safety remain unpublished, with a comprehensive model card described as "coming soon".

The AI research community's response has ranged from cautious optimism to outright scepticism. AI commentator Dan McAteer framed the binary choice starkly: "SubQ is either the biggest breakthrough since the Transformer... or it's AI Theranos." Critics have noted that each benchmark was run only once due to high inference costs, leaving room for variance. There's also a puzzling 17-point gap between SubQ's research score of 83 on MRCR v2 and its third-party verified production score of 65.9. CTO Alexander Whedon has confirmed the company builds upon open-source model weights from projects like Kimi or DeepSeek—a pragmatic approach given limited funding, but one that raises questions about what's genuinely novel versus what's clever fine-tuning.

The scepticism isn't without precedent. Magic.dev announced a 100-million-token context window model with similar 1,000x efficiency claims in August 2024, raising roughly $500 million—yet as of early 2026, there's no public evidence of widespread deployment. Multiple previous attempts at subquadratic scaling—including Kimi Linear, DeepSeek Sparse Attention, Mamba, and RWKV—have either underperformed quadratic attention on downstream benchmarks or ended up as hybrid architectures that sacrifice pure scaling benefits. A widely cited analysis dismissed such approaches as merely "incremental improvement number 93595 to the transformer architecture" because practical implementations remain fundamentally quadratic.

What makes Subquadratic's claim worth watching is both the team's credibility and the fundamental importance of the problem they're addressing. CEO Justin Dangel is a five-time founder with exits across multiple sectors, whilst CTO Alexander Whedon brings experience from Meta and enterprise AI implementations. The 11-person team includes PhDs from Meta, Google, Oxford, Cambridge, ByteDance, and Adobe. However, neither co-founder has published foundational AI research, and no peer-reviewed paper has been released. The real question isn't whether the benchmarks look good—it's whether the underlying mathematics survive rigorous independent scrutiny. If Subquadratic has genuinely solved linear-scaling attention without quality degradation, the implications are transformative: enterprise applications requiring elaborate retrieval pipelines could become single-pass operations, and billions spent on RAG infrastructure could become partially redundant.

The industry standard context window is 128,000 tokens for most models and up to 1 million for frontier systems like Claude Sonnet 4.7 and Gemini 3.1 Pro. Yet there remains a critical gap between nominal context windows and functional ones—between what models accept and what they reliably reason over. Subquadratic claims to have closed that gap. Independent evaluation will determine whether this represents a genuine breakthrough or simply another sophisticated description of an unsolved problem. In computing history, fundamental constraints do eventually fall—but they rarely fall in the direction the industry expects. Whether a team of 11 researchers with $29 million has found what's eluded organisations spending billions remains the central question hanging over this announcement.

Fuente Original: https://venturebeat.com/technology/miami-startup-subquadratic-claims-1-000x-ai-efficiency-gain-with-subq-model-researchers-demand-independent-proof

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

martes, 5 de mayo de 2026

Puerta Trasera Oculta Tu Seguridad Ignora Brecha

En el mundo de la ciberseguridad, existe una amenaza silenciosa y persistente que los atacantes conocen muy bien, pero que, sorprendentemente, la mayoría de los equipos de seguridad aún no han logrado sellar: las puertas traseras.

Puerta Trasera Oculta: ¡Tu Seguridad Ignora Brecha!

Estas brechas de seguridad, a menudo invisibles para las defensas tradicionales, permiten a los actores maliciosos acceder a sistemas y datos sensibles sin ser detectados. El artículo se centra en la naturaleza esquiva de estas puertas traseras y en por qué siguen siendo un punto débil crítico en la estrategia de muchas organizaciones. A diferencia de ot ros tipos de malware o ataques más obvios, las puertas traseras se integran de forma sutil en la infraestructura, aprovechando a menudo vulnerabilidades existentes, configuraciones incorrectas o incluso credenciales comprometidas. Una vez establecidas, ofrecen un punto de entrada persistente que puede ser explotado repetidamente.

La dificultad para detectarlas radica en que no siempre generan las señales de alerta típicas de una intrusión. Los atacantes que utilizan puertas traseras buscan mantener un perfil bajo, operando desde las sombras y minimizando su huella digital. Esto puede deberse a que están realizando actividades de espionaje a largo plazo, preparando un ataque futuro más devastador o simplemente manteniendo una opción de acceso para cuando sea necesario. La falta de visibilidad y la complejidad de la infraestructura tecnológica moderna son factores clave que permiten que estas puertas traseras permanezcan abiertas durante períodos prolongados. La soluci� �n no es simple y requiere un enfoque multifacético que incluya una monitorización constante, auditorías de seguridad rigurosas y la adopción de prácticas de desarrollo seguro. En esencia, el artículo subraya la urgencia de que las organizaciones tomen conciencia de esta amenaza y fortalezcan sus defensas para cerrar estas puertas traseras antes de que sea demasiado tarde.

Fuente Original: https://thehackernews.com/2026/05/the-back_door_attackers_know_about_and.html

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

AI Agents Microsoft Google Drive Enterprise Governance

The integration of Artificial Intelligence (AI) agents into enterprise IT is rapidly becoming a mainstream concern, with major players like Microsoft and Google actively pushing for robust governance frameworks. As businesses increasingly adopt AI technologies, the need to manage and control these agents effectively has come to the forefront. This shift signifies a move from experimental AI adoption to a more structured and regulated approach within corporate IT departments.

AI Agents: Microsoft & Google Drive Enterprise Governance

Both Microsoft and Google are recognising that for AI agents to be safely and successfully deployed within organisations, clear guidelines and policies are essential. This involves addressing critical areas such as data privacy, security, ethical considerations, and operational oversight. The goal is to ensure that AI agents operate transparently, reliably, and in alignment with business objectives and regulatory requirements. The article highlights how these tech giants are instrumental in shaping the enterprise's understanding and implementation of AI agent governance, moving it from a niche topic to a core IT imperative.

The focus is on establishing best practices and tools that allow IT leaders to oversee AI agent deployment, monitor their performance, and mitigate potential risks. This proactive approach is vital for fostering trust in AI systems and enabling their widespread, responsible adoption across various business functions. The push by Microsoft and Google aims to equip businesses with the necessary infrastructure and strategies to navigate the complexities of AI governance, ensuring that AI integration is both innovative and secure.

Fuente Original: https://news.google.com/rss/articles/CBMivwFBVV95cUxPU1RFUkh3SXYycVFsbmJvbS1CWHZDU0VLLXN0NnNaMkJYTTV3amQyeDZzMGlDSDU5UHRHM2wwWkJrekRHVXZmNXVhdmlfOThjMlZrdG9mcUhYVVdqREZyRVVHTUJFY1dIRW5GVjBDa2lNakJ0anpuUk5jdHkybTZRc1E5UFp0aFJWY3RhX29admw0dlZDb0tIVnA3T09yVDNoX1UweFI0R0RoUUd6NHFKRWtDSGVMdGtWOFljdFVVWQ?oc=5

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

CPanel Ransomware Alerta Bypass Critico Ataca Servidores Linux

Una vulnerabilidad crítica en cPanel y WHM, identificada como CVE-2026-41940, está siendo explotada masivamente a nivel global. Este fallo permite una elusión de la autenticación (bypass) que facilita a los atacantes tomar el control de servidores Linux expuestos a Internet. Una vez dentro, los ciberdelincuentes despliegan el ransomware "Sorry", que cifra los archivos y exige un rescate.

CPanel Ransomware: ¡Alerta! Bypass Crítico Ataca Servidores Linux

El vector de ataque aprovecha una inyección CRLF durante el proceso de login para manipular los archivos de sesión. Esto permite a los atacantes crear una sesión privilegiada con acceso de root, obviando los mecanismos de seguridad habituales. Se han detectado decenas de miles d e direcciones IP involucradas en oleadas de escaneo y explotación, lo que indica una amenaza de gran alcance y urgencia.

El ransomware "Sorry", desarrollado en Go, cifra los ficheros de los servidores afectados, añadiendo la extensión ".sorry" y dejando una nota de rescate llamada "README.md". La recuperación de los datos sin la clave privada correspondiente es prácticamente imposible, ya que utiliza criptografía robusta como ChaCha20 y RSA-2048. La comunicación con las víctimas se realiza a través de Tox.

Ante esta situación, es crucial aplicar el parche de emergencia de cPanel y WHM de inmediato. Sin embargo, los expertos advierten que aplicar el parche no es suficiente si el servidor ya ha sido comprometido. Se recomienda tratar los sistemas expuestos como potencialmente infectados, revisar indicadores como la presencia de archivos ".sorry" o "README.md", y realizar análisis forenses. Medidas adicionales incluyen la rotación de credenciales, la validación de copias de seguridad offline, la limitación del acceso a los puertos de cPanel mediante listas blancas, y la configuración de firewalls y WAFs.

La explotación activa de esta vulnerabilidad ha llevado a su inclusión en el catálogo de "Known Exploited Vulnerabilities" de CISA, reforzando la necesidad de una respuesta rápida y contundente por parte de los administradores de sistemas para proteger sus servidores y datos.

Fuente Original: https://unaaldia.hispasec.com/2026/05/explotacion-masiva-de-un-bypass-critico-en-cpanel-facilita-el-ransomware-sorry-en-servidores-linux.html?utm_source=rss&utm_medium=rss&utm_campaign=explotacio n-masiva-de-un-bypass-critico-en-cpanel-facilita-el-ransomware-sorry-en-servidores-linux

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

AMD Trae HDMI 21 a Linux Steam Machine Celebra

AMD finalmente está avanzando en la incorporación de soporte completo para HDMI 2.1 en sus controladores de Linux, una noticia extraordinaria para los usuarios de Steam Machine y la comunidad de jugadores en Linux. Durante años, las complejidades de las licencias HDMI y el desarrollo de controladores de código abierto habían impedido que estos dispositivos aprovecharan las capacidades del estándar HDMI 2.1, que fue lanzado en 2017.

AMD Trae HDMI 2.1 a Linux: Steam Machine Celebra

Según notas de parches publicadas recientemente, AMD está agregando soporte HDMI FRL (Fixed Rate Link) a su popular controlador amdgpu para Linux. Esta característica permite un mayor ancho de banda en cables HDMI compatibles en comparación con el estándar TMDS utilizado en HDMI 2.0 y versiones anteriores. El resultado es soporte directo para resoluciones más altas, HDR dinámico y funciones como la tasa de refresco variable que no están disponibles en HDMI 2.0.

Harry Wentland de AMD señaló que esta actualización representa un subconjunto representativo del cumplimiento de HDMI 2.1, aunque aún falta el código para Display Stream Compression (DSC), que permite resoluciones y tasas de cuadros aún más altas, hasta 10K a 100 Hz. Sin embargo, Wentland aclaró que el soporte DSC todavía está en pruebas y se enviará posteriormente, y que una ejecución completa de cumplimiento está en desarrollo.

Esta es una noticia especialmente importante para los propietarios de Steam Machine, que hasta ahora han dependido de soluciones alternativas como el submuestreo de croma y el soporte AMD Freesync para exprimir un mejor rendimiento del limitado ancho de banda de HDMI 2.0. Con la llegada del soporte completo de HDMI 2.1, estas soluciones provisionales ya no serán necesarias. Valve ha estado trabajando activamente para desbloquear esta situación, y estos esfuerzos finalmente están dando resultados concretos del lado de AMD.

Fuente Original: https://arstechnica.com/gaming/2026/05/amd-is-adding-hdmi-2-1-support-for-linux-thats-good-news-for-the-steam-machine/

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

AMD Brings HDMI 21 Support to Linux

In a significant development for Linux users, AMD is finally rolling out expanded HDMI 2.1 support for its graphics drivers on the open-source platform. This move comes after considerable delays stemming from the HDMI Forum's controversial decision to reject an open-source implementation of HDMI 2.1, citing concerns over proprietary technology. The rejection had previously left Linux users without access to the full capabilities of modern HDMI 2.1 displays, including higher refresh rates and advanced features that Windows users have long enjoyed.

AMD Brings HDMI 2.1 Support to Linux

AMD developer Harry Wentland has submitted a comprehensive patch series to the Linux kernel mailing list, marking a turning point for the Linux gaming and multimedia community. The patches introduce HDMI Fixed Rate Link (FRL) support directly into the amdgpu display driver, which is crucial for enabling the higher bandwidth capabilities that HDMI 2.1 offers. FRL is the technology that allows HDMI 2.1 to support features such as 4K at 120Hz, 8K at 60Hz, and Variable Refresh Rate (VRR) for smoother gaming experiences. However, Wentland noted that Display Stream Compression (DSC) support is still undergoing testing and will be released in subsequent patches once validation is complete.

According to a forum post on Phoronix from an AMD driver developer, the company is committed to delivering a complete implementation of HDMI 2.1 features for Linux users. The developer emphasised that the full suite of capabilities will ultimately be made available once all patches have been thoroughly tested and have successfully completed the necessary compliance testing procedures. This phased approach ensures stability and compatibility whilst gradually introducing advanced features to the Linux ecosystem. For gamers and content creators using AMD graphics cards on Linux, this development represents a long-awaited breakthrough that will finally bring feature parity with other operating systems and unlock the full potential of modern displays.

Fuente Original: https://linux.slashdot.org/story/26/05/04/1920215/expanded-amd-hdmi-21-support-is-coming-to-linux?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

lunes, 4 de mayo de 2026

Toyota IA para proteger empleos no reemplazarlos

En un giro interesante en el mundo de la automatización, Toyota ha revelado su estrategia con la inteligencia artificial (IA). Lejos de buscar reemplazar a sus trabajadores, la compañía japonesa está desarrollando su propia IA con un objetivo primordial: proteger los empleos existentes.

Toyota: IA para proteger empleos, no reemplazarlos

Daisuke Toyoda, quien lidera esta iniciativa, enfatiza que la IA se concibe como una herramienta de apoyo para los empleados, no como un sustituto. La visión es que esta tecnología ayude a los trabajadores a realizar sus tareas de manera más eficiente y segura, mejorando la calidad de su trabajo y, en última instancia, salvaguardando sus puestos. Este enfoque contrasta con la tendencia de otras empresas que ven la IA principalmente como una vía para reducir costos laborales.

Toyota es tá invirtiendo en la creación de un ecosistema de IA propio, lo que le permite tener un control total sobre su desarrollo y aplicación. Esto asegura que la tecnología se alinee con los valores y objetivos de la empresa, poniendo siempre al trabajador en el centro. La meta no es la deshumanización del proceso productivo, sino potenciar las capacidades humanas mediante la tecnología.

La empresa reconoce los desafíos que la automatización presenta para el futuro del trabajo, pero su respuesta es proactiva y centrada en la persona. Al desarrollar una IA personalizada, Toyota busca una simbiosis entre máquina y humano, donde la tecnología asiste y complementa, en lugar de competir. Este modelo podría sentar un precedente para la industria automotriz y otros sectores, demostrando que la innovación tecnológica y la protección del empleo pueden ir de la mano.

Fuente Original: https://news.google.com/rss/articles/CBMitwFBVV95cUxQcmZxaFdxeUhHZzdYWS1JaUFHeW53UVZjcVBnakVZaXEtNml0TUhrV0Zyc1pxX0sydlVmWEJvUGJmRGU3cGd1akV1V1o4OV9NVkptMzRlQ1pZbl82RlVCRm11ZVZGbFlncXl3b2NyYXZBT0M3NjRhYnhpWnVEODdVNTVIVFlVVHBHcFpkVnFaVjhpUUlTUG9uWGR4SXdIWjRyVUJOc0hvWE5nZE5OeFY0TDFhdGhDdDQ?oc=5

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

HUMAIN ONE Enterprise AI Agents Scale with AWS

In a significant leap forward for artificial intelligence development, HUMAIN has unveiled HUMAIN ONE, a groundbreaking enterprise-grade operating system designed to streamline the creation, deployment, and management of autonomous AI agents at scale. This innovative platform, powered by Amazon Web Services (AWS), promises to revolutionise how businesses integrate and leverage AI across their operations.

HUMAIN ONE: Enterprise AI Agents Scale with AWS

HUMAIN ONE addresses a critical need in the rapidly evolving AI landscape: a robust and comprehensive framework for handling complex AI agent ecosystems. The operating system is engineered to provide the essential tools and infrastructure for developers and enterprises to build, test, and deploy AI agents with enhanced efficiency and control. Key features include advanced governance capabilities, ensuring that AI agents operate within defined parameters and ethical guidelines. This is crucial for large-scale deployments where oversight and accountability are paramount.

By leveraging AWS's extensive cloud infrastructure, HUMAIN ONE offers unparalleled scalability and reliability. This allows businesses to start with a few AI agents and expand to thousands without compromising performance. The platform's "build, deploy, and govern" approach simplifies the entire AI lifecycle, from initial concept to ongoing operation. This holistic system is poised to accelerate the adoption of sophisticated AI solutions, enabling organisations to unlock new levels of productivity and innovation. The emphasis on enterprise-grade features underscores HUMAIN's commitment to providing secure, manageable, and powerful AI tools for serious business applications.

Fuente Original: https://news.google.com/rss/articles/CBMitAJBVV95cUxPWDc4bUdKMlZNMTk5QS15eE81RVNfbGtlZW0wTFlBU0dfNHFHa1JNU0s5dHBocUNUWlhkbWtPOHk0RDlOV0hReFJ4ZlJ5bkp3VzF2Z2NDNDBaTUVpbXY1bHlqcjFCT25QRWV4Y1VOcGVQY1lrSWttWTRNTE1IaGl1VUxSdW9aRjc0UFA4VFFBQ08taXhuVW82Sk5vSFpZOGw4NXRCbkoyRzZTeWI5Y2VESDc4TnFJOHl1bGlSN1JhVUtidV8wVnhzOVlMVEVkbWpWaU40Y2ZJaUFfZm50YkkxRmxIQzdKMkwwQmc2U1ZtTWNyZHlRQnVvXzI3dkphNXlsZUhzVlBkazBETXdsbXNBN1AzbzZwXy0wYmJPcVRuWjJMOVIyc1M2NVIwa0dpZEtESE5OSA?oc=5

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

IA y Finanzas Anthropic y Wall Street unen fuerzas

Anthropic, la empresa detrás de la inteligencia artificial Claude, ha sellado una importante alianza con gigantes de Wall Street como Blackstone, Hellman & Friedman, Goldman Sachs y General Atlantic. Esta colaboración estratégica forma una nueva empresa conjunta valorada en aproximadamente 1.500 millones de dólares, con el objetivo de integrar la tecnología de IA de Anthropic en las miles de empresas que forman parte del portafolio de estas firmas de capital privado.

IA y Finanzas: Anthropic y Wall Street unen fuerzas

Este movimiento responde a una pregunta clave en el mundo de la IA: ¿qué es más valioso, una gran inyección de capital de inversores de riesgo o un canal de distribución permanente y masivo? Anthropic parece haber optado por lo segundo. La nueva entidad actuará como una suerte de brazo consultor y fábrica de implementación, facilitando la adopción de Claude en las operaciones diarias de las empresas de salud, logística, manufactura y servicios financieros controladas por estos fondos. Esto agiliza drásticamente el proceso de venta y adopción, que de otro modo podría llevar años.

Esta estrategia es similar a la que OpenAI implementó previamente con su empresa conjunta DeployCo, aunque la de Anthropic destaca por su concentración en pocos socios de gran calibre. Mientras OpenAI busca una adopción masiva y rápida, Anthropic apuesta por la credibilidad y la profunda integración en firmas financieras de renombre. La operación llega en un momento crucial para Anthropic, que se prepara para una posible salida a bolsa en 2026, y busca demostrar un crecimiento de ingresos sostenible y a gran escala. Para las firmas de capital privado, esta alianza representa una oportunidad de acceder a tecnología de IA de vanguardia, optimizar sus inversiones operacionales y obtener una ventaja competitiva en la era de la inteligencia artificial.

Fuente Original: https://thenextweb.com/news/anthropic-15-billion-wall-street-joint-venture

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Ransomware Evoluciona Filtraciones Falsas y Sin Encriptacion

El panorama del ransomware está experimentando una transformación preocupante en 2026. Según un informe reciente de la empresa de ciberseguridad ReliaQuest, la actividad de ransomware aumentó significativamente en el primer trimestre del año, registrando 2,638 publicaciones de víctimas en sitios de filtración, lo que representa un incremento del 22% en comparación con el mismo período del año anterior. Sin embargo, más allá de las cifras, lo que realmente alarma a los expertos es cómo el ecosistema cibercriminal se ha vuelto cada vez más caótico y sofisticado.

Ransomware Evoluciona: Filtraciones Falsas y Sin Encriptación

Grupos establecidos como Akira y Qilin continúan operando activamente, pero nuevos actores están irrumpiendo con fuerza. The Gentlemen, por ejemplo, experimentó un aumento explosivo del 588% en su actividad, posicionándose rápidamente entre los principales grupos de ransomware. Paralelamente, sitios de filtración cuestionables como 0APT y ALP-001 están complicando el panorama al publicar supuestas violaciones de datos que podrían ser falsas, obligando a las empresas a invertir recursos valiosos investigando incidentes que posiblemente nunca ocurrieron.

Quizás el cambio más significativo es la evolución táctica de los ciberdelincuentes. Actores como ShinyHunters están demostrando que el ransomware tradicional con encriptación ya no es necesario. En su lugar, están enfocándose en sistemas de identidad y plataformas SaaS, robando datos mediante acceso legítimo obtenido a través de phishing o ingeniería social telefónica. Esta estrategia les permite extorsionar a las víctimas sin necesidad de desplegar malware convencional, haciendo que los ataques sean más difíciles de detectar y prevenir.

Con un récord de 91 sitios de filtración activos y plazos de ataque cada vez más reducidos, los expertos en seguridad recomiendan un cambio de estrategia. En lugar de enfocarse en rastrear grupos específicos, las organizaciones deberían concentrarse en detener las tácticas comunes que todos utilizan: el robo de credenciales, el abuso de acceso remoto y la exfiltración masiva de datos. Esta aproximación más holística podría ser la clave para defenderse efectivamente en este nuevo y complejo panorama de amenazas cibernéticas.

Fuente Original: https://it.slashdot.org/story/26/05/02/234244/ransomware-is-getting-uglier-as-cybercriminals-fake-leaks-and-skip-encryption-entirely?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

OpenAI Backs OpenClaw Whilst Anthropic Blocks Access

In a strategic move that highlights diverging approaches within the AI industry, OpenAI has integrated ChatGPT subscriptions with OpenClaw, the remarkably successful open-source AI agent framework. Announced casually by Sam Altman in the early hours of 2 May, this decision allows ChatGPT Plus subscribers to authenticate and access GPT-5.4 through OpenClaw for just $23 monthly. This stands in stark contrast to Anthropic's April decision to ban Claude subscriptions from the same platform, creating a fascinating competitive divide in how major AI companies approach distribution and profitability.

OpenAI Backs OpenClaw Whilst Anthropic Blocks Access

OpenClaw has experienced meteoric growth since its creation in November 2025 by Austrian developer Peter Steinberger. Originally called Clawdbot—complete with its iconic lobster mascot—the platform was renamed after trademark disputes with Anthropic. The framework operates as a locally hosted AI agent that connects to various large language models and integrates seamlessly with popular messaging applications including WhatsApp, Telegram, Signal, Discord, Slack, and Microsoft Teams. Users can manage calendars, send emails, organise files, write code, and execute complex workflows autonomously whilst keeping their data securely on their own machines. The project's popularity has been nothing short of extraordinary, accumulating 346,000 GitHub stars in under five months and attracting over 3.2 million users, making it what Nvidia's Jensen Huang called "the most popular open-source project in the history of humanity."

The contrasting strategies between OpenAI and Anthropic reveal fundamentally different business philosophies. Anthropic viewed OpenClaw's autonomous agents as a cost problem—these agents can generate thousands of API calls daily, consuming significantly more computational resources than human users typing queries. Consequently, they blocked Claude Pro and Max subscribers from using flat-rate subscriptions with third-party agent frameworks. OpenAI, conversely, recognised a distribution opportunity. By positioning ChatGPT as the default backend for the world's most popular agent framework, OpenAI is wagering that increased subscriber volume will offset higher per-user compute costs. This represents a classic platform play: subsidise access to lock in subscription revenue, similar to how mobile carriers once subsidised smartphones.

However, this bold strategy carries substantial risks. OpenClaw has experienced numerous critical security vulnerabilities since its rapid ascent. In January, researchers disclosed CVE-2026-25253, a remote code execution vulnerability allowing malicious websites to hijack users' systems. Security audits of ClawHub, the platform's skills marketplace, uncovered 824 confirmed malicious entries amongst 10,700 available skills. More than 30,000 OpenClaw instances were discovered exposed on the public internet without authentication, and Moltbook, the social layer for agents, suffered a breach exposing 1.5 million API tokens. Whilst current versions have been patched, many users continue running vulnerable older versions. OpenAI's integration means its brand, billing systems, and user credentials now flow through a platform that has accumulated more security incidents in four months than most enterprise software experiences in a decade.

The subscription model itself represents unusual economics. For $23 monthly, users receive access to GPT-5.4 through OpenClaw without per-token API charges—substantially cheaper than direct API usage, which could cost hundreds monthly at the volume autonomous agents generate. OpenAI is essentially subsidising agent usage, betting that the lifetime value of subscribers using ChatGPT through OpenClaw exceeds the computational costs. Whether this proves a masterstroke or margin trap depends on conversion rates amongst OpenClaw's 3.2 million users and whether the platform can maintain adequate security standards to justify the trust both OpenAI and its subscribers are placing in it.

Fuente Original: https://thenextweb.com/news/openai-openclaw-chatgpt-subscription-agent

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

domingo, 3 de mayo de 2026

Nvidia sin cuota en China Exportaciones de EE UU fracasan

Jensen, de Nvidia, ha revelado una noticia sorprendente: la compañía ha perdido toda su cuota de mercado en China. Según él, las políticas de exportación de Estados Unidos, diseñadas para limitar el acceso de China a tecnología avanzada, han fracasado en su objetivo principal y, de hecho, han terminado por perjudicar a las empresas estadounidenses en lugar de beneficiarlas.

Nvidia sin cuota en China: Exportaciones de EE. UU. fracasan

La estrategia de EE. UU. buscaba frenar el avance tecnológico de China en áreas sensibles como la inteligencia artificial. Sin embargo, Jensen argumenta que las restricciones implementadas han tenido el efecto contrario. Al impedir la venta de sus productos más avanzados a China, Nvidia se ha visto obligada a retirar su presencia en este mercado crucial. Esto significa que no solo han perdid o una fuente de ingresos importante, sino que también han abierto la puerta a la competencia, permitiendo a otras empresas, posiblemente chinas o de otros países, llenar el vacío.

La declaración de Jensen subraya una preocupación creciente en el sector tecnológico: el riesgo de que las guerras comerciales y las restricciones tecnológicas se vuelvan contraproducentes. En lugar de aislar tecnológicamente a un rival, estas medidas podrían fomentar el desarrollo interno de dicho país y debilitar la posición competitiva de las empresas que imponen las restricciones. La situación de Nvidia en China es un claro ejemplo de cómo una política de exportación mal calibrada puede generar resultados no deseados, afectando la cuota de mercado y, en última instancia, el potencial de crecimiento de las propias empresas estadounidenses. La pregunta ahora es si esta lección será aprendida y si las futuras estrategias de EE. UU. en el ámbito tecnológico considerarán más a fo ndo estas posibles ramificaciones.

Fuente Original: https://news.google.com/rss/articles/CBMijAJBVV95cUxQclBGT2JyeVpXbkktdWQtTE4tQjBGX3NiN2tnMkdSZzNuUk9aTkxZNTk0ZGtpeE1IT2kzNXZXMGV3WERoMkR1QkRmT0xVOFZsUGJSeHUxWnA3ZnJialB0cVBCQmZhNEhxaGpIQlk1Qlhtc3hKYnFQTXJOZXBaUVVTWk4zaGhzdkJUUXpFcFVidnFnb1ZYOEJmVl9IbU56U0EtdFB0UzVNRFdtN3RoV0duUGpiTXNTZUNnQU0ya1hkWW41UWFURmFfbWNTeHpZUGVTR1djWVQwWDEwYU0wVWstVFhqUm5xWEdxLW4yMjlwTFlpa3ptYUxfZGJVYk01YVNTTTJrZXI2WGlOdFAx?oc=5

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Chinas AI Layoffs Court Rules Replacement Illegal

In a move that sets China apart from Western nations, its courts have declared that dismissing employees solely because an Artificial Intelligence can now perform their job is unlawful. This significant ruling interprets the adoption of AI as a strategic business decision, rather than an unforeseen change in circumstances that would legally justify termination under China's Labour Contract Law. This precedent was established in two separate cases, impacting workers who were let go when their roles were deemed automatable.

China's AI Layoffs: Court Rules Replacement Illegal!

The first case involved a quality assurance supervisor in Hangzhou who was demoted and subsequently fired after the company decided its AI systems were advanced enough to handle his tasks. The court found in favour of the employee, ordering compensation. Similarly, in Beijing, a data collector whose job was eliminated due to a shift to AI-driven data collection was also found to have been unlawfully terminated. In both instances, the courts determined that implementing AI is a proactive business choice made by the company, not an external event beyond their control, thus not constituting grounds for dismissal under the labour law.

These rulings emerge at a time of significant global tech layoffs, with a substantial portion attributed to AI automation. While the US and EU grapple with how to address AI's impact on employment, with proposed legislation and regulations focusing on transparency and risk management, China has taken a more direct approach through its judiciary. The Chinese courts have effectively stated that the costs of technological advancement should not fall entirely on the workers. Companies that choose to automate roles must either retrain, reassign, or retain employees, rather than simply lay them off. This approach, while potentially increasing operational costs for businesses, prioritises social stability and worker protection amidst rapid technological change, suggesting a strategic decision to manage the economic benefits of AI while mitigating its social downsides.

Fuente Original: https://thenextweb.com/news/china-court-ai-layoffs-illegal-labor-law

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT