martes, 14 de abril de 2026

Gobierno EEUU Antiterrorismo AI o IA de Seguridad

En una aparente contradicción, la administración Trump, a través de sus altos funcionarios económicos, está instando a los principales bancos de Wall Street a probar la tecnología de inteligencia artificial de Anthropic, específicamente su modelo Mythos, para identificar vulnerabilidades de ciberseguridad. Esto ocurre a pesar de que el Departamento de Defensa, bajo la misma administración, ha marcado a Anthropic como un riesgo de cadena de suministro, prohibiéndole contratos militares.

Gobierno EE.UU. ¿Antiterrorismo AI o IA de Seguridad?

El meollo de la disputa radica en la negativa de Anthropic a eliminar dos salvaguardas de seguridad clave de sus modelos de IA: la prohibición de su uso en armas totalmente autónomas y la restricción de su despliegue para la vigilancia masiva de ciudadanos estadounidenses. Esta negativa llevó al Secretario de Defensa a designar a la compañía como un riesgo, lo que, a su vez, provocó una orden del presidente Trump para que las agencias federales dejaran de usar su tecnología.

Sin embargo, el Secretario del Tesoro, Scott Bessent, y la Presidenta de la Reserva Federal, Jerome Powell, han convocado a ejecutivos de gigantes bancarios como JPMorgan Chase, Goldman Sachs, Citigroup, Bank of America y Morgan Stanley para animarlos a utilizar el modelo Mythos. Este modelo, que ha demostrado ser capaz de identificar miles de vulnerabilidades de día cero en sistemas operativos y navegadores, se está distribuyendo a través de un programa restringido llamado Project Glasswing a aproximadamente 50 organizaciones.

La situación expone una marcada incoherencia en la política de la administración hacia la IA. Mientras una rama del gobierno considera a Anthropic demasiado peligrosa por sus salvaguardas de seguridad, otra rama la impulsa como una herramienta indispensable para la ciberseguridad del sistema financiero. Esta dicotomía plantea preguntas sobre la coherencia estratégica y las motivaciones detrás de las decisiones políticas, especialmente dado que la disputa con el Pentágono se originó en desacuerdos personales y percepciones de las posturas políticas de la empresa.

Los bancos, por su parte, parecen priorizar la recomendación de los líderes financieros sobre las objeciones del Pentágono. La capacidad del modelo Mythos para detectar fallos de seguridad es vista como una defensa crucial contra posibles ataques de IA adversarios. Mientras tanto, reguladores en el Reino Unido también están evaluando activamente los riesgos potenciales asociados con esta tecnología. El resultado es una paradoja donde la misma IA que es vetada por un departamento gubernamental es promovida por otro, creando un panorama confuso y estratégicamente ventajoso para Anthropic, que ve crecer su integración en la infraestructura crítica nacional.

Fuente Original: https://thenextweb.com/news/trump-administration-banks-anthropic-mythos-pentagon-paradox

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Google Integra Rust en Modem Pixel 10

Los teléfonos inteligentes modernos cuentan con múltiples capas de seguridad en sus sistemas operativos, pero existe un punto débil crítico: el módem celular. El equipo Project Zero de Google demostró que es posible ejecutar código de forma remota en los módems de los teléfonos Pixel a través de Internet, lo que llevó a la compañía a replantear completamente cómo proteger este componente vital de bajo nivel. La solución innovadora no fue reescribir todo el software del módem, sino incorporar estratégicamente un componente basado en Rust, un lenguaje de programación más seguro, en el módem del Pixel 10.

Google Integra Rust en Módem Pixel 10

Los módems celulares son prácticamente cajas negras en nuestros dispositivos. El sistema de banda base del teléfono ejecuta su propio sistema operativo con código heredado en C y C++, convirtiéndolo en un objetivo cada vez más atractivo para los atacantes. El problema fundamental radica en que la gestión de memoria en estos sistemas es compleja y frecuentemente genera firmware inseguro en dispositivos de producción. Esto permite a los atacantes explotar vulnerabilidades graves como desbordamientos de búfer y fugas de memoria para comprometer los dispositivos. Los investigadores de Project Zero han identificado más de dos docenas de vulnerabilidades en módems Exynos en años recientes, 18 de las cuales fueron clasificadas como severas.

Aunque existen lenguajes seguros para la memoria como Python o C#, estos dependen de recolectores de basura que son demasiado lentos para el funcionamiento en tiempo real que requieren los módems. Rust ofrece una solución elegante: utiliza un mecanismo llamado "borrow checker" que garantiza la seguridad de memoria en tiempo de compilación, sin sacrificar velocidad. Esto hace que Rust sea ideal para sistemas críticos que requieren tanto seguridad como rendimiento.

Google no podía simplemente reescribir décadas de desarrollo de firmware de módem, que representa megabytes de código máquina ejecutable. En su lugar, la compañía se enfocó estratégicamente en el analizador DNS, un componente crítico para el funcionamiento de las redes de datos celulares que requiere procesar datos no confiables. Google integró la biblioteca de código abierto hickory-proto de Rust, eliminando las dependencias de bibliotecas estándar para compilar código máquina más rápido. El componente Rust resultante añadió solo 371KB al módem del Pixel, una cantidad manejable que actúa como un muro protector contra paquetes DNS maliciosos. El Pixel 10 es el primer teléfono en implementar esta arquitectura de módem más segura, estableciendo un precedente para futuras mejoras de seguridad en sistemas embebidos.

Fuente Original: https://arstechnica.com/gadgets/2026/04/google-shoehorned-rust-into-pixel-10-modem-to-make-legacy-code-safer/

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Linux 70 Released with Rust and Quantum Security

The Linux kernel has reached a significant milestone with the release of version 7.0, marking an important evolution in the open-source operating system's development. Whilst the major version number might suggest revolutionary changes, Linux creator Linus Torvalds has clarified that this is primarily a numbering reset rather than an indication of unusually disruptive modifications. Nevertheless, the release brings several noteworthy enhancements that will impact both developers and system administrators.

Linux 7.0 Released with Rust and Quantum Security

One of the most anticipated changes in Linux 7.0 is the removal of the experimental label from Rust language support. Although Rust is not yet dominant in kernel development, this move represents a crucial step towards its gradual integration into the project. This signals growing confidence in Rust's role for future kernel development, particularly for memory-safe components.

Security improvements feature prominently in this release. The kernel now includes ML-DSA post-quantum signatures for authenticating kernel modules, preparing the system for future cryptographic challenges posed by quantum computing. Conversely, support for SHA-1-based module-signing schemes has been removed, reflecting the industry's move away from this ageing cryptographic standard. Additionally, Linux 7.0 introduces BPF-based filtering for io_uring operations, granting administrators enhanced control in restricted environments, whilst BTF type lookups have been optimised with binary search capabilities.

The release also advances several infrastructure improvements. The removal of linuxrc initrd code continues the transition to initramfs as the sole early-userspace boot mechanism. A new feature called NULLFS has been introduced—an immutable and empty root filesystem designed for systems that mount the actual root filesystem later in the boot process. Preemption handling has been simplified across most architectures, with further refinements to restartable sequences, workqueues, RCU internals, slab allocation, and type-based hardening measures. Filesystem and storage subsystems have received attention too, with non-blocking timestamp updates now functioning correctly and filesystems requiring explicit opt-in for leases rather than receiving them by default.

Fuente Original: https://linux.slashdot.org/story/26/04/13/1857240/linux-70-released?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

lunes, 13 de abril de 2026

Desarrollo con Agentes Autonomos Escala tu Codigo Empresarial

La forma en que desarrollamos software está experimentando una revolución, y ya no se trata solo de si la IA puede escribir código, sino de si podemos confiar en él. La clave para desbloquear el verdadero potencial de los agentes de codificación autónomos a escala empresarial reside en el desarrollo impulsado por especificaciones (spec-driven development).

Desarrollo con Agentes Autónomos: ¡Escala tu Código Empresarial!

Este enfoque innovador eleva el listón de la calidad del código, emulando la forma de trabajar de los desarrolladores más experimentados. En lugar de depender de la documentación posterior a la generación de código, el desarrollo impulsado por especificaciones comienza con una definición clara y estructurada de lo que el sistema debe hacer, sus propiedades y qué significa el éxito. Esta especificación se convierte en la base sobre la cual el agente autónomo razona durante todo el proceso de desarrollo, actuando como un modelo de confianza fundamental.

Las empresas ya están cosechando los beneficios de este método, reduciendo drásticamente los tiempos de entrega de funciones. Desde acelerar la construcción de entornos de codificación hasta completar proyectos de rearquitectura masivos con equipos reducidos y adelantar lanzamientos de productos, el desarrollo impulsado por especificaciones está demostrando ser un catalizador para la eficiencia y la innovación.

La seguridad de estos agentes autónomos se garantiza a través de pruebas verificables. Cuando la generación de código se mide en miles de envíos semanales, la revisión manual es inviable. Aquí es donde el desarrollo impulsado por especificaciones brilla, permitiendo pruebas automatizadas basadas en propiedades y técnicas de IA neurosimbólica que generan cientos de casos de prueba derivados directamente de la especificación. Esto va más allá de las suites de pruebas tradicionales, asegurando un comportamiento comprobado y correcto.

Este cambio permite pasar de la programación de "un solo intento" a un desarrollo autónomo continuo. Los agentes modernos se autocorrigen, retroalimentando fallos de construcción y prueba para iterar y mejorar, siempre anclados por la especificación. En el futuro, los agentes incluso escribirán sus propias especificaciones, utilizando la verificación y la autocorrección como mecanismos intrínsecos para asegurar la alineación con el comportamiento deseado del sistema.

Los equipos pioneros están invirtiendo tiempo en construir especificaciones robustas y archivos de dirección para guiar a sus agentes. Ejecutan múltiples agentes en paralelo para obtener diversas perspectivas y utilizan varias especificaciones para componentes del sistema. Aunque la orquestación de estas capacidades requiere experiencia, herramientas como Kiro buscan democratizar estas avanzadas metodologías para todos los desarrolladores. La infraestructura está evolucionando para soportar estas cargas de trabajo a escala empresarial, con comunicación segura, controles de costos y garantías de fiabilidad.

Los desarrolladores que prosperarán en esta nueva era priorizan el desarrollo impulsado por especificaciones, la testeabilidad y la verificación desde el principio, y colaboran con agentes como compañeros, pensando en sistemas en lugar de en sintaxis.

Fuente Original: https://venturebeat.com/orchestration/agentic-coding-at-enterprise-scale-demands-spec-driven-development

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

AI On-Device CISOs New Blind Spot Unveiled

The traditional playbook for securing generative AI has centred on controlling network access, monitoring cloud traffic, and enforcing policies for external API calls. However, a significant shift is occurring with the rise of "bring your own model" (BYOM), where developers are increasingly running large language models (LLMs) locally on their devices. This evolution, dubbed Shadow AI 2.0, poses a novel challenge for Chief Information Security Officers (CISOs) as it bypasses conventional network security measures, creating a blind spot for unvetted AI inference occurring directly on endpoints.

AI On-Device: CISOs' New Blind Spot Unveiled

This local inference has become practical due to advancements in consumer hardware, such as MacBooks with substantial unified memory capable of running powerful models, and the mainstreaming of model quantization, which allows for smaller, faster formats with acceptable quality trade-offs. Coupled with the frictionless distribution of open-weight models, engineers can now download and run multi-gigabyte models offline for tasks like code review, document summarisation, and sensitive data analysis without generating network traffic or cloud audit trails. This makes the activity virtually invisible to network security monitoring, which previously relied on observing data exfiltration to the cloud.

The risks associated with local AI inference extend beyond data exfiltration. Firstly, there's the threat of code and decision contamination, where unvetted local models might subtly introduce security vulnerabilities into codebases without any record of AI influence. Secondly, licensing and intellectual property exposure becomes a concern, as companies may unknowingly inherit risks by using models with restrictive licenses for commercial purposes, leading to potential issues during M&A or legal reviews. Lastly, the model supply chain is exposed, with the potential for malicious code execution through older file formats like Pickle-based PyTorch files when loading unvetted model checkpoints. To mitigate these risks, CISOs need to shift governance to the endpoint, implement endpoint-aware controls, and provide developers with a curated internal model hub. Policy language must also be updated to explicitly address local model artifact usage, acceptable sources, and license compl iance, recognising that the security perimeter is increasingly shifting back to the individual device rather than solely relying on cloud-based controls.

Fuente Original: https://venturebeat.com/security/your-developers-are-already-running-ai-locally-why-on-device-inference-is

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Europa Desmantela Normas Competir o Rendirse

La Comisión Europea ha propuesto un paquete legislativo, el "Digital Omnibus", con el objetivo declarado de simplificar la regulación tecnológica. Sin embargo, organizaciones de la sociedad civil alertan que esto podría suponer un retroceso histórico en derechos digitales. La propuesta busca retrasar obligaciones clave del Acta de IA, flexibilizar el uso de datos personales para entrenar modelos de IA y reducir la exigencia de alfabetización en IA para el personal. Estas concesiones estructurales buscan, supuestamente, impulsar la competitividad de Europa frente a Estados Unidos y China en el ámbito de la inteligencia artificial, respondiendo a informes que señalan la regulación como un obstáculo.

Europa Desmantela Normas: ¿Competir o Rendirse?

No obstante, el artículo argumenta que la premisa de que la regulación frena la innovación en Europa es errónea. Se señala que la brecha tecnológica no se debe a la rigidez de las normativas europeas, sino a problemas más profundos: la falta de un verdadero mercado único digital, mercados de capitales fragmentados, leyes de quiebra poco propicias al riesgo y dificultades para atraer talento global. La historia demuestra que Europa no produjo gigantes tecnológicos en la era de poca regulación, y los datos actuales sobre financiación y reubicación de startups europeas respaldan esta idea. Las empresas buscan capital, clientes y mercados, algo que Europa aún no ofrece de forma convincente.

El "Omnibus" debilita el marco regulatorio que Europa ha construido durante la última década, incluyendo el RGPD, la Ley de Servicios Digitales y la Ley de Mercados Digitales. Este marco, si bien imperfecto, posicionó a Europa como líder en gobernanza tecnológica y generó el "Efecto Bruselas", influyendo en estándares globales. Al intentar competir copiando el modelo estadounidense, que se basa en estructuras de capital, escala de mercado y talento que Europa no posee, se corre el riesgo de erosionar lo que ha construido. La Comisión está tratando síntomas, y no los correctos, mientras ignora la enfermedad subyacente, la falta de competitividad estructural. El Parlamento Europeo intenta encontrar un equilibrio, pero la tendencia general de desmantelar las propias reglas regulatorias para imitar a otros podría ser contraproducente, beneficiando a gigantes tecnológicos extranjeros en lugar de impulsar la innovación europea y la soberanía digital.

Fuente Original: https://thenextweb.com/news/europe-is-dismantling-its-own-rulebook-to-compete-with-america

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

IA Llega al Kernel Linux Clanker T1000

El término "clanker", una expresión despectiva para referirse a la inteligencia artificial y los robots, ha llegado oficialmente al kernel de Linux gracias a Greg Kroah-Hartman, el mantenedor del kernel estable de Linux y considerado el segundo al mando del proyecto. Kroah-Hartman ha estado ejecutando silenciosamente una herramienta de fuzzing asistida por IA en el kernel, alojada en una rama llamada "clanker" en su árbol de trabajo del kernel.

IA Llega al Kernel Linux: Clanker T1000

El experimento comenzó con el código ksmbd y SMB, donde Kroah-Hartman presentó una serie de tres parches después de probar su nueva herramienta. En sus propias palabras, admitió que los parches pasaron sus pruebas limitadas, pero advirtió a la comunidad que no confiaran ciegamente en ellos y verificaran todo antes de aceptarlos. Eligió este código específicamente porque era fácil de configurar y probar localmente usando máquinas virtuales.

En las últimas 48 horas, el flujo de parches generados con esta herramienta se ha extendido más allá del código SMB inicial, tocando componentes como USB, HID, F2FS, LoongArch, WiFi, LEDs y más. Todos estos parches en la rama "Clanker" incluyen en su etiqueta Git la nota "Assisted-by: gregkh_clanker_t1000", donde T1000 hace una clara referencia al icónico Terminator T-1000.

Es crucial entender que Kroah-Hartman no está permitiendo que la IA escriba código del kernel. La herramienta fuzzer identifica posibles errores, pero es un humano con décadas de experiencia en el kernel quien los revisa, escribe las correcciones reales y asume la responsabilidad de lo que se envía. Este enfoque refleja el pensamiento de Linus Torvalds, quien el año pasado en la Open Source Summit Japan mencionó que la próxima Cumbre de Mantenedores del Kernel de Linux abordará la expansión de herramientas y políticas relacionadas con el uso de IA.

Linus también compartió que realizó un experimento interno donde una herramienta de IA revisó una fusión que él había objetado. La IA no solo estuvo de acuerdo con sus objeciones, sino que encontró problemas adicionales para corregir. Torvalds enfatizó que está "mucho menos interesado en la IA para escribir código" y más interesado en la IA como herramienta para mantenimiento, revisión de parches y revisión de código, lo que marca una dirección clara para el futuro del desarrollo del kernel.

Fuente Original: https://linux.slashdot.org/story/26/04/12/063252/greg-kroah-hartman-tests-new-clanker-t1000-fuzzing-tool-for-linux-patches?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

CPUID Supply Chain Attack Delivers Trojanised Software

Between 9th and 10th April 2026, a sophisticated supply chain attack compromised the official CPUID website, distributing malware-laden versions of popular hardware diagnostic tools CPU-Z and HWMonitor. During a brief window lasting approximately six to nineteen hours, attackers manipulated download links to serve trojanised installers that ultimately deployed STX RAT, a remote access trojan with information-stealing capabilities. This incident highlights how even seemingly low-risk utility software can become a dangerous attack vector when distribution channels are compromised.

CPUID Supply Chain Attack Delivers Trojanised Software

The attackers didn't tamper with CPUID's legitimately signed binaries themselves; instead, they exploited a secondary API functionality within the CPUID infrastructure that controlled download links on the website. This allowed them to redirect users to malicious executables hosted on external Cloudflare R2 storage rather than the genuine software. The compromised versions included CPU-Z 2.19, HWMonitor 1.63, HWMonitor Pro 1.57, and PerfMonitor 2.04. Each trojanised installer combined a legitimate, signed executable with a malicious dynamic link library named CRYPTBASE.dll, designed to exploit DLL sideloading techniques.

DLL sideloading takes advantage of how certain applications load libraries from their own directory or predictable paths, allowing a planted malicious DLL to execute before the legitimate one. Once loaded, CRYPTBASE.dll performed anti-sandbox checks to evade automated analysis tools, then established communication with command-and-control infrastructure to receive further instructions and download additional components. The final payload, STX RAT, combines remote access trojan and information stealer capabilities, targeting system information, credentials, and other sensitive data. This poses particular risk on systems used for VPN access, single sign-on services, password managers, or system administration, where stolen credentials can rapidly escalate into unauthorised access to critical resources.

Technical analysis revealed infrastructure and configuration overlaps with previous campaigns, including one involving a fake FileZilla website distributing malicious downloads. This suggests an experienced threat actor with repeatable operational patterns, capable of adapting the same approach—popular download sites, sideloading packaging, and RAT delivery—across different targets. Researchers documented over 150 downloads of malicious variants, with victims spanning retail, manufacturing, consultancy, telecommunications, and agriculture sectors, predominantly in Brazil, Russia, and China.

For incident response, organisations should prioritise identifying endpoints that downloaded or installed affected versions during the 9th-10th April 2026 window and treat them as potentially compromised. Security teams should search for evidence of CRYPTBASE.dll, DLL sideloading traces associated with the installer, and network telemetry showing outbound connections to command-and-control infrastructure and published indicators of compromise. If execution is suspected, immediate isolation, forensic artefact collection, and credential rotation—including browser sessions, tokens, and corporate tool access—are essential. Longer term, this incident underscores the need for robust controls around auxiliary software, including allowlisting, signature verification, installer origin control, and monitoring for unusual changes in download chains, even for well-known tools.

Fuente Original: https://unaaldia.hispasec.com/2026/04/ataque-a-la-cadena-de-suministro-en-cpuid-distribuye-instaladores-troyanizados-de-cpu-z-y-hwmonitor.html?utm_source=rss&utm_medium=rss&utm_campaign=ataque-a-la-cadena-de-suministro-en-cpuid-distribuye-instaladores-troyanizados-de-cpu-z-y-hwmonitor

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

domingo, 12 de abril de 2026

OpenAI Musk Inyecta Caos Legal en la Inteligencia Artificial

La empresa de inteligencia artificial OpenAI ha respondido a las acciones legales de Elon Musk, acusándolo de "inyectar caos" en su compañía. Según OpenAI, Musk ha amenazado con demandarlos por supuestas violaciones de su acuerdo de fundación, argumentando que la empresa se ha alejado de su misión original de beneficiar a la humanidad y se ha convertido en una entidad con fines de lucro.

OpenAI: Musk Inyecta Caos Legal en la Inteligencia Artificial

En su defensa, OpenAI ha publicado una extensa carta abierta detallando la historia de su relación con Musk y las circunstancias que llevaron a su partida. La empresa sostiene que Musk fue informado y estuvo de acuerdo con el cambio a una estructura con fines de lucro en 2019, el cual fue necesario para atraer talento e inversión. Además, señalan que Musk apoyó la recaudación de fondos de Microsoft por miles de millones de dólares y estaba al tanto de la estructura de gobernanza de OpenAI.

La disputa se centra en la naturaleza de OpenAI como organización sin fines de lucro y su posterior transición a una estructura híbrida. Musk, uno de los fundadores originales, argumenta que esta evolución ha traicionado los principios iniciales de la compañía. Por su parte, OpenAI afirma que sus acciones han sido transparentes y necesarias para el avance de la investigación en IA, y que la campaña legal de Musk busca, en parte, interrumpir su progreso y potencialmente beneficiar a sus propias empresas de IA.

La compañía también ha negado las afirmaciones de Musk de que ha estado priorizando los intereses de Microsoft sobre los de la humanidad. En cambio, OpenAI declara que está comprometida con la misión de garantizar que la inteligencia artificial general beneficie a toda la humanidad, y que sus decisiones se basan en este objetivo fundamental.

Fuente Original: https://news.google.com/rss/articles/CBMinwFBVV95cUxOX2xaQkpjQUNlbjV3QU5QeTkxODJwakhvMGxJX09ZWFU5elVaX1YtMndDRGJpR2htVU5XQk9CUkd4UHBiU2xqRzF2SGRsYXEwdXNyRlNrRWhGVUJsMG1PLW54dlJkY012S2MyX1Z4cUJJWGI5SmxrTFZTMFhZSUNDcU1pUGE5N0NYWjlPWFhTcDAyWlZBc0tidXlPWm1fMUE?oc=5

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

AI Arms Race Global Dangers of Automated Warfare

The world is teetering on the brink of a new, potentially catastrophic arms race, not with traditional weapons, but with artificial intelligence. This escalating global competition in AI technology is driven by the immense military potential of autonomous weapons systems, raising grave concerns among experts and international bodies. The article highlights that nations are rapidly investing in and developing AI-powered military capabilities, fearing they will be left behind if they don't. This pursuit is fueled by the promise of enhanced battlefield effectiveness, faster decision-making, and reduced risk to human soldiers.

AI Arms Race: Global Dangers of Automated Warfare

However, this technological sprint is fraught with peril. The concept of 'mutually automated destruction' emerges, drawing parallels to the Cold War's nuclear det errence, but with a crucial difference: AI systems can operate at speeds and scales that far exceed human comprehension or control. The potential for unintended escalation, miscalculation, and uncontrollable conflict is significantly heightened. Experts warn that once AI weapons are deployed, the speed of engagement could make de-escalation impossible, leading to rapid, devastating wars with little to no human intervention.

The article delves into the ethical and practical challenges. Who is accountable when an autonomous weapon makes a mistake? How can we ensure these systems adhere to the laws of war and distinguish between combatants and civilians? The lack of a robust international framework or treaty to govern the development and deployment of AI weapons exacerbates the risk. The race is on, with nations pushing the boundaries of AI in warfare, creating a volatile environment where the very intelligence designed to protect could lead to unprecedented destruction. The urge nt need for dialogue and regulation before these technologies become too advanced and dangerous to control is underscored.

Fuente Original: https://news.google.com/rss/articles/CBMigwFBVV95cUxNbDBmdkFTT05KYk9JNnJBdGlrRWt0NGFaOXZvUkFEak1QcmJJYzZ1c0F1WUt2SHhwZ1U5UlRPVVlOQ01tbU11ekhfLUpaS2sxTnMwb24zaDNtbkNCdDZ4cWUySFNmYktGWFNGQklzaEU5XzFNYmxmX1RjbDNLLXoydzFySQ?oc=5

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Periodistas en Huelga Protecciones contra la IA en Noticias

En un hito para la industria de las noticias en Estados Unidos, los periodistas de ProPublica han protagonizado la primera huelga en una sala de redacción importante con una demanda central: la protección contra el impacto de la inteligencia artificial (IA). Más de 150 miembros del Propublica Guild, un sindicato significativo en redacciones sin fines de lucro, se unieron a una huelga de 24 horas, con piquetes en Nueva York, Chicago y Washington D.C. La acción busca presionar a la dirección de ProPublica para que acepte varias propuestas clave en su primer acuerdo de negociación colectiva, el cual se ha estado gestando durante dos años y medio.

Periodistas en Huelga: ¡Protecciones contra la IA en Noticias!

Entre las exigencias del sindicato se encuentran garantías de "causa justa" para los despidos, aumentos salariales que compensen el costo de vida y, crucialmente, cláusulas contractuales que prohíban los despidos motivados por la adopción de la IA. Más allá de la huelga, el Guild ha llevado su disputa sobre la implementación de IA al Consejo Nacional de Relaciones Laborales (NLRB), presentando una denuncia por prácticas laborales injustas tras la publicación unilateral de directrices editoriales sobre IA por parte de ProPublica sin previa negociación.

La huelga de ProPublica podría ser solo el comienzo de un patrón emergente. Susan DeCarava, presidenta del NewsGuild de Nueva York, anticipa que "veremos conflictos cada vez más concentrados entre jefes de medios y periodistas" sobre el uso de la IA en el lugar de trabajo. En este sentido, el Guild de The New York Times ya está incluyendo la IA en sus negociaciones, buscando incluso una participación en los ingresos generados por la licencia de su trabajo para el entrenamiento de modelos de IA. Como contrapropuesta, la dirección de ProPublica ha ofrecido indemnizaciones ampliadas para despidos relacionados con la IA.

Fuente Original: https://news.slashdot.org/story/26/04/11/0354220/first-us-newsroom-strike-for-ai-protections-staged-by-propublicas-journalists?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Escasez de IA Dispara Precios de SSD

Los precios de las unidades de estado sólido (SSD) han experimentado un incremento alarmante en los últimos meses, con aumentos que en algunos casos superan el 300%. Esta situación refleja un fenómeno similar al que ya afectó a la memoria RAM, y la causa principal es la misma: la insaciable demanda de la industria de inteligencia artificial está absorbiendo la oferta disponible de un número limitado de fabricantes.

Escasez de IA Dispara Precios de SSD

Un claro ejemplo de esta escalada de precios lo encontramos en el WD Black SN850X de 2TB, que en 2024 costaba apenas 173 dólares. Para noviembre de 2025, su precio se había mantenido relativamente estable, pero en la actualidad alcanza la asombrosa cifra de 649 dólares, casi cuadruplicando su valor original. Este no es un caso aislado, sino una tendencia generalizada que afecta a todas las marcas y modelos del mercado.

Otros ejemplos notables incluyen el popular Samsung 990 Pro en su versión de 4TB, que pasó de costar 320 dólares a casi 1,000 dólares. Los SSD externos de SanDisk también sufrieron aumentos dramáticos, con incrementos del 200% registrados en la Apple Store durante marzo. Según los datos de seguimiento de precios de PC Part Picker, esta tendencia alcista comenzó en diciembre de 2025, y desde entonces los precios de unidades NVMe de entre 256GB y 4TB se han duplicado o triplicado en cuestión de meses.

La raíz del problema radica en que los fabricantes de semiconductores están priorizando la producción de componentes para centros de datos y aplicaciones de inteligencia artificial, donde los márgenes de ganancia son significativamente mayores. Esta situación reduce drásticamente el inventario disponible para el mercado de consumo general, creando una escasez artificial que impulsa los precios al alza. Los expertos advierten que esta tendencia podría continuar mientras la demanda de infraestructura para IA siga en aumento, lo que plantea un panorama preocupante para quienes buscan actualizar o construir sus sistemas informáticos personales en el corto plazo.

Fuente Original: https://hardware.slashdot.org/story/26/04/11/0539235/the-ai-ram-shortage-is-also-driving-up-ssd-prices?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Cognitive CAPTCHAs AI Solves Them Easier Than Humans

Cognitive CAPTCHAs were originally designed to distinguish humans from automated bots, but they're increasingly becoming more of a nuisance than a genuine security measure. The irony? These verification challenges are now easier to solve using Artificial Intelligence than relying on human cognitive abilities. What was meant to protect against automated attacks has become trivially bypassed by the very technology it aimed to block.

Cognitive CAPTCHAs: AI Solves Them Easier Than Humans

In the cybercrime ecosystem, where "crimeware as a service" offerings abound, CAPTCHA-solving services have emerged as a lucrative business. These services leverage AI to defeat cognitive challenges at scale. If criminals can harness AI for nefarious purposes, legitimate users and security professionals can equally benefit from these capabilities for constructive applications. The technology exists in books like "Hacking & Pentesting with Artificial Intelligence" published by 0xWord, demonstrating how AI can be applied to security testing.

Major platforms including HBO Max, LinkedIn, and Twitter/X deploy these cognitive CAPTCHAs regularly. Testing with various AI models—GPT-4 Vision, Gemini, Anthropic Claude 3.0 Opus, and GPT-4o—has consistently shown that these systems can solve visual and audio CAPTCHAs with remarkable accuracy. Whether identifying motorcycles in distorted images, solving hand-and-iron challenges, or seating people correctly, multimodal AI agents handle these tasks effortlessly.

A recent example perfectly illustrates this paradox. When confronted with a Google ReCAPTCHA asking to identify motorcycles in heavily processed, barely distinguishable images—some resembling Rorschach inkblot tests more than photographs—the task proved challenging even with corrective lenses. The images were small, partial, and deliberately obscured. Rather than straining to decipher these visual puzzles, passing the challenge to Gemini resulted in instant, accurate solutions. Google's own AI solved Google's own CAPTCHA faster and more reliably than a human could.

This raises a fundamental question: if Google creates the ReCAPTCHA and Google's Gemini solves it effortlessly, why maintain this charade? A "Solve with Gemini" button alongside the CAPTCHA would be more honest and user-friendly—a genuinely useful copilot feature. The underlying purpose of cognitive CAPTCHAs—differentiating humans from bots—is no longer achievable. The technology has been fundamentally undermined by advances in AI. It's time to rethink these authentication mechanisms entirely, as they fail to serve their original security function whilst frustrating legitimate users.

Fuente Original: http://www.elladodelmal.com/2026/04/captchas-cognitivos-mas-facil-con-ia.html

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

sábado, 11 de abril de 2026

Intuit IA Acelera Codigo Fiscal Modelo Adaptable

El artículo detalla cómo Intuit, específicamente su equipo de TurboTax, logró comprimir meses de trabajo en la implementación de un nuevo código fiscal (el llamado "One Big Beautiful Bill" o OBBB) en tan solo horas, utilizando una estrategia innovadora que va más allá de la simple automatización. Ante un documento de 900 páginas, sin estructura estandarizada y con una fecha límite inminente, el desafío era monumental: ¿podía la inteligencia artificial acelerar el proceso sin sacrificar la precisión, fundamental en el ámbito fiscal?

Intuit: IA Acelera Código Fiscal, Modelo Adaptable

La solución de Intuit no es solo una historia de impuestos, sino un modelo de flujo de trabajo replicable. Combinaron herramientas de IA comerciales, un lenguaje de programación propietario específico del dominio y un marco de pruebas unitarias personalizado. Este enfoque permitió al equipo resumir y conciliar las diferentes versiones del OBBB (Cámara de Representantes y Senado) en cuestión de horas, identificando las provisiones relevantes para sus clientes incluso antes de que el IRS publicara los formularios oficiales. Modelos como ChatGPT y otros LLM generales fueron clave en esta fase de análisis y filtrado de provisiones.

El verdadero reto surgió al pasar del análisis a la implementación en el motor de cálculo de TurboTax, que utiliza un lenguaje propietario. Aquí, herramientas como Claude demostraron ser cruciales para traducir el texto legal a la sintaxis específica de Intuit y mapear las dependencias con el código existente, minimizando el riesgo de errores. Para asegurar la precisión casi perfecta exigida, Intuit desarrolló dos herramientas internas: una que genera automáticamente las pantallas del producto TurboTax a partir de los cambios en la ley, y un marco de pruebas unitarias avanzado que no solo indica fallos, sino que identifica el segmento de código responsable y permite correcciones inmediatas dentro del mismo marco. Estos desarrollos son directamente aplicables a cualquier equipo que trabaje en industrias reguladas, como salud, servicios financieros o legal, que enfrenten documentos complejos, plazos ajustados y requisitos de alta precisión.

Fuente Original: https://venturebeat.com/data/intuit-compressed-months-of-tax-code-implementation-into-hours-and-built-a

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT