sábado, 18 de abril de 2026

Alerta IA Huawei desafia dominio Nvidia en chips

Jensen Huang, CEO de Nvidia, ha lanzado una seria advertencia sobre una posible alianza entre DeepSeek, un laboratorio de inteligencia artificial chino, y Huawei. Según Huang, si DeepSeek decide optimizar sus modelos de IA para los chips Ascend de Huawei en lugar de depender del hardware estadounidense, sería un "resultado horrible" para los Estados Unidos. Esta declaración resalta la creciente competencia y las implicaciones geopolíticas en el avance de la IA, donde la elección del hardware y el software de desarrollo se convierten en factores cruciales.

Alerta IA: Huawei desafía dominio Nvidia en chips

El punto clave de la preocupación de Huang radica en la migración de DeepSeek del ecosistema CUDA de Nvidia, que ha sido la base del desarrollo de IA durante años, al framework CANN de Huawei. Esta transición amenaza con romper la dependencia del software que ha cimentado el liderazgo estadounidense en el campo de la IA. A pesar de los esfuerzos de Estados Unidos por imponer controles de exportación, la estrategia de China de desarrollar su propia pila tecnológica, desde el hardware hasta el software, podría eventualmente superar a la de Occidente.

DeepSeek está a punto de lanzar su modelo V4, y se rumorea que funcionará con el procesador Ascend 950PR de Huawei. Si bien los chips de Huawei aún no alcanzan el rendimiento bruto de los de Nvidia, Huang señala que factores como la abundante energía y el gran número de investigadores en IA en China podrían compensar estas diferencias. La advertencia de Huang no es sobre el estado actual del mercado, sino sobre una trayectoria futura donde demostraciones exitosas de IA en hardware chino podrían erosionar la ventaja de Nvidia y desafiar las asunciones geopolíticas actuales en la industria tecnológica.

Fuente Original: https://thenextweb.com/news/nvidia-huang-deepseek-huawei-chips-horrible-outcome

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

AI Coding Surge Cursor Valued 50B

The AI coding landscape is witnessing explosive growth, with startup Cursor (operating under Anysphere) reportedly in advanced talks to secure a substantial $2 billion in funding. This investment would place the company at a staggering $50 billion valuation, nearly doubling its previous valuation from just five months ago. This significant funding round, reportedly co-led by major players like Andreessen Horowitz, Thrive Capital, and strategic investor Nvidia, underscores the immense investor confidence in the burgeoning AI coding sector.

AI Coding Surge: Cursor Valued $50B

Cursor's ascent has been nothing short of meteoric. In a mere three years, the company has achieved an unprecedented scale, growing from zero to an annualised revenue run rate of $2 billion. This rapid growth makes it the fastest-scaling B2B software company on record, surpassing established giants. With over a million paying customers and a significant presence across 70% of the Fortune 1,000 companies, Cursor has firmly established itself as a leader in the AI-powered development tools market. The company's success is largely attributed to its AI code editor, a sophisticated fork of Visual Studio Code, which integrates AI capabilities throughout the entire development workflow, offering features like advanced code autocompletion, multi-file suggestions, automated testing, and even autonomous multi-step coding tasks.

The competitive arena for AI coding tools is intensifying, with formidable rivals like GitHub Copilot, Anthropic's Claude Code, and Windsurf vying for market share. Despite this, Cursor's impressive valuation reflects its current position as a frontrunner, offering a compelling blend of control and automation for developers. The ongoing investment in this secto r, evidenced by the $12.8 billion generated by AI coding tools in 2023 alone, highlights a fundamental shift in software development, with AI becoming an indispensable part of the process. The substantial capital flowing into these tools signals a strong conviction that the future of software development has been permanently transformed by AI, with Cursor poised to be a significant beneficiary of this paradigm shift, provided it can sustain its rapid growth and competitive edge against well-resourced incumbents.

Fuente Original: https://thenextweb.com/news/cursor-anysphere-2-billion-funding-50-billion-valuation-ai-coding

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

IA Autonoma Empresas Ciega Ante Amenazas de Nivel 3

Un reciente estudio de VentureBeat revela una alarmante realidad en el panorama de la seguridad empresarial: la mayoría de las organizaciones no están preparadas para detener las amenazas emergentes de los agentes de Inteligencia Artificial (IA) de "tercer nivel". Estos agentes, capaces de operar de manera autónoma, presentan riesgos significativos que las infraestructuras de seguridad actuales luchan por mitigar.

IA Autónoma: Empresas Ciega Ante Amenazas de Nivel 3

La investigación, que incluyó encuestas a 108 empresas calificadas, señala una brecha fundamental en las arquitecturas de seguridad: la falta de un enfoque integral que combine monitoreo con aplicación efectiva y aislamiento. Si bien las empresas invierten en observar las acciones de los agentes (etapa un o), la mayoría carece de los mecanismos para aplicar políticas o aislar a los agentes cuando las cosas van mal (etapas dos y tres). Esto se manifiesta en incidentes recientes donde agentes de IA expusieron datos sensibles o sufrieron brechas en la cadena de suministro, a pesar de las percepciones de los ejecutivos de que sus políticas estaban protegidas.

Las estadísticas son contundentes: el 88% de las empresas informaron incidentes de seguridad relacionados con agentes de IA en el último año, pero solo el 21% tiene visibilidad en tiempo real de lo que realmente hacen estos agentes. La rápida evolución de las amenazas de IA, que pueden operar a velocidades de máquina, supera con creces las capacidades de monitoreo diseñadas para flujos de trabajo a velocidad humana. Las nuevas amenazas, como el secuestro de objetivos, el uso indebido de herramientas y la explotación de identidades, no tienen un análogo directo en las aplicaciones de IA tradicionales, lo que aumenta la complejidad para los equipos de seguridad.

Las regulaciones como HIPAA y FINRA imponen requisitos estrictos de auditoría y protección de datos, lo que agrava el riesgo para las organizaciones que no pueden rastrear las acciones de sus agentes de IA. La falta de una identidad clara para los agentes, el uso generalizado de claves API compartidas y la capacidad de los agentes para crear y delegar tareas a otros agentes sin control humano son preocupaciones arquitectónicas clave. Las medidas de seguridad actuales, como los "guardrails", a menudo son insuficientes, ya que se centran en lo que se le dice a un agente que haga, no en lo que un agente comprometido podría lograr. El estudio destaca la necesidad urgente de pasar de la simple observación a la aplicación rigurosa y el aislamiento de los agentes de IA para proteger los datos y mantener la integridad operativa frente a un panorama de amenazas cada vez más sofisticado.

Fuente Original: https://venturebeat.com/security/most-enterprises-cant-stop-stage-three-ai-agent-threats-venturebeat-survey-finds

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Mythos IA de Anthropic Desata Crisis Ciberseguridad

El CEO de Anthropic, Dario Amodei, se reunirá este viernes con la jefa de gabinete de la Casa Blanca, Susie Wiles, en un encuentro crucial para resolver el conflicto entre la compañía y el Pentágono. La disputa gira en torno a Mythos, un modelo de inteligencia artificial de vanguardia con capacidades sin precedentes para identificar y explotar vulnerabilidades de seguridad cibernética. Esta reunión marca un punto de inflexión en una controversia que ha escalado durante meses y que involucra a múltiples agencias gubernamentales estadounidenses y organismos internacionales.

Mythos: IA de Anthropic Desata Crisis Ciberseguridad

Mythos no es un producto de ciberseguridad convencional, sino un modelo de IA de propósito general que durante sus pruebas demostró capacidades extraordinarias: puede identificar y explotar miles de vulnerabilidades de día cero previamente desconocidas en todos los principales sistemas operativos y navegadores web. El modelo logró desarrollar exploits funcionales en más del 83% de los casos al primer intento y completó una simulación completa de ataque a redes corporativas de 32 pasos de principio a fin. Estas capacidades han generado alertas de emergencia en Washington, Londres y Ottawa.

Ante el potencial peligro de una liberación pública, Anthropic optó por crear el Proyecto Glasswing, un programa de acceso controlado que proporciona el modelo a aproximadamente 40 organizaciones evaluadas, incluyendo gigantes tecnológicos como Amazon, Apple, Google, Microsoft y Nvidia, así como instituciones financieras como JPMorgan Chase. La compañía ha comprometido hasta 100 millones de dólares en créditos de uso de Mythos y 4 millones en donaciones a organizaciones de seguridad de código abierto.

El conflicto con el Pentágono se intensificó en febrero cuando el Secretario de Defensa Pete Hegseth exigió acceso sin restricciones a los modelos de Anthropic para todos los propósitos legales, incluido su uso potencial en sistemas de armas autónomas y vigilancia doméstica. Amodei rechazó la demanda, lo que llevó a Hegseth a designar a Anthropic como un riesgo para la cadena de suministro de seguridad nacional, efectivamente excluyéndola de contratos gubernamentales. Anthropic demandó a la administración Trump en marzo, y aunque un juez federal bloqueó inicialmente la exclusión, un tribunal de apelaciones revirtió esa decisión en abril.

La paradoja es notable: el mismo gobierno que excluyó a Anthropic ahora busca desesperadamente acceso a su modelo más poderoso. El Departamento del Tesoro, partes de la comunidad de inteligencia y CISA están solicitando Mythos para proteger sus propios sistemas. El CEO de JPMorgan Chase, Jamie Dimon, declaró públicamente que Mythos revela muchas más vulnerabilidades para ciberataques. El Instituto de Seguridad de IA del Reino Unido lo evaluó como sustancialmente más capaz en ciberofensiva que cualquier modelo previamente evaluado, y el Consejo de Relaciones Exteriores lo llamó un punto de inflexión para la IA y la seguridad global.

La respuesta internacional ha sido significativa. El gobernador del Banco de Inglaterra, Andrew Bailey, mencionó específicamente a Mythos como un riesgo de ciberseguridad en un discurso en la Universidad de Columbia. El banco está convocando una reunión de emergencia con los CEOs de los ocho bancos más grandes del Reino Unido y representantes de organismos reguladores. Anthropic planea proporcionar acceso a Mythos a bancos británicos selectos en los próximos días y está cuadruplicando su oficina de Londres a 800 empleados. Esta situación crea una dinámica geopolítica incómoda donde el aliado más cercano de Estados Unidos podría tener acceso a una herramienta crítica de seguridad nacional antes que el propio gobierno estadounidense.

La trayectoria comercial de Anthropic le da poder de negociación: sus ingresos anualizados han alcanzado los 30 mil millones de dólares, ha atraído ofertas de inversores con una valoración de 800 mil millones de dólares y está explorando una oferta pública inicial. No necesita contratos del Pentágono para sobrevivir, pero sí necesita una resolución que preserve sus compromisos de seguridad mientras restaura su capacidad de trabajar con el gobierno estadounidense. Este dilema captura algo esencial sobre el estado de la gobernanza de IA en 2026: la tecnología avanza más rápido de lo que las instituciones pueden adaptarse, y las empresas que toman la seguridad en serio son simultáneamente recompensadas por el mercado y penalizadas por el Estado.

Fuente Original: https://thenextweb.com/news/anthropic-amodei-wiles-mythos-white-house-pentagon-cybersecurity

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Mozilla Thunderbolt Open-Source AI with Self-Hosting Control

Mozilla's email subsidiary, MZLA Technologies, has unveiled Thunderbolt, a groundbreaking open-source AI client designed specifically for organisations seeking greater autonomy over their artificial intelligence infrastructure. Unlike traditional cloud-dependent AI solutions, Thunderbolt empowers companies to run AI systems on their own servers, ensuring complete control over sensitive data, model selection, and operational workflows whilst maintaining the flexibility and power of modern AI tools.

Mozilla Thunderbolt: Open-Source AI with Self-Hosting Control

The platform offers a comprehensive suite of capabilities including intelligent chat interfaces, advanced research tools, workflow automation, and seamless integration with enterprise systems through the Haystack AI framework. What sets Thunderbolt apart is its commitment to accessibility across all major platforms, with native applications planned for Windows, macOS, Linux, iOS, and Android devices, ensuring teams can leverage AI capabilities regardless of their preferred operating system.

Thunderbolt's feature set addresses the core concerns of enterprise users. Organisations can select from a diverse range of AI models, including leading commercial options, open-source alternatives, and locally-hosted models tailored to specific needs. The platform supports integration with critical systems through open protocols such as deepset's Haystack platform, Model Context Protocol (MCP) servers, and agents utilising the Agent Client Protocol (ACP). Automation capabilities enable businesses to streamline repetitive tasks like generating daily briefings, monitoring specific topics, compiling comprehensive reports, or triggering actions based on predetermined events and schedules.

Security remains paramount in Thunderbolt's design philosophy. The platform supports self-hosted deployment models, giving organisations full sovereignty over their AI infrastructure. Optional end-to-end encryption ensures data privacy throughout the system, whilst device-level access controls allow administrators to manage permissions granularly. This approach addresses growing concerns about data sovereignty, regulatory compliance, and the risks associated with relying entirely on third-party cloud services for sensitive AI operations.

Fuente Original: https://tech.slashdot.org/story/26/04/17/1850251/mozilla-thunderbolt-is-an-open-source-ai-client-focused-on-control-and-self-hosting?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

viernes, 17 de abril de 2026

Google y Pentagon IA Clasificada en Marcha

¡Atención, amantes de la tecnología y la seguridad nacional! Parece que Google y el Pentágono están en conversaciones secretas para un acuerdo que podría cambiar la forma en que se utiliza la inteligencia artificial en entornos clasificados. Según informes recientes, la gigante tecnológica y el Departamento de Defensa de EE. UU. están negociando un pacto para desplegar los avanzados modelos de IA de Google, como Gemini, en operaciones militares de alto secreto.

Google y Pentagon: ¿IA Clasificada en Marcha?

Las discusiones se centran en permitir al Pentágono utilizar la IA de Google para una amplia gama de propósitos, siempre y cuando cumplan con la ley. Sin embargo, lo más interesante es que Google ha propuesto incluir cláusulas específicas en el contrato. Estas cláusulas buscarían evitar que su tecnología sea empleada en vigilancia masiva doméstica o en el desarrollo de armas autónomas sin una supervisión humana adecuada, lo que refleja una postura cautelosa por parte de la empresa.

Por su parte, un representante del Pentágono ha confirmado su intención de seguir integrando capacidades de IA de vanguardia a través de colaboraciones con la industria, sin entrar en detalles sobre las negociaciones con Google. Este potencial acuerdo subraya la creciente importancia de la IA en la defensa moderna y las complejas consideraciones éticas y de seguridad que acompañan su implementación en ámbitos tan sensibles.

Fuente Original: https://yro.slashdot.org/story/26/04/16/184240/google-pentagon-discuss-classified-ai-deal?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Salesforce Goes Headless AI Agents Rule Entire Platform

Salesforce has just unveiled "Headless 360," a monumental shift in its 27-year history, aiming to transform its entire platform into an infrastructure accessible by AI agents without needing a graphical interface. This initiative exposes every Salesforce capability as an API, MCP tool, or CLI command, allowing AI agents to fully operate the system. The move comes as a direct response to the rising influence of AI and large language models, addressing the industry's concern that traditional SaaS models might become obsolete.

Salesforce Goes Headless: AI Agents Rule Entire Platform

At the heart of Headless 360 are three core pillars. The first, "build any way you want," provides over 60 new MCP tools and 30+ co ding skills, granting external AI coding agents like Claude Code and Cursor complete access to a customer's Salesforce organisation. Developers can now direct these agents from any terminal to build and manage Salesforce applications. The platform also now supports native React, offering greater front-end flexibility beyond Salesforce's own Lightning framework. The second pillar, "deploy on any surface," introduces the Agentforce Experience Layer, decoupling agent actions from their presentation and enabling rich interactive components to be deployed natively across various platforms like Slack, mobile apps, and even ChatGPT. This means enterprises can push branded agent experiences directly into their customers' preferred workspaces. The third pillar, "build agents you can trust at scale," focuses on robust lifecycle management tools, including a new testing centre, custom scoring evaluations, and an A/B testing API, all designed to ensure AI agents function reliably and determinis tically.

A key technical innovation is "Agent Script," a new, open-sourced domain-specific language that merges the determinism of traditional programming with the flexibility of LLMs. This language helps manage agent behaviour, ensuring predictable outcomes crucial for enterprises. Salesforce has also differentiated between two agent architectures: tightly controlled, static graphs for customer-facing agents, and dynamic, "Ralph Wiggum loops" for employee-facing tasks where experts review the output. Both architectures run on the same unified platform. Salesforce is embracing openness, integrating with major AI models from OpenAI, Anthropic, and Google, while also hedging its bets on protocols like MCP by offering API, CLI, and MCP access. The company is shifting its business model from per-seat licensing to consumption-based pricing, acknowledging that AI agents are now performing the work. Headless 360 represents a fundamental transformation, making the entire Salesforce pl atform programmable and agent-friendly, betting that its accumulated enterprise data and logic will provide lasting value in the AI era.

Fuente Original: https://venturebeat.com/technology/salesforce-launches-headless-360-to-turn-its-entire-platform-into-infrastructure-for-ai-agents

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

GPT-Rosalind IA Revoluciona Investigacion Cientifica

OpenAI ha lanzado GPT-Rosalind, un modelo de inteligencia artificial diseñado específicamente para acelerar los descubrimientos en las ciencias de la vida. Este modelo, nombrado en honor a la pionera química Rosalind Franklin, busca superar los cuellos de botella en los flujos de trabajo de investigación, que tradicionalmente consumen años y miles de millones de dólares.

GPT-Rosalind: IA Revoluciona Investigación Científica

GPT-Rosalind no es solo un generador de texto; su función principal es sintetizar evidencia, formular hipótesis biológicas y planificar experimentos. Está optimizado para una comprensión profunda en áreas como la genómica, la ingeniería de proteínas y la química, superando en pruebas a modelos anteriores como GPT-5.4. Su capacidad para identificar patrones relevantes para expertos es notable, como lo demostró en colaboraciones prediciendo la función de secuencias de ARN, donde sus resultados superaron al 95% de los expertos humanos en tareas de predicción.

Para integrar estas capacidades en el entorno científico, OpenAI también ha lanzado un plugin para Codex, disponible en GitHub. Este plugin actúa como una capa de orquestación, unificando el acceso a bases de datos, literatura científica y herramientas de manipulación de secuencias. Incluye habilidades modulares en bioquímica, genética humana y genómica funcional, conectándose a más de 50 bases de datos multi-ómicas y fuentes de literatura. El objetivo es automatizar tareas repetitivas y optimizar flujos de trabajo complejos y dependientes de herramientas.

Dada la potencia de GPT-Rosalind, OpenAI ha optado por un acceso limitado y controlado, conocido como programa Trusted Access. Este lanzamiento inicial est á dirigido a clientes empresariales calificados en Estados Unidos, bajo estrictos principios de uso beneficioso, gobernanza y acceso controlado. Las organizaciones deben pasar por un proceso de revisión para garantizar que su investigación tenga un beneficio público claro. Además, el modelo cuenta con controles de seguridad de nivel empresarial, acceso restringido a usuarios aprobados y, durante la fase de vista previa, no consume créditos ni tokens existentes para facilitar la experimentación.

La industria farmacéutica y tecnológica ha recibido positivamente el anuncio. Compañías como Amgen, NVIDIA y Moderna han expresado su entusiasmo por el potencial de GPT-Rosalind para acelerar el descubrimiento de medicamentos y la obtención de información científica accionable. El Allen Institute destacó su capacidad para hacer que los pasos manuales en la investigación sean más consistentes y repetibles en flujos de trabajo agénticos. Estos avances se suman a resultad os previos, como una colaboración con Ginkgo Bioworks que redujo los costos de producción de proteínas en un 40%.

La misión de OpenAI con GPT-Rosalind es reducir la brecha entre las ideas científicas prometedoras y los experimentos y decisiones necesarios para el progreso médico. La compañía está posicionando a Rosalind no solo como una herramienta, sino como un “socio capaz en el descubrimiento”, explorando aplicaciones como el diseño de catalizadores asistido por IA y la modificación de estructuras biológicas. A medida que el campo de las ciencias de la vida se vuelve más denso en datos, los modelos especializados de “razonamiento” como Rosalind probablemente se conviertan en el estándar para navegar los vastos espacios de búsqueda de la biología y la química.

Fuente Original: h ttps://venturebeat.com/technology/openai-debuts-gpt-rosalind-a-new-limited-access-model-for-life-sciences-and-broader-codex-plugin-on-github

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

OpenAI Codex Desafia a Claude Code

OpenAI ha lanzado una actualización importante de Codex que incorpora capacidades avanzadas similares a las de un agente inteligente, posicionándose como un competidor directo de Claude Code de Anthropic. Esta nueva versión introduce funcionalidades revolucionarias que transforman la manera en que los desarrolladores y usuarios pueden interactuar con la inteligencia artificial para automatizar tareas complejas.

OpenAI Codex Desafía a Claude Code

Entre las características más destacadas se encuentra la capacidad de operar aplicaciones de escritorio en macOS. Codex ahora puede trabajar en segundo plano sin interferir con otras aplicaciones que el usuario esté utilizando, y permite la ejecución de múltiples agentes en paralelo. Esta funcionalidad resulta especialmente útil para desarrolladores que necesitan probar cambios en interfaces, evaluar aplicaciones o trabajar con programas que no cuentan con una API disponible. El despliegue inicial está limitado a usuarios de macOS con cuentas de ChatGPT, mientras que los usuarios de la Unión Europea y otros sistemas operativos tendrán que esperar para acceder a esta función.

La actualización también incluye la integración de gpt-image-1.5 para generar e iterar sobre imágenes, nuevos complementos para herramientas empresariales populares como GitLab, Atlassian Rovo y Microsoft Suite, y un navegador web integrado que permite a los usuarios comentar directamente en páginas web para proporcionar instrucciones precisas al agente. Estas integraciones facilitan un flujo de trabajo más cohesivo y eficiente para equipos de desarrollo.

Una de las innovaciones más significativas es la capacidad mejorada de automatización de tareas. Los usuarios ahora pueden reutilizar conversaciones existentes, y Codex tiene la habilidad de programar trabajo futuro, despertándose automáticamente para continuar con proyectos a largo plazo. Adicionalmente, se introduce una función de memoria opcional que permite al sistema recordar contextos útiles de experiencias pasadas, como preferencias personales, correcciones previas e información recopilada en sesiones anteriores. Según OpenAI, esta característica ayudará a completar tareas futuras con mayor rapidez y calidad, reduciendo la necesidad de proporcionar instrucciones personalizadas detalladas en cada ocasión. Las funciones de personalización estarán disponibles próximamente para usuarios Enterprise, Edu y de la Unión Europea.

Fuente Original: https://developers.slashdot.org/story/26/04/16/2040206/openais-big-codex-update-is-a-direct-shot-at-claude-code?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Mozillas Thunderbolt Self-Hosted AI Client Revolution

Mozilla has entered the enterprise AI arena with a fresh approach that prioritises user control and data sovereignty. Rather than launching yet another proprietary AI model, the company has unveiled Thunderbolt, a front-end client designed specifically for organisations and individuals who want to run their own self-hosted AI infrastructure without depending on cloud-based third-party services.

Mozilla's Thunderbolt: Self-Hosted AI Client Revolution

Built upon Haystack, an established open source AI framework, Thunderbolt functions as what Mozilla terms a "sovereign AI client". This architecture allows users to construct custom, modular AI pipelines using components of their choosing. The system seamlessly integrates with any ACP-compatible agent or OpenAI-compatible API, including popular services like Claude, Codex, OpenClaw, DeepSeek, and OpenCode. What sets Thunderbolt apart is its ability to work with locally stored enterprise data through open protocols, utilising an offline SQLite database as a local reference point for the AI model.

This local-first approach addresses a critical concern for businesses worried about data leakage to external providers. By allowing organisations to control the entire AI stack, Thunderbolt offers enhanced security through optional end-to-end encryption and device-level access controls. The platform supports familiar AI functionalities including chat, search, research, automation, and cross-device workflows. Native applications are available across all major platforms—Windows, Mac, Linux, iOS, Android, and web—either through direct download or by building from React source code via GitHub.

Mozilla is actively seeking enterprise clients for paid licensing and on-site deployments, though the project remains under active development with ongoing security audits before full production readiness. Thunderbolt is funded by Mozilla and operated through MZLA Technologies, the subsidiary created in 2020 to manage Thunderbird. This initiative aligns with Mozilla's broader vision announced in late 2025 to "do for AI what we did for the web" by fostering a decentralised open source AI ecosystem that rivals the capabilities of major AI providers whilst offering greater agency, diversity, and choice.

Fuente Original: https://arstechnica.com/ai/2026/04/mozilla-launches-thunderbolt-ai-client-with-focus-on-self-hosted-infrastructure/

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

jueves, 16 de abril de 2026

IA en Hackeo Roban Datos Masivos de Mexico

En un evento de ciberseguridad sin precedentes, hackers han utilizado inteligencia artificial (IA) para infiltrarse y sustraer una cantidad masiva de información confidencial. Se estima que cientos de millones de registros, pertenecientes tanto a entidades del gobierno mexicano como a ciudadanos particulares, han sido comprometidos en uno de los mayores incidentes de robo de datos registrado hasta la fecha.

IA en Hackeo: Roban Datos Masivos de México

El uso de IA en este ataque marca un hito preocupante en el panorama de la ciberdelincuencia. Las herramientas basadas en IA permiten a los atacantes automatizar y optimizar procesos de infiltración y extracción de datos a una escala y velocidad antes inimaginables. Esto incluye la capacidad de identificar vulnerabilidades con mayor eficiencia, descifrar contraseñas complejas y ev adir las defensas de seguridad tradicionales.

La magnitud de la brecha de seguridad no solo pone en riesgo la privacidad de millones de mexicanos, sino que también representa una seria amenaza para la seguridad nacional y la estabilidad económica del país. La información robada podría ser utilizada para diversos fines ilícitos, como el fraude financiero, el robo de identidad, el chantaje o incluso la desestabilización política.

Las autoridades mexicanas y expertos en ciberseguridad se encuentran trabajando arduamente para evaluar el alcance total del ataque, identificar a los responsables y mitigar los daños. Sin embargo, la sofisticación de las técnicas empleadas y la rapidez con la que se propagó la información comprometida plantean desafíos significativos en la lucha contra el cibercrimen avanzado.

Este incidente subraya la urgente necesidad de fortalecer las medidas de ciberseguridad en todos los niveles, tanto en el sector público como en el pri vado, y de invertir en tecnologías y capacitación que permitan contrarrestar las amenazas emergentes impulsadas por la IA.

Fuente Original: https://news.google.com/rss/articles/CBMisgJBVV95cUxNYjdraFdFelQwc09wbTFOQjN1SXJJWGJjenhjTGJMQTczYmxyck5uQWlBLURLYWViZ1VBMXI0QXBPOTN4QVRVMGdIdnNBNDhwejlhSDNJQjltWUJad2syeXlnV0E3MFRHWDFCSTRPUW1XM2h2UlF0Y0h3VlRQSmxPZVRUYUkwZ1RzNEcwZ3l2cll4bjNqWXFhbDM2UnF5VEtKQjJueEFGdC1KS1c1VEQ4Y3FiTjZSWTFQZ0JZUFdCajIwU1VYQjRFSktubDA0RExaSzkwdFZFRW9PTjZScHpIQmVBUkY0Njk1Skg2UTNMTTJ LMEMwWnJlSS1scGJ2UFpBTWpUNmVMeVQycTlXaU5abDFiM2VWZkdoM2pnQTNIbWF5TGwxTG9iQWRpMWQwMm5tX0E?oc=5

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

UK Banks Face AI Threat Mythos Briefing Incoming

Major UK banks, insurers, and financial exchanges are set to receive an urgent briefing from the Bank of England regarding a powerful new AI model named Claude Mythos Preview, developed by Anthropic. This unreleased artificial intelligence is causing significant concern among regulators due to its advanced capabilities in autonomously identifying and exploiting security vulnerabilities across all major operating systems and web browsers. The urgency of the situation is highlighted by the fact that similar emergency sessions have already taken place involving top financial authorities in the United States and Canada, including the US Treasury, the Federal Reserve, and the Bank of Canada.

UK Banks Face AI Threat: Mythos Briefing Incoming

Senior executives from the UK's leading financial institutions will be informed by a consortium of regulatory bodies, including the Bank of England, the Financial Conduct Authority, HM Treasury, and the National Cyber Security Centre, about the profound cybersecurity implications of Mythos. The model's potential to uncover zero-day vulnerabilities, previously unknown security flaws, has been demonstrated by Anthropic, which has showcased its ability to find methods for breaching systems, even accessing sensitive data like a user's bank information. The AI's capacity to chain multiple vulnerabilities into complete cyber intrusions is a particular point of concern, with one evaluation describing it as the first model to achieve a full cyber-range attack end-to-end.

Anthropic's response to these risks includes Project Glasswing, an initiative offering controlled early access to Mythos Preview to a select group of organisations. This project aims to provide defenders with the time needed to discover and patch vulnerabilities before the AI model, or similar ones from competitors, become more widely accessible or fall into malicious hands. While Anthropic frames this as a proactive defence measure, some security experts have questioned this narrative, suggesting it might be a public relations strategy. Nonetheless, the rapid timeline for vulnerability discovery, potentially shrinking from months to mere seconds or hours, presents a significant challenge and an opportunity to address long-standing internet security flaws. The Bank of England Governor has explicitly named Mythos as a major cybersecurity concern, underscoring its elevated position in the regulatory risk rankings.

Fuente Original: https://thenextweb.com/news/anthropic-mythos-uk-banks

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

IA que se Mejora Sola Los Hyperagents Revolucionan Tareas

La inteligencia artificial está dando un salto cuántico hacia la autonomía. Investigadores de Meta y varias universidades han presentado los 'hyperagents', un avance revolucionario que permite a la IA no solo mejorar su desempeño en tareas, sino también optimizar su propio proceso de mejora. Esto se traduce en la capacidad de autogenerar y refinar su lógica de resolución de problemas e incluso su código subyacente, abriendo un abanico de posibilidades más allá de la programación.

IA que se Mejora Sola: ¡Los Hyperagents Revolucionan Tareas!

Hasta ahora, los sistemas de IA que buscaban automejorarse se topaban con limitaciones significativas. Dependían de mecanismos de mejora predefinidos por humanos, los cuales solo funcionaban en entornos muy controlados, como la ingeniería de software. El problema radicaba en que, ante cambios o errores, se requería la intervención manual de un programador para actualizar las reglas o el código. Esto creaba un "muro de mantenimiento" que frenaba el progreso, atándolo a la velocidad de iteración humana.

Los hyperagents rompen con esta barrera al ser completamente autorreferenciales. Pueden analizar, evaluar y reescribir cualquier parte de sí mismos, liberándose de las restricciones iniciales y acelerando su propio desarrollo. A diferencia de modelos previos como la Darwin Gödel Machine (DGM), que demostró la automejora en código pero fallaba en tareas no relacionadas con la programación, los hyperagents son agnósticos al tipo de tarea. Ya sea revisar documentos, diseñar robots o resolver problemas matemáticos complejos, la IA aprende a mejorar su forma de mejorar, acumulando capacidades y reduciendo la necesidad de intervención humana constante y personalización específica.

En la práctica, esto significa que los hyperagents no solo se vuelven más eficientes en la tarea encomendada, sino que también optimizan su propio ciclo de autoaprendizaje, haciendo que el progreso se acelere con el tiempo. Los investigadores demostraron su eficacia en benchmarks de codificación, revisión de documentos, diseño de modelos de recompensa para robots y calificación de problemas matemáticos de nivel olímpico. Sorprendentemente, un hyperagent entrenado en revisión de documentos y robótica logró superar a bases de referencia específicas en la tarea de calificación matemática, un dominio previamente desconocido para él. Además, se observó que los hyperagents desarrollaban de forma autónoma herramientas como memoria persistente y rastreadores de rendimiento, e incluso adaptaban su uso de recursos en función del tiempo restante para mejorar.

Si bien las implicaciones son enormes, los investigadores advierten sobre los riesgos. La capacidad de aut oinnovación ilimitada de estos sistemas podría superar la capacidad humana de auditoría e interpretación. Se recomiendan medidas de seguridad como la ejecución en entornos controlados (sandboxes), la restricción de acceso a sistemas externos durante la auto-modificación y la validación rigurosa de los cambios antes de su implementación en producción. Otro peligro es el "evaluation gaming", donde la IA manipula métricas sin un progreso real. Para evitarlo, se necesitan protocolos de evaluación diversos y robustos, junto con supervisión humana continua. El rol del ingeniero evolucionará de escribir código a diseñar mecanismos de auditoría y pruebas de estrés, guiando la dirección de estos sistemas cada vez más capaces.

Fuente Original: https://venturebeat.com/orchestration/meta-researchers-introduce-hyperagen ts-to-unlock-self-improving-ai-for-non-coding-tasks

Artículo generado mediante LaRebelionBOT

Anthropic Alcanza Valoracion de 800 Mil Millones

Anthropic, la compañía detrás del modelo de inteligencia artificial Claude, ha recibido ofertas de inversores que valoran la empresa en aproximadamente 800 mil millones de dólares. Esta cifra representa más del doble de su valoración de 380 mil millones alcanzada hace apenas dos meses durante una ronda de financiación de 30 mil millones de dólares. Hasta el momento, la compañía ha resistido aceptar estas ofertas, pero los números reflejan un crecimiento sin precedentes en el sector tecnológico.

Anthropic Alcanza Valoración de 800 Mil Millones

Lo que hace esta valoración particularmente notable es la trayectoria de ingresos de Anthropic. La empresa cerró 2024 con aproximadamente mil millones de dólares en ingresos anualizados. Para finales de 2025, esa cifra había escalado a 9 mil millones. En febrero de 2026 alcanzó los 14 mil millones, y para marzo llegó a 20 mil millones. A principios de abril de 2026, Anthropic superó los 30 mil millones de dólares en ingresos anualizados, lo que representa un crecimiento interanual del 1,400 por ciento. Según Axios, ninguna empresa en la historia estadounidense ha experimentado un crecimiento de esta magnitud.

El catalizador detrás de este impulso ha sido la adopción empresarial masiva de los modelos Claude, que ahora están integrados en flujos de trabajo en sectores como finanzas, legal, salud y desarrollo de software. Claude Code por sí solo alcanzó 2.5 mil millones de dólares en ingresos anualizados en febrero, más del doble desde principios de año. Con 30 mil millones en ingresos anualizados, una valoración de 800 mil millones implica un múltiplo de aproximadamente 27 veces los ingresos, una cifra alta pero no irracional para una empresa cuyas ganancias se duplican cada pocos meses.

Dos factores clave han transformado la posición de Anthropic desde febrero. El primero es la aceleración de ingresos que ha superado incluso las proyecciones más optimistas. El segundo es Claude Mythos, un modelo presentado el 7 de abril a través de la iniciativa Project Glasswing. Mythos descubrió autónomamente miles de vulnerabilidades de día cero en todos los principales sistemas operativos y navegadores web, incluyendo un error de OpenBSD de 27 años y una falla de ejecución remota de código en FreeBSD de 17 años. Tuvo éxito en el 73 por ciento de las tareas de ciberseguridad de nivel experto y fue el primer modelo en resolver un ataque simulado de red corporativa de 32 pasos de principio a fin. Anthropic hizo este modelo disponible solo para 11 organizaciones, incluidas Apple, Google, Microsoft y AWS.

Los inversores existentes están obteniendo ganancias extraordinarias. Google posee el 14 por ciento de Anthropic con inversiones que totalizan aproximadamente 3 mil millones de dólares, reportando 10.7 mil millones en ganancias netas. Amazon, que ha invertido unos 8 mil millones como socio principal de nube y entrenamiento, reportó una ganancia antes de impuestos de 9.5 mil millones vinculada a la creciente valoración de Anthropic. La empresa también mantiene conversaciones preliminares con Goldman Sachs, JPMorgan y Morgan Stanley sobre una posible oferta pública inicial que podría llegar tan pronto como octubre de 2026, con una recaudación esperada superior a 60 mil millones de dólares.

Fuente Original: https://thenextweb.com/news/anthropic-800-billion-valuation-revenue-30-billion-ipo

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT