lunes, 27 de abril de 2026

Musk vs OpenAI Duelo Legal por el Futuro de la IA

La inteligencia artificial está en el centro de una batalla legal sin precedentes. Elon Musk, figura clave en los inicios de OpenAI, ha decidido demandar a la organización que cofundó, alegando que esta ha traicionado sus principios fundacionales. Musk sostiene que OpenAI, bajo el liderazgo de Sam Altman, ha pasado de ser una entidad sin fines de lucro dedicada al beneficio de la humanidad a convertirse en una empresa impulsada por el lucro, aliándose con gigantes tecnológicos como Microsoft.

Musk vs. OpenAI: Duelo Legal por el Futuro de la IA

La demanda se centra en la supuesta desviación de la misión original de OpenAI, que era desarrollar IA de manera abierta y accesible para el bien común. Musk argumenta que la creciente exclusividad y las ambiciones comerciales de OpenAI, especialmente su colaboración con Microsoft y la búsqueda de beneficios económicos, van en contra del espíritu con el que se creó la compañía. La disputa pone de manifiesto las tensiones inherentes al rápido avance de la IA y el debate sobre quién debe controlar y beneficiarse de esta tecnología transformadora.

Este enfrentamiento legal no solo es significativo por las personalidades involucradas, sino también por las implicaciones que podría tener en el desarrollo futuro de la inteligencia artificial. La resolución de este caso podría sentar un precedente sobre la propiedad intelectual, la ética en la investigación de IA y el equilibrio entre la innovación comercial y el acceso público a tecnologías avanzadas. La comunidad tecnológica observa de cerca este duelo, que promete ser definitorio para el panorama de la IA.

Fuente Original: https://news.google.com/rss/articles/CBMi4AFBVV95cUxPaGtCQ0JxR3FuMDZFQ1RXd20yeHkyaEdmbUEyRV9CUE9oVHJnaVZka2Z1TXA3RW0wek1mX2VjLUQ2TTFlMml6MVZBSE5aaDBjamRRZktsd09mR20zazBPZHFlVXNOZTA1a184anFCSmU0ek9aZmV6dFFDeERvcG1MR25saTFkRmZwNndISWRuNC0yYU9SVWQ5VW1OVDdsa0UtT1VWeXpVYXpSTFc1WXAyd09wSnBXM3FJcE1Hd0dlazZMQ2ZTZWhMSHZVTl9LdVRJdkRSeVpIQk1jdlRiU3Zvaw?oc=5

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

DeepSeek Reduce Precios 75 y Desafia IA

DeepSeek ha lanzado una agresiva estrategia de precios que está sacudiendo la industria de la inteligencia artificial. La compañía china anunció un descuento promocional del 75% en su modelo DeepSeek-V4-Pro para desarrolladores, válido hasta el 5 de mayo de 2026. Simultáneamente, la empresa redujo los costos de caché en toda su suite de API a una décima parte de los niveles anteriores, con efecto inmediato. Este movimiento representa un desafío directo a los proveedores estadounidenses de IA como OpenAI, Google y Anthropic, intensificando una guerra de precios que DeepSeek inició en enero de 2025 con su modelo R1.

DeepSeek Reduce Precios 75% y Desafía IA

El contexto de precios es revelador. Incluso sin el descuento promocional, DeepSeek-V4-Pro ya costaba 0.145 dólares por millón de tokens de entrada y 3.48 dólares por millón de tokens de salida, precios inferiores a los de GPT-5.5 de OpenAI, Gemini 3.1 Pro de Google y Claude Opus 4.7 de Anthropic. Con el descuento del 75%, el precio de entrada se reduce a aproximadamente 0.036 dólares por millón de tokens, estableciendo un nuevo estándar de bajo costo en la industria. La variante Flash del modelo, más pequeña y rápida, también mantiene precios altamente competitivos que superan a alternativas como GPT-5.4 Mini y Claude Haiku 4.5.

La estrategia de DeepSeek es clara y multifacética. La disponibilidad de código abierto elimina completamente las barreras de acceso al modelo, mientras que los precios agresivos de la API eliminan las restricciones de costo para la implementación en producción. El modelo V4-Pro incluye una ventana de contexto de 1 millón de tokens, lo que lo hace viable para casos de uso empresarial que involucran grandes bases de código o documentos extensos. Además, se integra nativamente con frameworks de codificación agente dominantes como Claude Code, OpenClaw y OpenCode, facilitando la transición para desarrolladores que ya trabajan en el ecosistema de IA occidental.

El modelo V4-Pro, lanzado el viernes pasado, es un modelo de mezcla de expertos con 1.6 billones de parámetros totales y 49 mil millones de parámetros activos por tarea, convirtiéndose en el modelo de peso abierto más grande disponible actualmente. Su Arquitectura de Atención Híbrida está diseñada para mantener coherencia en contextos largos. Significativamente, está entrenado y optimizado para chips Ascend 950 de Huawei y hardware Cambricon, en lugar de GPUs de Nvidia, lo que permite construir y desplegar sistemas de IA sin depender exclusivamente de la tecnología estadounidense.

Este anuncio llega en un momento geopolítico tenso. La semana pasada, el Director de Política Científica y Tecnológica de la Casa Blanca, Michael Kratsios, acusó a entidades extranjeras, principalmente chinas, de realizar campañas a "escala industrial" para destilar modelos de IA de vanguardia de empresas estadounidenses. Aunque no mencionó directamente a DeepSeek, tanto Anthropic como OpenAI han acusado previamente a la empresa china de destilar sus modelos. La respuesta de DeepSeek tres días después del lanzamiento de V4 no fue abordar las acusaciones directamente, sino recortar precios aún más, un movimiento competitivo que también representa una declaración política sobre dónde cree la compañía que se decidirá finalmente la carrera de la IA.

Fuente Original: https://thenextweb.com/news/deepseek-v4-pro-price-cut-75-percent

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Google Uncovers AI Prompt Injection Attacks Online

Google's Threat Intelligence teams have conducted a comprehensive investigation into prompt injection attacks targeting AI agents as they browse the web. Analysing billions of pages from Common Crawl's public web repository, researchers discovered a concerning landscape of malicious attempts to manipulate AI systems, ranging from simple pranks to potentially dangerous commands.

Google Uncovers AI Prompt Injection Attacks Online

The study revealed several categories of prompt injection attacks. Some websites contained instructions attempting to vandalize users' machines, including commands designed to delete all files. Whilst researchers deemed such basic attacks unlikely to succeed, they represent a growing trend. Between November 2025 and February 2026, malicious prompt injections increased by 32%, signalling heightened interest in Indirect Prompt Injection (IPI) attacks amongst threat actors.

Amongst the examples discovered, researchers found websites using invisible text with transparent fonts to hide malicious prompts, instructing AI systems to ignore previous commands and behave erratically. Another site attempted to waste AI resources by streaming infinite text that never finished loading, potentially causing timeout errors. Some injections were more whimsical, asking AI to tell children's stories about flying squids or tweet like baby birds, likely experimental pranks by curious website authors.

Not all prompt injections were malicious. Google identified benign cases where website owners simply wanted to ensure AI summaries included relevant context for readers. However, researchers warned such techniques could easily become harmful if used to spread misinformation or redirect users to third-party sites. SEO manipulation emerged as another common use case, with businesses attempting to make AI assistants promote their services over competitors.

Perhaps most concerning were attempts at data exfiltration. A small number of prompts tried instructing AI to send sensitive information, including password files and SSH directory contents, along with system IP addresses. Fortunately, researchers noted they hadn't observed widespread deployment of sophisticated exfiltration techniques published by security researchers in 2025, suggesting attackers haven't yet scaled these methods. As AI systems become more capable and valuable targets, whilst threat actors increasingly automate operations with agentic AI, Google expects both the scale and sophistication of IPI attacks to grow significantly in the near future.

Fuente Original: https://it.slashdot.org/story/26/04/26/2345211/google-studies-prompt-injection-attacks-against-ai-agents-browsing-the-web?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

domingo, 26 de abril de 2026

DeepSeek Lanza IA de 16T Robo o Progreso en EEUU

La tecnología de inteligencia artificial avanza a pasos agigantados, y DeepSeek, una destacada empresa china, ha lanzado su modelo V4 con la asombrosa cifra de 1.6 billones de parámetros. Este hito tecnológico se ha logrado gracias a la utilización de los chips de Huawei, lo que subraya la creciente capacidad de China en el campo de la IA.

DeepSeek Lanza IA de 1.6T: ¿Robo o Progreso en EE.UU.?

Sin embargo, este lanzamiento coincide con un momento de gran tensión geopolítica. El gobierno de Estados Unidos ha intensificado sus acusaciones sobre robo de propiedad intelectual, señalando a DeepSeek y a otras empresas chinas de IA por supuestas prácticas ilícitas. Este escenario crea una dicotomía fascinante: por un lado, el progreso tecnológico que podría beneficiar a la humanidad; por otro, las preocupaciones sobre la comp etencia desleal y la seguridad nacional.

El modelo V4 de DeepSeek promete capacidades sin precedentes en el procesamiento del lenguaje natural y otras áreas de la IA. La elección de los chips de Huawei para potenciar este modelo no es casual, ya que representa la apuesta de China por desarrollar su propia infraestructura tecnológica de vanguardia, independientemente de las restricciones impuestas por Estados Unidos. La industria de la IA se encuentra en un punto de inflexión, donde la innovación y las disputas geopolíticas se entrelazan de manera inextricable. El futuro de la IA dependerá de cómo se gestionen estas tensiones y de si se logra un equilibrio entre la competencia y la colaboración global.

Fuente Original: https://news.google.com/rss/articles/CBMi9gFBVV95cUxObGdBd0NJQ0pTc29TOWhIXzZUR0xSQUlIWXd2NFJMYVZyMmhJMmRSaDF1NUE0Smtpa1VzWXpDSkp4RFN4ZlUwNlJySlowMXg1dVg4NVl3RWE1TDJOUE5ieDM0ODJfN2lOblotcm84YkNzV3h2YkpmX2pRLUc5R2dOZWlWSjZuQ2p6cWIxSU1qWWpweUVfdnlkbmx2V25ienNBSGhISEF3bzd3ek1WV2o3VWxENnRheTNLLVBXdDhzQlY3U0MtTzhQUjg3ZmNGcVNzdEtxem54QnY3cldhOE9QUDBZenJJemNXMTN5NWFUd2h0Qk9na0E?oc=5

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Colorado Protects Open Source in New Age Verification Law

Colorado's recent legislative move aims to tackle online age verification, but thankfully, it's not at the expense of the open-source community. A bill initially focused on requiring operating system providers and app stores to implement age-related signals has been amended to include crucial exemptions for open-source software.

Colorado Protects Open Source in New Age Verification Law

This updated legislation now explicitly exempts open-source operating systems, applications, code repositories, and containerised software distributions from its core requirements. This means that providers or developers distributing software under licenses that permit unrestricted copying, redistribution, and modification are no longer subject to the bill's age verification mandates. This broad wording effectively covers many popular Linux distributions and open-source applications, ensuring they can continue to operate without being bogged down by age-verification hurdles.

Furthermore, the amendment clarifies that applications hosted on free, public code repositories are not considered 'covered applications.' It also specifically excludes code repository providers like GitHub and GitLab, as well as containerised software distribution platforms such as Docker and Podman, from being classified as 'covered app stores.' This thoughtful exclusion prevents these vital collaborative platforms from being inadvertently ensnared by the bill's regulations, safeguarding the collaborative spirit of open-source development. While the legislative journey isn't entirely complete, this is a significant step towards protecting the open-source ecosystem in Colorado.

Fuente Original: https://yro.slashdot.org/story/26/04/25/2124221/colorado-adds-open-source-exemption-to-age-verification-bill?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

IA y Captchas Cognitivos El Nuevo Internet Agente

La reciente explosión de la inteligencia artificial (IA) ha dado lugar a un cambio de paradigma en internet, pasando de un enfoque centrado en el usuario ('Human First') a uno orientado a la automatización ('API First') y ahora a la era del 'MCP & Agentic First'. En esta nueva fase, la inteligencia artificial se convierte en el protagonista, utilizando interfaces de línea de comandos (CLI) y formatos de datos como JSON y Markdown para interactuar de manera eficiente con los Modelos de Lenguaje Grandes Multimodales (MM-LLMs). Sin embargo, esta transición presenta un desafío significativo: la persistencia de los captchas cognitivos, diseñados originalmente para humanos, que ahora deben ser superados por agentes de IA.

IA y Captchas Cognitivos: El Nuevo Internet Agente

Históricamente, el mundo del cibercrimen ha desarrollado soluciones sofisticadas para evadir los captchas. El artículo detalla cómo estas técnicas, que incluyen la resolución de captchas visuales, auditivos y de resolución de problemas mediante MM-LLMs como GPT-4o o Gemini, son aplicables para que los agentes de IA naveguen por internet de forma autónoma. A pesar de las salvaguardas incorporadas en muchos MM-LLMs para prevenir el uso indebido, como la negativa a resolver captchas directamente, el artículo sugiere que un 'jailbreak' sencillo, modificando el 'system prompt' o el enfoque de la tarea, puede ser suficiente para habilitar esta funcionalidad. El ejemplo de la selección de plazas de parking ilustra cómo un MM-LLM puede cometer errores ("hallucinations") si no se le guía adecuadamente, pero con instrucciones precisas, puede resolver estas tareas de manera efectiva, generando respuestas estructuradas para ser consumidas por agentes de IA.

La proliferación de bots en internet, que ya superan el 30% del tráfico HTTP global, subraya la urgencia de repensar la arquitectura de internet. Los captchas cognitivos, como barrera para la automatización, entran en conflicto directo con el avance del 'Agentic Internet'. El autor argumenta que la solución no radica en eliminar la IA, sino en adaptar las tecnologías existentes, como se ha hecho en el pasado con la evolución hacia internet móvil y las APIs. La revolución del 'Agentic Internet' se perfila como una transformación más profunda que las anteriores, donde los agentes de IA podrían llegar a dominar el tráfico en línea, alterando fundamentalmente la forma en que interactuamos con la red.

Fuente Original: http://www.elladodelmal.com/2026/04/agentic-internet-y-captchas-cognitivos.html

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Linux Ahora Corre en Windows 95 y 98

Un desarrollador de código abierto ha logrado una hazaña técnica impresionante al crear WSL9x, un proyecto que permite ejecutar Linux en versiones antiguas de Windows como Windows 95, Windows 98 y Windows Me. Esta iniciativa es una vuelta de tuerca irónica al Subsistema de Windows para Linux (WSL) que Microsoft introdujo en 2016 para las versiones modernas de su sistema operativo. La diferencia es que WSL9x hace posible que el kernel de Linux 6.19 funcione simultáneamente junto al kernel de Windows 9x en la misma máquina.

Linux Ahora Corre en Windows 95 y 98

La tecnología detrás de WSL9x es particularmente ingeniosa. El proyecto utiliza un controlador de dispositivo virtual que se encarga de la inicialización, carga el kernel desde el disco y gestiona el bucle de eventos para fallos de página y llamadas al sistema. Debido a que Windows 9x carece del soporte adecuado en su tabla de interrupciones para las interrupciones estándar de llamadas al sistema de Linux, WSL9x redirige estas llamadas a través del manejador de fallos. Además, incluye un pequeño programa DOS de 16 bits llamado wsl.com que captura la salida del terminal de Linux y la redirige a la ventana del símbolo del sistema de MS-DOS desde donde se ejecuta.

Lo más notable de este proyecto es que no requiere virtualización de hardware, lo que significa que puede ejecutarse en equipos extremadamente antiguos, incluso en procesadores i486. El desarrollador compartió en Mastodon que logró completar este proyecto justo a tiempo, antes de que se elimine el soporte para procesadores 486 del kernel de Linux. El código fuente de WSL9x está disponible bajo la licencia GPL-3 y el creador enfatiza orgullosamente que fue escrito sin ayuda de inteligencia artificial, destacando el valor del trabajo humano en el desarrollo de software.

Fuente Original: https://tech.slashdot.org/story/26/04/25/179232/open-source-developer-brings-linux-to-windows-95-windows-98-and-windows-me?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

FSF Condemns Responsible AI Licences as Unethical

The Free Software Foundation has taken a firm stance against so-called 'Responsible AI' Licences, declaring them both unethical and incompatible with software freedom. In a blog post published this week, the FSF's Licensing and Compliance Manager explicitly criticised RAIL licences, which attempt to restrict artificial intelligence and machine learning software from being used in potentially harmful applications such as surveillance and crime prediction.

FSF Condemns Responsible AI Licences as Unethical

Whilst these licences are marketed as addressing ethical concerns in AI development, the FSF argues they fundamentally miss the mark. The organisation points out that RAIL licences fail to require the essential components necessary for users to truly control their computing with machine learning tools. These missing elements include complete training inputs, training configuration settings, trained models, and crucially, the source code of software used for training, testing, and running machine learning-based tools.

According to the FSF, this means that machine learning systems under RAIL can still be unethical, as use restrictions alone do not prevent these licences from being wielded as a means of exercising power over users. The Foundation further contends that RAIL licences contribute to unethical marketing of machine learning, hiding behind morally-loaded restrictions that they claim to enforce but cannot truly guarantee.

Instead of restricting how software can be used, the FSF advocates for more effective approaches to addressing social injustice through technology. These include government and community support for freedom-respecting tools and services, releasing programmes under strong copyleft licences, and entrusting copyrights to organisations with the resources to enforce copyleft provisions. The Foundation maintains that software freedom must be defended rather than denied, arguing that greater availability of free software encourages collaboration on tools that avoid moral dangers whilst solving existing problems. By denying people the freedom to use particular programmes, RAIL licences ultimately prevent software from being used for the common good.

Fuente Original: https://news.slashdot.org/story/26/04/25/079207/free-software-foundation-says-responsible-ai-licenses-which-restrict-harmful-uses-are-unethical-and-nonfree?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

sábado, 25 de abril de 2026

Meta y Amazon chips de IA multas millonarias

Meta ha sellado un acuerdo multimillonario con Amazon Web Services (AWS) para incorporar millones de núcleos de procesadores Graviton5 de Amazon en sus centros de datos. Esta estrategia es crucial para potenciar las cargas de trabajo de IA "agentic", un tipo de inteligencia artificial que requiere una gran capacidad de procesamiento general, no solo de aceleradores de IA.

Meta y Amazon: chips de IA, multas millonarias

Los chips Graviton5, basados en arquitectura ARM y fabricados en un proceso de 3 nanómetros, serán alquilados por Meta a través de AWS. Estos procesadores se encargan de las tareas de inferencia y orquestación intensivas en CPU que sustentan el razonamiento en tiempo real y la ejecución de agentes de IA multi-paso. La magnitud de este acuerdo subraya la insaciable demanda de Meta por capacidad de cómpu to para IA, que supera lo que una sola cadena de suministro puede ofrecer, a pesar de su considerable presupuesto de capital (capex) de entre 115 y 135 mil millones de dólares.

Este pacto con Amazon, un competidor directo en publicidad, comercio y cada vez más en IA, es solo una pieza de una campaña de adquisición sin precedentes. Meta ha comprometido sumas masivas con otros gigantes tecnológicos como Nvidia (50 mil millones de dólares), AMD (60 mil millones de dólares), CoreWeave (35 mil millones de dólares) y Broadcom. La compañía está diversificando sus proveedores y estrategias, invirtiendo tanto en hardware externo como en el desarrollo de sus propios chips MTIA, para asegurar el acceso a la infraestructura computacional necesaria para su ambiciosa hoja de ruta en IA. La decisión de Meta de alquilar capacidad a AWS, incluso teniendo la opción de construir internamente, se debe a la urgencia de desplegar sus soluciones de IA agentic, que requieren una escala d e cómputo que excede la capacidad de construcción propia en los plazos requeridos. Esto refleja un mercado de chips de IA cada vez más fragmentado, donde los grandes actores se convierten tanto en competidores como en colaboradores, y donde la demanda supera con creces la oferta disponible.

Fuente Original: https://thenextweb.com/news/meta-amazon-graviton-chips-agentic-ai

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

AI Agents 85 Pilot 5 Production - Why Trust Lags

In the rapidly evolving world of artificial intelligence, a significant chasm exists between enterprises experimenting with AI agents and those ready to deploy them for critical tasks. While a staggering 85% of businesses are currently running AI agent pilot programs, a mere 5% have transitioned these agents into live production environments. This vast gap, as highlighted by Cisco's Chief Product Officer Jeetu Patel, boils down to a critical issue: trust. Without a robust trust architecture, the potential for AI agents to drive market dominance is hampered, potentially leading to business failure instead.

AI Agents: 85% Pilot, 5% Production - Why Trust Lags

Patel likens immature AI agents to teenagers – intelligent but lacking foresight and easily influenced, necessitating strong "guardrails" and "parenting." This analogy underscores the shift from information risk to action risk, where an AI agent's incorrect decision can have irreversible consequences, unlike a chatbot that might simply provide wrong information. The industry's struggle to bridge this pilot-to-production gap is rooted in the inherent unpredictability and potential for unintended actions by these sophisticated tools.

Cisco is actively addressing this trust deficit with a multi-pronged approach. At RSA Conference 2026, they unveiled tools like AI Defense Explorer Edition for red teaming, the Agent Runtime SDK for embedding policy enforcement, and the LLM Security Leaderboard. Moreover, Cisco has partnered with Nvidia, integrating its Defense Claw framework—a suite of security tools including Skills Scanner and CodeGuard—into Nvidia's OpenShell, an open-source secure container for AI agents. This integration enables automatic security enforcement upon agent activation, a crucial step in accelerating secure deployment. Patel emphasizes Cisco's strategic lead in this domain, claiming a six-to-nine-month product advantage and a three-to-six-month information asymmetry due to their ecosystem involvement.

Beyond product innovation, Cisco is pushing a radical internal mandate: by 2027, 70% of its products are slated to be built entirely by AI, with zero human-written code. This initiative aims to foster a new engineering culture where proficiency in coding with AI is paramount. To navigate this agentic era, Patel outlines five key "moats" for enterprises: sustained speed, trust and delegation, token efficiency, human judgment integration, and AI dexterity. The critical missing piece for widespread adoption remains a robust telemetry layer capable of distinguishing agent-driven actions from human ones, a capability many current logging configurations lack. Without this, even identity checks can be circumvented, as demonstrated by incidents where AI agents altered security policies or delegated tasks without human oversight. Ultimately, building trust through rigorous governance, clear delegation protocols, and comprehensive telemetry is essential for unlocking the full potential of A I agents.

Fuente Original: https://venturebeat.com/security/85-of-enterprises-are-running-ai-agents-only-5-trust-them-enough-to-ship

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Google Invierte Miles de Millones en IA El Futuro

¡Noticias de última hora en el mundo de la inteligencia artificial! Google está a punto de dar un golpe sobre la mesa, comprometiéndose a invertir hasta 40 mil millones de dólares en Anthropic. Esta cifra masiva sigue a una inversión inicial de 5 mil millones de dólares por parte de Amazon, lo que sitúa a Anthropic en una valoración estratosférica de 350 mil millones de dólares.

Google Invierte Miles de Millones en IA: ¿El Futuro?

El rápido ascenso de Anthropic se debe en gran parte al éxito de sus modelos de IA, como Claude, y productos innovadores como Claude Code, diseñado para agilizar el desarrollo de software, y Claude Cowork, que potencia el trabajo de conocimiento general. La compañía ha navegado con éxito las controversias que han rodeado a competidores como OpenAI, además de introducir flujos de trabajo más robustos y eficientes. Esto ha disparado la demanda de sus servicios, llegando incluso a causar interrupciones por la abrumadora cantidad de peticiones, lo que ha llevado a Anthropic a considerar medidas como límites de uso en horas punta o la reubicación de herramientas más demandantes de recursos en planes de servicio menos costosos.

El objetivo principal de estas inversiones es crucial: cerrar la brecha entre la creciente demanda y la capacidad de cómputo disponible para sus potentes modelos de IA. Tanto Google como Amazon están proporcionando a Anthropic recursos vitales, incluyendo chips optimizados para entrenamiento e inferencia de IA, así como capacidad de cómputo en la nube. Este tipo de acuerdos se ha vuelto una estrategia común en la industria de la IA: las grandes empresas tecnológicas invierten en startups emergentes, proporcionando no solo capital sino también la infraestructura necesaria para escalar, a cambio de poder vender sus propios productos y servicios a estas empresas en crecimiento. Es importante destacar que esta no es la primera vez que Google invierte en Anthropic, a pesar de ser competidores directos en el desarrollo de modelos de IA avanzados.

Fuente Original: https://arstechnica.com/ai/2026/04/google-will-invest-as-much-as-40-billion-in-anthropic/

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Google Invierte 40 Mil Millones en Anthropic

Google se prepara para realizar una inversión histórica de hasta $40 mil millones en Anthropic, la compañía cuyo modelo insignia Claude está superando a Gemini en el mercado empresarial. Este movimiento representa la apuesta más grande jamás hecha por una compañía tecnológica en un rival de inteligencia artificial, y al mismo tiempo constituye una admisión implícita de que Gemini por sí solo no es suficiente para competir en este mercado acelerado.

Google Invierte $40 Mil Millones en Anthropic

El acuerdo incluye $10 mil millones en efectivo basados en la valoración actual de Anthropic de $350 mil millones, más $30 mil millones adicionales condicionados al cumplimiento de objetivos de rendimiento no revelados. Además del capital, Google proporcionará cinco gigavatios de poder computacional durante cinco años, incluyendo acceso a hasta un millón de sus chips TPU Ironwood de séptima generación. Con esta inversión, el compromiso total de Google con Anthropic alcanzaría aproximadamente $43 mil millones.

Los números de Anthropic justifican esta inversión masiva. La tasa de ingresos anualizados de la compañía alcanzó $30 mil millones en abril, un salto extraordinario desde $1 mil millones en enero de 2025. Ninguna empresa en la historia tecnológica estadounidense ha crecido a ese ritmo. Claude domina el 32% del mercado empresarial de APIs de modelos de lenguaje, superando al GPT-4o de OpenAI que tiene 25%. Ocho de las diez empresas del Fortune 10 son clientes de Claude, y más de mil negocios gastan más de $1 millón anualmente en la plataforma, una cifra que se duplicó desde febrero.

La estructura del acuerdo revela la verdadera naturaleza de esta alianza. La participación actual de Google en Anthropic es de aproximadamente 14%, adquirida a través de más de $3 mil millones en inversiones previas, con un límite contractual del 15% y sin derechos de voto ni asientos en la junta directiva. Este diseño parece elaborado para evitar activar umbrales de revisión antimonopolio mientras mantiene una exposición económica significativa. El compromiso de cinco gigavatios de capacidad computacional es estratégicamente más importante que el cheque de capital, asegurando que Google incruste profundamente sus TPUs en la infraestructura de Anthropic.

Este movimiento llegó cuatro días después de que Amazon anunciara su propia escalada, comprometiéndose hasta $33 mil millones en Anthropic. Ambos gigantes de la nube están compitiendo simultáneamente por asegurar a la misma compañía como su cliente de IA más importante. Internamente, Google DeepMind ha formado un "equipo de choque" específicamente para cerrar la brecha entre Gemini y Claude en codificación, después de que evaluaciones internas mostraran la superioridad de Claude en la categoría que genera más ingresos empresariales. El producto de codificación Claude Code alcanzó $1 mil millones en ingresos anuales dentro de seis meses de su lanzamiento y ahora genera más de $2.5 mil millones.

La inversión llega en un momento de mayor escrutinio regulatorio sobre las asociaciones de IA. El límite de propiedad del 15% de Google y la ausencia de representación en la junta fueron casi con certeza estructurados pensando en estas preocupaciones antimonopolio. Sin embargo, $43 mil millones en inversión total y una dependencia computacional de varios gigavatios crean un grado de entrelazamiento económico que ningún porcentaje de propiedad puede capturar completamente. Este acuerdo está estructurado para que Google gane ya sea que Anthropic tenga un éxito espectacular o simplemente tenga éxito, capturando miles de millones en gasto computacional a través de los compromisos de infraestructura.

Fuente Original: https://thenextweb.com/news/google-40-billion-anthropic-investment-gemini

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

DeepSeek-V4 Frontier AI at Fraction of Cost

The Chinese AI startup DeepSeek has launched DeepSeek-V4, a groundbreaking open-source model that delivers near state-of-the-art performance at approximately one-sixth the cost of premium competitors like Claude Opus 4.7 and GPT-5.5. This release, described as the 'second DeepSeek moment', arrives 484 days after the company's V3 model and represents a significant leap in making advanced AI accessible to developers worldwide.

DeepSeek-V4: Frontier AI at Fraction of Cost

DeepSeek-V4-Pro is priced at just $1.74 per million input tokens and $3.48 per million output tokens through its API, bringing a combined cost of $5.22 for standard usage. In stark contrast, GPT-5.5 costs $35.00 and Claude Opus 4.7 costs $30.00 for equivalent usage. The even more affordable DeepSeek-V4-Flash variant costs merely $0.42 for the same comparison, representing a staggering 98% reduction compared to premium models. This dramatic price compression is forcing enterprises to reconsider the economic viability of tasks previously too expensive to automate.

Whilst DeepSeek-V4-Pro-Max doesn't outright defeat GPT-5.5 or Claude Opus 4.7 across all benchmarks, it achieves remarkably competitive results. On BrowseComp, measuring agentic web browsing capabilities, DeepSeek scores 83.4%, narrowly trailing GPT-5.5's 84.4% and surpassing Claude Opus 4.7's 79.3%. However, on academic reasoning tests like GPQA Diamond, DeepSeek's 90.1% falls behind GPT-5.5's 93.6% and Claude Opus 4.7's 94.2%. The model demonstrates substantial improvements over its predecessor, V3.2, with MMLU-Pro scores jumping from 65.5 to 73.5 and FACTS Parametric performance more than doubling from 27.1 to 62.6.

The technical innovations underpinning DeepSeek-V4 are revolutionary. The model features a native one-million-token context window whilst requiring only 10% of the memory cache and 27% of the computational operations compared to V3.2. This efficiency stems from a Hybrid Attention Architecture combining Compressed Sparse Attention and Heavily Compressed Attention. The 1.6-trillion-parameter model utilises Mixture-of-Experts design, activating only 49 billion parameters per token. A novel Manifold-Constrained Hyper-Connections system stabilises the massive network, whilst the Muon optimiser enabled training on over 32 trillion high-quality tokens. Crucially, DeepSeek validated its architecture on Huawei Ascend NPUs, achieving up to 1.73x speedup and demonstrating independence from Western GPU supply chains, though Nvidia GPUs were still used during training.

Released under the permissive MIT License, DeepSeek-V4 allows unrestricted commercial use without royalties. The model integrates seamlessly with popular AI agents and development tools, establishing itself as essential open-source infrastructure. Industry reactions have been overwhelmingly positive, with Vals AI declaring it the number one open-weight model on their benchmarks. DeepSeek is retiring legacy endpoints by July 2026, transitioning entirely to the V4 architecture. This release fundamentally challenges the economics of frontier AI, proving that architectural innovation can substitute for raw computational power whilst making cutting-edge intelligence accessible globally.

Fuente Original: https://venturebeat.com/technology/deepseek-v4-arrives-with-near-state-of-the-art-intelligence-at-1-6th-the-cost-of-opus-4-7-gpt-5-5

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

viernes, 24 de abril de 2026

China Restringe Inversion de EE UU en IA Aprobacion Gubernamental Obligatoria

Las tensiones entre China y Estados Unidos en el ámbito de la inteligencia artificial se intensifican, moviéndose más allá de las restricciones en chips y exportaciones para abarcar el capital y los modelos de IA. Según informes recientes, China planea implementar una medida significativa: restringir a sus empresas tecnológicas líderes, incluidas las startups de IA más prometedoras, de aceptar capital estadounidense sin obtener primero la aprobación del gobierno. Si se materializa, esta política representaría un cambio estructural importante en el acceso de las empresas chinas de IA a la financiación extranjera, equiparándola a los marcos de aprobación ya existentes para ciertas exportaciones de tecnología, flujos de datos y adquisiciones extranjeras de activos chinos.

China Restringe Inversión de EE. UU. en IA: ¡Aprobación Gubernamental Obligatoria!

Esta decisión surge en un contexto de escalada mutua. Recientemente, la administración Trump anunció medidas para controlar a las empresas tecnológicas extranjeras, con un enfoque particular en China, por supuestamente "explotar" modelos de IA de Estados Unidos mediante una práctica conocida como "destilación de modelos". Esta táctica permite a los desarrolladores chinos entrenar sus propios sistemas utilizando modelos de IA estadounidenses, ya sean de código abierto o accesibles comercialmente, acortando la brecha de capacidad sin necesidad de un desarrollo desde cero. La jugada de China, por su parte, busca evitar que el dinero estadounidense, que conlleva beneficios intangibles como experiencia gerencial, redes de talento y acceso estratégico, fluya hacia sus "campeones nacionales" de IA sin la supervisión estatal.

Ambas acciones, tomadas casi simultáneamente, pintan un panorama de una guerra de IA en la que ambos países buscan controlar los flujos de tecnología y capital. La regla de inversión saliente de EE. UU., que entró en vigor a principios de 2025, prohíbe las inversiones de capital en empresas chinas que operan en semiconductores avanzados, computación cuántica o ciertos sistemas de IA sin aprobación del Tesoro. El plan reportado de China es, en esencia, el reflejo inverso de esta regla, exigiendo aprobación gubernamental antes de que sus empresas de IA acepten financiación de EE. UU. La cuestión de la destilación de modelos es más novedosa técnicamente, con empresas chinas utilizando modelos como Llama de Meta para entrenar sus propios sistemas, lo que las empresas estadounidenses consideran una ventaja estructural injusta. Las implicaciones comerciales para las startups chinas de IA son significativas, ya que una capa adicional de supervisión gubernamental podría d esalentar aún más la inversión o impulsar la formación de capital de IA a través de canales domésticos. A pesar de estas medidas, el núcleo del problema persiste: las capacidades de IA de China están mejorando rápidamente, y la pregunta que ambos gobiernos deben responder ahora no es cómo mantener el orden tecnológico actual, sino cómo dar forma a los términos de una competencia que ya está en pleno apogeo.

Fuente Original: https://thenextweb.com/news/china-us-investment-ai-startups-approval

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT