jueves, 30 de abril de 2026

Gigantes Tecnologicos IA Impulsa Cloud Google y Amazon Lideran

El primer trimestre de 2026 ha sido testigo de un desempeño financiero impresionante por parte de las grandes tecnológicas, con Alphabet y Amazon destacando por encima de Meta en el ámbito de la inteligencia artificial y consolidando su dominio en el mercado de la nube. A pesar de las crecientes inversiones en IA, las empresas están demostrando que la demanda externa de servicios en la nube supera la capacidad actual, lo que sugiere un ciclo de inversión en IA productivo.

Gigantes Tecnológicos: IA Impulsa Cloud, Google y Amazon Lideran

Alphabet reportó ingresos de $109.9 mil millones, superando las expectativas, impulsado por un crecimiento del 63% en Google Cloud, que alcanzó los $20.02 mil millones. Este crecimiento acelerado y un sólido backlog de más de $460 mil millones confirman una fuerte demanda externa. La compañía ha incrementado su guía de gasto de capital (capex) para el año a $180-$190 mil millones, reconociendo una restricción de cómputo a corto plazo.

Por su parte, Amazon registró ventas netas de $181.5 mil millones, con AWS experimentando un crecimiento del 28% hasta los $37.59 mil millones, su ritmo más rápido en más de tres años. Si bien el capex de Amazon para 2026 se estima en aproximadamente $200 mil millones, el flujo de caja libre se vio afectado por la inversión en infraestructura de IA. La compañía proyecta ventas netas sólidas para el segundo trimestre, superando las estimaciones.

Meta, aunque con ingresos por encima de lo esperado ($56.31 mil millones), elevó su guía de capex para 2026 a $125-$145 mil millones, un aumento que impactó negativamente en sus acciones. Esta inversión se centra principalmente en infraestructura interna para sus propios sistemas, en contraste con el modelo de crecimiento impulsado por la demanda externa que muestran Google Cloud y AWS. La inversión combinada de los cinco principales proveedores de servicios en la nube (hyperscalers) en 2026 superará los $650 mil millones, marcando un hito financiero clave para los próximos años y definiendo el éxito de la era de la IA.

Fuente Original: https://thenextweb.com/news/alphabet-amazon-meta-q1-2026-earnings-ai-cloud

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Nvidia B300 Servers Hit 1M in China AI Chip Scarcity Soars

Nvidia's powerful B300 AI servers are commanding astronomical prices in China, reaching a staggering $1 million per unit. This price tag is nearly double what they cost in the US, reflecting a severe scarcity driven by a confluence of factors, including tightened US export controls and a crackdown on unofficial supply channels.

Nvidia B300 Servers Hit $1M in China: AI Chip Scarcity Soars

The surge in prices, from around 4 million yuan late last year to 7 million yuan ($1 million) today, is directly linked to the arrest of a Supermicro co-founder, which effectively choked off the grey market that Chinese AI companies had relied upon to acquire restricted hardware. This has forced businesses to scramble for limited available units, driving up both sale and rental prices. Short-term rentals are reportedly fetching as much as 190,000 yuan per month, underscoring the intense demand and limited supply.

Chinese tech firms are eager to get their hands on this hardware to power their AI models and improve inference efficiency, a crucial factor in the rapidly expanding commercial AI landscape. Many are also actively structuring their acquisitions to avoid holding the restricted Nvidia hardware on their balance sheets, fearing potential repercussions from US sanctions. The recent indictment of Supermicro's co-founder for allegedly conspiring to divert billions worth of servers containing Nvidia's export-controlled chips to China highlights the lengths to which illicit supply chains have gone and the increased enforcement risk associated with them.

This scarcity is further exacerbated by previous US restrictions on Nvidia's H20 chips, which were designed as a China-compliant alternative. The inability to access either the H20 through official channels or the B300 through the disrupted grey market has created a perfect storm, pushing prices to unprecedented levels. With new legislation in the US aiming to further restrict chip equipment sales to China, the situation is likely to intensify, making advanced AI compute even more expensive and difficult to obtain for Chinese companies.

Fuente Original: https://thenextweb.com/news/nvidia-b300-server-1-million-china-export-controls

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Amazon y OpenAI Nueva Era en la Nube

Amazon Web Services (AWS) ha marcado un hito al integrar los modelos más potentes de OpenAI en su plataforma Bedrock. Este movimiento estratégico, que coincide con la reestructuración de la exclusividad entre OpenAI y Microsoft, abre la puerta a que los clientes de AWS accedan a las capacidades de GPT-5.4 y futuras versiones directamente a través de la infraestructura de Amazon.

Amazon y OpenAI: Nueva Era en la Nube

La novedad principal reside en la disponibilidad de modelos de OpenAI en Bedrock, permitiendo a los clientes migrar sus cargas de trabajo existentes sin fricción. Esto significa que los usuarios podrán evaluar y desplegar modelos de OpenAI junto a otras ofertas de inte ligencia artificial de Anthropic, Meta, Mistral, Cohere y los propios modelos de Amazon, todo ello gestionado bajo un control unificado de seguridad, gobernanza y costos.

Este acuerdo ha sido posible tras una inversión de Amazon y la eliminación de las exclusividades previas con Microsoft, que anteriormente limitaban la distribución de productos de OpenAI. AWS busca posicionarse como la capa de infraestructura esencial para la era de la IA generativa, donde los agentes inteligentes actúen de forma autónoma dentro de los flujos de trabajo empresariales.

Más allá del acceso a modelos, AWS ha lanzado Amazon Bedrock Managed Agents. Este sistema combina los modelos de OpenAI con un "armazón" propio que permite a los agentes de IA realizar tareas complejas y tomar decisiones autónomas. La clave está en el entrenamiento de los modelos específicamente para interactuar con este "armazón" mediante aprendizaje por refuerzo, garantizando así un rendimiento y fiabilidad superiores para entornos empresariales de alto riesgo.

AWS también destaca su garantía de "cero acceso humano" a los servidores que ejecutan los modelos de OpenAI en Bedrock, reforzando la seguridad mediante su silicio personalizado. Complementando estas ofertas, Amazon Quick Desktop emerge como una herramienta de IA para trabajadores del conocimiento, integrándose con aplicaciones locales y empresariales para agilizar tareas diarias, mientras que Amazon Connect se expande a una familia de cuatro soluciones de IA para la cadena de suministro, contratación, salud y experiencia del cliente, bajo el concepto de "compañeros agentes".

Esta estrategia integral de AWS, que abarca desde la infraestructura hasta aplicaciones especializadas, busca capturar valor en toda la pila de la IA empresarial, reconfigurando la competencia con gigantes como Microsoft y Google Cloud. El objetivo es facilitar la adopción masiva de agentes de IA, pasando de un uso exclusivo por desarrolla dores a una capacidad empresarial extendida en los próximos meses.

Fuente Original: https://venturebeat.com/technology/amazons-openai-gambit-signals-a-new-phase-in-the-cloud-wars-one-where-exclusivity-no-longer-applies

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Google Corrige Fallas Criticas en Gemini CLI

Google ha solucionado vulnerabilidades de seguridad extremadamente críticas en su herramienta Gemini CLI, incluyendo una falla con puntuación CVSS de 10, la calificación máxima de severidad posible. Estas vulnerabilidades permitían la ejecución remota de código (RCE) en entornos de integración continua (CI), representando un riesgo significativo para desarrolladores y organizaciones que utilizan estas herramientas en sus flujos de trabajo.

Google Corrige Fallas Críticas en Gemini CLI

Las fallas descubiertas no solo afectaban a Gemini CLI, sino que también se identificaron problemas similares en Cursor, una popular herramienta de desarrollo asistida por inteligencia artificial. Estos defectos de seguridad permitían a atacantes potenciales ejecutar código malicioso de manera remota, comprometiendo sistemas y datos sensibles. La combinación de estas vulnerabilidades con herramientas de desarrollo modernas amplificaba considerablemente el vector de ataque.

Según el informe de Zscaler ThreatLabz sobre Riesgos de VPN 2026 realizado en colaboración con Cybersecurity Insiders, la inteligencia artificial ha colapsado significativamente la ventana de respuesta humana ante amenazas cibernéticas. Este fenómeno ha convertido el acceso remoto en la vía más rápida para perpetrar brechas de seguridad, haciendo que vulnerabilidades como las encontradas en Gemini CLI sean especialmente peligrosas en el panorama actual de ciberseguridad.

La gravedad de estas vulnerabilidades subraya la importancia crítica de mantener actualizadas todas las herramientas de desarrollo, especialmente aquellas que se integran con sistemas de inteligencia artificial y plataformas de integración continua. Los equipos de seguridad deben priorizar la aplicación inmediata de los parches de seguridad liberados por Google para proteger sus infraestructuras de desarrollo y producción contra posibles explotaciones.

Fuente Original: https://thehackernews.com/2026/04/google-fixes-cvss-10-gemini-cli-ci-rce.html

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Ubuntus AI Features Spark User Backlash Demands

Canonical's recent announcement to integrate artificial intelligence features into Ubuntu has triggered considerable controversy within the Linux community. Many users have expressed concern that the popular distribution might follow a similar path to Windows 11, which has heavily emphasised AI integration. The response from the community has been swift, with numerous requests for an AI 'kill switch' that would allow users to completely disable these forthcoming features.

Ubuntu's AI Features Spark User Backlash Demands

Jon Seager, Canonical's Vice President of Engineering, outlined the company's vision for AI integration in Ubuntu. The planned features include accessibility tools such as AI-powered speech-to-text and text-to-speech capabilities. Additionally, Canonical intends to introduce agentic AI features designed to assist with troubleshooting and automation tasks. The company is also actively encouraging its engineering teams to incorporate AI into their workflows, with plans to roll out these features progressively over the next year.

Responding to user concerns, Seager clarified that Canonical has no intention of implementing a 'global AI kill switch'. However, the company has committed to giving users control over these features. The initial rollout in Ubuntu version 26.10 will introduce AI-backed capabilities on a strictly opt-in basis as a preview. In subsequent releases, Canonical plans to include a step in the initial setup wizard allowing users to choose whether they want AI-native features enabled from the outset.

Importantly, Seager emphasised that all AI capabilities will be delivered as Snaps, layered on top of the existing Ubuntu stack. This architecture means users will always have the option to remove these Snaps if they prefer not to use AI features. For users who wish to avoid AI integration entirely, alternative distributions such as Linux Mint, Pop!_OS, or Zorin OS remain viable options. These distributions share similarities with Ubuntu but are unlikely to adopt Canonical's new AI features, providing a traditional Linux experience for those who prefer it.

Fuente Original: https://news.slashdot.org/story/26/04/29/197205/ubuntus-ai-plans-have-linux-users-looking-for-a-kill-switch?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

miércoles, 29 de abril de 2026

GM Cars Get Google Gemini AI Power

General Motors is making a significant leap in automotive AI by rolling out Google Gemini to approximately four million vehicles across its Cadillac, Chevrolet, Buick, and GMC brands. This move is being hailed as one of the largest deployments of a generative AI assistant in the car industry. The update, delivered via an over-the-air Play Store update for model year 2022 and newer vehicles equipped with Google Built-in, replaces the current Google Assistant with Gemini's more advanced conversational capabilities.

GM Cars Get Google Gemini AI Power!

The key benefit for drivers is a much more natural and intuitive interaction. Unlike the current command-recognition system, Gemini, as a large language model, can understand free-form requests, maintain context throughout a conversation, and handle follow-up questions without needing to restart the interaction. This means drivers can perform multi-part requests, like getting directions, texting a family member, and then refining the route for a coffee stop, all within a single spoken exchange. Gemini also integrates with popular in-car apps such as Amazon Music, Apple Music, Spotify, and streaming services like HBO Max and Hulu, and can access web search for context-aware answers.

This massive deployment is underpinned by GM's long-standing investment in Android Automotive OS and its OnStar connectivity service, which has been its in-car backbone for decades. While Gemini is presented as an interim step, GM has a longer-term vision for a custom-built AI assistant, finely tuned with proprietary vehicle data. However, this rollout occurs amidst a backdrop of GM's data-sharing controversy and a looming FTC consent order regarding the collection and sale of driver data. GM asserts that drivers will have control over data access and that the integration is privacy-focused, though regulators and privacy advocates will be closely monitoring its implementation to ensure transparency and genuine user choice, especially given the FTC's order to obtain explicit permission for selling such data for five years.

Fuente Original: https://thenextweb.com/news/gm-google-gemini-four-million-vehicles-in-car-ai

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Mistral AI Workflows Infraestructura IA para Empresas

Mistral AI, la reconocida compañía de inteligencia artificial con sede en París, ha lanzado 'Workflows' en vista previa pública. Este novedoso motor de orquestación, impulsado por la tecnología de Temporal, está diseñado para transformar los sistemas de IA empresariales, llevándolos desde meras pruebas de concepto a procesos de negocio que generan ingresos. La propuesta de Mistral AI se centra en la idea de que el cuello de botella para la adopción de la IA en las empresas ya no es el modelo en sí, sino la infraestructura necesaria para ejecutarlo de manera fiable y a gran escala.

Mistral AI Workflows: Infraestructura IA para Empresas

Workflows aborda este desafío ofreciendo un sistema estructurado para definir, ejecutar y monitorizar procesos de IA de múltiples pasos. Sus componentes clave incluyen un kit de desarrollo para crear lógica de orquestación en código Python, una arquitectura que separa la orquestación de la ejecución (permitiendo que esta última se realice cerca de los datos del cliente para garantizar la privacidad) y un robusto sistema de observabilidad para rastrear cada paso, decisión y posible fallo. Además, Workflows es totalmente personalizable, permitiendo la integración de diversos modelos y la inyección de código arbitrario para combinar flujos deterministas con capacidades de IA.

La elección de un enfoque "code-first" en lugar de constructores visuales de bajo código subraya la dedicación de Mistral a los desarrolladores e ingenieros, asegurando la precisión y el control necesarios para operaciones críticas. Bajo el capó, Workflows se apoya en el motor de ejecución duradera de Temporal, una plataforma pr obada que garantiza la fiabilidad y el estado en procesos de larga duración. La solución ya está en producción, manejando millones de ejecuciones diarias en casos de uso como la automatización de liberaciones de carga, la verificación de cumplimiento documental en finanzas y la gestión de soporte al cliente. Workflows se posiciona como la capa intermedia de la estrategia de plataforma de IA empresarial de Mistral, complementando sus herramientas de entrenamiento de modelos (Forge) y su interfaz de usuario (Vibe), con el objetivo de democratizar la implementación de IA en el mundo empresarial.

Fuente Original: https://venturebeat.com/technology/mistral-ai-launches-workflows-a-temporal-powered-orchestration-engine-already-running-millions-of-daily-executions

Artículos relacionad os de LaRebelión:

Artículo generado mediante LaRebelionBOT

Nvidia Lanza Nemotron 3 Nano Omni Revolucionario

Nvidia ha dado un paso audaz en el mercado de inteligencia artificial al lanzar Nemotron 3 Nano Omni, un modelo multimodal de código abierto que unifica visión, audio y lenguaje en una sola arquitectura. Con 30 mil millones de parámetros pero solo 3 mil millones activos por inferencia, este modelo representa el movimiento más agresivo de la compañía para competir no solo en infraestructura de IA, sino en los modelos que se ejecutan en ella.

Nvidia Lanza Nemotron 3 Nano Omni Revolucionario

El modelo utiliza un diseño de mezcla de expertos que le permite funcionar en una sola GPU mientras iguala o supera las capacidades multimodales de modelos varias veces más grandes. Nvidia afirma que ofrece nueve veces mayor rendimiento que modelos multimodales abiertos comparables, 2.9 veces más rápido en razonamiento de tareas multimodales y aproximadamente nueve veces mayor capacidad efectiva del sistema para razonamiento de video. El modelo lidera seis benchmarks en inteligencia documental, comprensión de video y audio.

La arquitectura híbrida Mamba-Transformer de Nemotron 3 Nano Omni incluye 23 capas de espacio de estado selectivo Mamba-2, 23 capas de mezcla de expertos con 128 expertos que se enrutan a seis por token, y seis capas de atención de consulta agrupada. Procesa texto, imágenes, audio, video, documentos, gráficos e interfaces como entradas, produciendo texto como salida. Esto significa que un solo modelo puede reemplazar el mosaico de modelos especializados de visión, voz y procesamiento de documentos que la mayoría de las implementaciones empresariales actualmente utilizan.

La estrategia de Nvidia es circular pero poderosa: sus modelos están optimizados para su hardware, y su hardware está optimizado para sus modelos, creando un ecosistema completo que compite con las ofertas de modelo más nube de Google, Amazon y Microsoft. La familia de modelos Nemotron ha sido descargada más de 50 millones de veces en el último año, demostrando la tracción de esta estrategia.

Entre las empresas que ya están adoptando el modelo se encuentran Foxconn, Palantir, Aible y ASI, mientras que Dell, DocuSign, Infosys, Oracle y Zefr están evaluándolo para implementación en producción. Los casos de uso incluyen inspección visual en plantas de fabricación, procesamiento de documentos, aplicaciones de agentes de voz y comprensión de pantalla para agentes de uso de computadora, reflejando el mercado que Nvidia está apuntando: agentes de IA industriales que necesitan ver, escuchar y leer en tiempo real en hardware local.

Lo que distingue a Nemotron 3 Nano Omni no es una sola capacidad, sino la combinación: percepción multimodal en visión, audio y texto en un solo modelo, con eficiencia de mezcla de expertos que permite implementación en el borde, lanzado como pesos abiertos con licencia comercial. Ningún otro modelo actualmente ofrece las cuatro propiedades juntas. Si los modelos abiertos de Nvidia se convierten en el estándar para implementación de agentes de IA en el borde, la compañía captura valor en cada capa de la pila: la GPU que ejecuta la inferencia, el marco de software que la optimiza y ahora el modelo mismo.

Fuente Original: https://thenextweb.com/news/nvidia-nemotron-nano-omni-multimodal-agent-edge

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Poolside Launches Free Open-Source Coding AI Model

The artificial intelligence landscape has witnessed an intriguing development as American startup Poolside releases two groundbreaking large language models designed specifically for agentic coding workflows. Whilst tech giants Anthropic and OpenAI continue their expensive model rivalry, and Chinese companies like DeepSeek pursue affordable alternatives, this San Francisco-based company founded in 2023 has emerged with a compelling proposition: high-performance AI models that are both accessible and, in one case, completely open-source.

Poolside Launches Free Open-Source Coding AI Model

Poolside's release comprises two distinct models. The flagship Laguna M.1 is a proprietary 225-billion parameter Mixture of Experts model with 23 billion active parameters, optimised for complex enterprise and government software engineering challenges. However, the more disruptive offering is Laguna XS.2, a 33-billion parameter model with just 3 billion active parameters, released under the permissive Apache 2.0 open-source licence. This smaller model can run entirely offline on consumer hardware—requiring as little as 36GB of unified memory on Apple Silicon or 24-32GB VRAM on PCs with quantisation—delivering complete privacy and security for developers working on sensitive projects.

What makes these models remarkable is their performance relative to size. On the SWE-bench Pro benchmark, which tests real-world software problem-solving abilities, Laguna M.1 achieved 46.9% whilst the considerably smaller XS.2 scored an impressive 44.5%, nearly matching its larger sibling and outperforming competitors like Claude Haiku 4.5 and Gemma 4. These models weren't simply fine-tuned from existing frameworks but trained from scratch using Poolside's proprietary "Model Factory" infrastructure, incorporating 30 trillion tokens of carefully curated data—13% of which is synthetic, custom-made practice material designed to teach specific skills.

Poolside's training methodology employs sophisticated systems including the Muon optimiser, which accelerates learning approximately 15% faster than standard methods, and AutoMixer, which scientifically determines optimal combinations of code, mathematics, and general knowledge. Following initial training, models undergo reinforcement learning in virtual environments where they practice solving real software engineering problems through trial and error, receiving rewards for successful bug fixes and working code—transforming them from text generators into capable autonomous agents.

Beyond the models themselves, Poolside has introduced two complementary tools. "Pool" is a terminal-based coding agent that functions as an Agent Client Protocol server, bringing researchers' internal training tools to the public. "Shimmer" is a cloud-native development environment offering instant-on virtual machine sandboxes with integrated AI agents, remarkably designed to function even on smartphones—suggesting a future where complex engineering work isn't confined to desktop computers. The company's decision to release XS.2 under Apache 2.0 licensing, allowing unrestricted commercial use without royalties, reflects their conviction that "the West needs strong open-weight models" and positions Poolside as a cornerstone of the open-AI ecosystem, directly challenging the predominantly closed approaches of major competitors.

Fuente Original: https://venturebeat.com/technology/american-ai-startup-poolside-launches-free-high-performing-open-model-laguna-xs-2-for-local-agentic-coding

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

martes, 28 de abril de 2026

Vuelo Caribeno FAA Extiende Prohibicion Sorpresa

La Administración Federal de Aviación (FAA) de Estados Unidos ha tomado la decisión de extender la prohibición de vuelos hacia un país caribeño específico. Esta medida, que inicialmente se implementó para abordar preocupaciones de seguridad, ahora se prolonga, generando incertidumbre para viajeros y aerolíneas. Aunque los detalles exactos de las razones detrás de la extensión no se han revelado completamente, se infiere que persisten riesgos significativos que impiden la reanudación segura de los servicios aéreos.

Vuelo Caribeño: FAA Extiende Prohibición Sorpresa

La extensión de esta prohibición subraya la seriedad con la que la FAA evalúa los protocolos de seguridad y la infraestructura aeronáutica de los países con los que mantiene vínculos aéreos. Si bien el país en cuestión no se menciona explícitamente en el título del artículo original, la implicación es que enfrenta desafíos que han llevado a la FAA a mantener una postura restrictiva. Los pasajeros que tenían planes de viajar a esta nación caribeña deberán estar atentos a futuras actualizaciones y buscar alternativas, mientras que las aerolíneas deberán ajustar sus operaciones y rutas en consecuencia. La seguridad aérea es primordial, y la FAA está comprometida a garantizar que todas las operaciones cumplan con los más altos estándares antes de levantar cualquier restricción.

Fuente Original: https://news.google.com/rss/articles/CBMimgFBVV95cUxNQU5zMy1veF96RmtVcGF0Y2VTWFROZlJ3VG5NcnEtUjc5SVdMSkdFR2VremV0RFZXeWk2ZjZfWElXMUpENWFRdmx2c0JzS3ppMUZsTGgyQ3NBUDdVOFNlMWZnQUFQQm5nRnlpOW9BWkpfNGRmUm1CejRxUFpTZll6WmY0aGQ5UWZYVnB4OHFGUDVGeC03UWVXWDJB0gGuAUFVX3lxTE1LM0VGeTBWLVhXLVp5QWhRNW1JRGo0aFVMUWEzWGstWnFjZF9qTVBmOGxTbnU5dzhlVTltd2Y5VmFqM0lJVlpndUlyRGJmNXZVQ3NGSzFVOEhCMHRlaklRX3dyY3ROaGllTmpWMHRGOGF6eWplLUpoX0d6dFZyVjkxdmlaV0N0Wl9aVjFTdGNudWZMRTVxRGMtS2J6M0pySHhwSFlhNUZSUEo0c2Nudw?oc=5

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Redpine Secures 68M for Licensed AI Data API

In a significant move for the burgeoning AI landscape, Stockholm-based startup Redpine has successfully raised €6.8 million in new funding. This latest round, spearheaded by NordicNinja, with contributions from Luminar Ventures, node.vc, and notable tech founders, brings Redpine's total funding to an impressive €9 million. The company's core mission is to revolutionise how AI agents access and utilise data by providing a licensed, real-time API for premium datasets.

Redpine Secures €6.8M for Licensed AI Data API

Redpine tackles a critical issue plaguing the AI industry: the reliance on scraped internet data for training. This approach is fraught with legal fragility, questionable data quality, and a lack of compensation for the original creators. As legal pressures mount, exemplified by recent copyright settlements and new EU disclosure requireme nts, the need for a legitimate and reliable data infrastructure becomes paramount. Redpine positions itself as the solution, drawing a parallel to Spotify's disruption of the music industry by making licensed access convenient and superior to illicit alternatives.

The platform functions as a headless API, enabling AI agents to query and pay for premium licensed datasets on a token-based model. This ensures that costs scale directly with usage, offering a more dynamic and cost-effective solution than traditional subscription services. Redpine's technology focuses on evaluating data quality in real-time, filtering out inaccuracies to ensure that mission-critical domains like healthcare, legal, finance, scientific research, and news receive reliable information. The backing from investors with deep ties to AI pioneers like OpenAI and Perplexity underscores the perceived value of Redpine's API-native, agent-first approach, aiming to become the global leader in AI data infrastructu re within the next three to five years.

Fuente Original: https://thenextweb.com/news/redpine-raises-e6-8m-api-for-ai-agents

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Google y el Pentagono IA sin limites para fines militares

Google ha sellado un acuerdo clasificado con el Departamento de Defensa de Estados Unidos (Pentágono) que permitirá a la entidad militar emplear los modelos de inteligencia artificial de Google para "cualquier propósito gubernamental legal". Este pacto se produce a pesar de una carta abierta de más de 560 empleados de Google instando a la compañía a evitar este tipo de colaboraciones militares clasificadas.

Google y el Pentágono: IA sin límites para fines militares

Lo que distingue este acuerdo es la ausencia de las restricciones éticas que llevaron a Anthropic, otra empresa de IA, a ser excluida de contratos militares en febrero. Mientras Anthropic se negó a eliminar prohibiciones contractuales sobre vigilancia doméstica masiva y armas autónomas sin supervisión humana, el acuerdo de Google parece otorgar al Pentágono una discreción considerablemente más amplia. Fuentes sugieren que el contrato de Google se alinea con el modelo sin restricciones preferido por la administración anterior, a diferencia del de OpenAI, que negoció algunas salvaguardias.

Google se suma así a OpenAI y xAI como proveedor de capacidades de IA clasificadas para el ejército estadounidense. La situación de Anthropic, excluida por mantener sus principios éticos, contrasta con la de OpenAI, que renegoció para permanecer, y xAI, que firmó sin restricciones aparentes. La decisión de Google, especialmente por el momento en que se produce tras la protesta de sus empleados, pone de manifiesto la tensión entre las demandas del gobierno para aplicaciones militares de IA y los principios éticos que las propias empresas tecnológicas han proclamado. El futuro de estas colaboraciones dependerá de la evolución del panorama político y de la presión interna de los empleados.

Fuente Original: https://thenextweb.com/news/google-pentagon-classified-ai-deal

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Microsoft y OpenAI Rompen Su Acuerdo Exclusivo

Microsoft y OpenAI han anunciado una transformación radical de su histórica alianza que definió la era comercial de la inteligencia artificial. El lunes 27 de abril de 2026, ambas compañías revelaron simultáneamente cambios fundamentales en su acuerdo de exclusividad, permitiendo ahora a OpenAI vender sus servicios en plataformas rivales como AWS de Amazon y Google Cloud. Esta reestructuración desmantela los pilares clave del pacto original firmado en 2019, cuando Microsoft invirtió inicialmente mil millones de dólares en OpenAI.

Microsoft y OpenAI Rompen Su Acuerdo Exclusivo

Bajo los nuevos términos, Microsoft ya no pagará ninguna participación de ingresos a OpenAI cuando los clientes accedan a sus modelos a través de Azure. OpenAI, por su parte, continuará pagando a Microsoft una participación del 20 por ciento hasta 2030, pero con un tope total establecido. La licencia de Microsoft sobre la propiedad intelectual de OpenAI, que antes era exclusiva, ahora se ha convertido en no exclusiva y se extenderá hasta 2032. Lo más significativo es que OpenAI puede ahora servir todos sus productos en cualquier proveedor de nube, terminando con la exclusividad que había sido fundamental en el acuerdo original.

El catalizador inmediato de esta reestructuración fue la inversión de 50 mil millones de dólares de Amazon en OpenAI anunciada en febrero. Amazon comprometió 15 mil millones inicialmente, con otros 35 mil millones programados bajo ciertas condiciones. A cambio, OpenAI acordó expandir su relación con AWS por 100 mil millones durante ocho años y hacer de AWS el proveedor exclusivo de distribución de terceros para Frontier, su nueva plataforma empresarial. Este acuerdo contradecía directamente los términos exclusivos del contrato existente con Microsoft, creando una crisis legal que amenazaba con litigios.

Los cambios financieros son sustanciales. Bajo el antiguo acuerdo, el dinero fluía en ambas direcciones entre las compañías. Ahora, el flujo se vuelve unidireccional: Microsoft deja de pagar a OpenAI completamente, mientras que OpenAI continúa pagando a Microsoft hasta 2030 con un límite establecido. Microsoft conserva aproximadamente el 27 por ciento de propiedad en la entidad con fines de lucro de OpenAI y reportó 7.5 mil millones de dólares en ingresos relacionados con OpenAI solo en el último trimestre.

Un aspecto filosóficamente intrigante es la desaparición de la cláusula AGI (Inteligencia General Artificial) que originalmente gobernaba la asociación. El acuerdo inicial estipulaba que los derechos exclusivos de Microsoft cambiarían si OpenAI alcanzaba AGI, un hito vagamente definido. Esta provisión ha sido reemplazada por fechas fijas y límites monetarios, señalando que la industria ha superado el marco conceptual que una vez definió esta alianza.

Los grandes beneficiarios inmediatos son los clientes empresariales, que durante años solo tenían Azure como opción para acceder a los modelos de OpenAI. Ahora, según el CEO de Amazon Andy Jassy, los modelos de OpenAI estarán disponibles en AWS Bedrock en las próximas semanas. Esta disponibilidad multi-nube llega en un momento de intensa consolidación en el mercado de infraestructura de IA, donde Microsoft compite con OpenAI en productos, se asocia con el rival de OpenAI, Anthropic, y sigue siendo el mayor accionista de OpenAI.

Fuente Original: https://venturebeat.com/technology/microsoft-and-openai-gut-their-exclusive-deal-freeing-openai-to-sell-on-aws-and-google-cloud

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Xiaomis Open-Source AI Models Dominate Agentic Tasks

Chinese technology giant Xiaomi has released two groundbreaking open-source AI models that are revolutionising the landscape of agentic artificial intelligence. The MiMo-V2.5 and MiMo-V2.5-Pro models are now available under the permissive MIT Licence, making them exceptionally attractive for enterprise deployment. What sets these models apart is their remarkable efficiency in powering 'claw' tasks—autonomous agents that complete complex assignments on behalf of users, from managing email to creating marketing content.

Xiaomi's Open-Source AI Models Dominate Agentic Tasks

The performance metrics are genuinely impressive. According to Xiaomi's ClawEval benchmarks, the Pro version leads the open-source field with a 63.8% success rate whilst consuming merely 70,000 tokens per trajectory. This represents a staggering 40-60% reduction in token usage compared to industry heavyweights like Anthropic's Claude Opus 4.6, Google's Gemini 3.1 Pro, and OpenAI's GPT-5.4. In an era where services are increasingly moving towards usage-based billing—as evidenced by GitHub Copilot's recent shift to metered pricing—this efficiency translates directly into substantial cost savings for enterprises.

Xiaomi has strategically released two distinct versions to serve different developer needs. The base MiMo-V2.5 is a multimodal specialist, whilst the MiMo-V2.5-Pro is engineered specifically for long-horizon coherence and complex software engineering tasks. The Pro model's capabilities are nothing short of remarkable: it autonomously implemented a complete SysY compiler in Rust within 4.3 hours—a task that typically takes computer science students several weeks. It also created a fully-featured video editor with 8,192 lines of code over 11.5 hours, demonstrating sustained coherence across 1,868 sequential tool calls.

The pricing structure is aggressively competitive. For international developers, the MiMo-V2.5-Pro costs $1.00 per million input tokens and $3.00 for output within 256K context windows. The base model starts at just $0.40 per million input tokens, positioning it amongst the most affordable leading language models globally. Xiaomi has even made cache writing free of charge for a limited period, further lowering barriers to agentic development.

Architecturally, both models employ a Sparse Mixture-of-Experts design. The base V2.5 features 310 billion total parameters with 15 billion active during inference, whilst the Pro version boasts a massive 1.02 trillion parameters with 42 billion active. This architecture functions like a specialised hospital where only the relevant specialists are called upon for each query, ensuring computational efficiency. The models also feature a native 1-million-token context window, enabling them to maintain coherence across extraordinarily long interactions.

Perhaps the most significant aspect of this release is the MIT Licence, which grants unrestricted commercial use without revenue caps or user-base limits. This stands in stark contrast to many 'open' models that include restrictive acceptable use policies. Enterprises can deploy, modify, fine-tune on proprietary data, and even release derivative versions without seeking permission from Xiaomi. This positions MiMo as foundational infrastructure for the next generation of AI agents, effectively treating the model as a public utility.

The release has received immediate ecosystem support, with popular inference engines SGLang and vLLM providing Day-0 compatibility. Hardware partnerships with AWS, AMD, T-HEAD, and Enflame ensure the models can run efficiently across diverse computing environments. To accelerate adoption, project lead Fuli Luo announced a 100-trillion free token grant for developers and creators, eliminating financial barriers to experimentation with the extensive context window capabilities.

Fuente Original: https://venturebeat.com/technology/open-source-xiaomi-mimo-v2-5-and-v2-5-pro-are-among-the-most-efficient-and-affordable-at-agentic-claw-tasks

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT