miércoles, 29 de abril de 2026

Mistral AI Workflows Infraestructura IA para Empresas

Mistral AI, la reconocida compañía de inteligencia artificial con sede en París, ha lanzado 'Workflows' en vista previa pública. Este novedoso motor de orquestación, impulsado por la tecnología de Temporal, está diseñado para transformar los sistemas de IA empresariales, llevándolos desde meras pruebas de concepto a procesos de negocio que generan ingresos. La propuesta de Mistral AI se centra en la idea de que el cuello de botella para la adopción de la IA en las empresas ya no es el modelo en sí, sino la infraestructura necesaria para ejecutarlo de manera fiable y a gran escala.

Mistral AI Workflows: Infraestructura IA para Empresas

Workflows aborda este desafío ofreciendo un sistema estructurado para definir, ejecutar y monitorizar procesos de IA de múltiples pasos. Sus componentes clave incluyen un kit de desarrollo para crear lógica de orquestación en código Python, una arquitectura que separa la orquestación de la ejecución (permitiendo que esta última se realice cerca de los datos del cliente para garantizar la privacidad) y un robusto sistema de observabilidad para rastrear cada paso, decisión y posible fallo. Además, Workflows es totalmente personalizable, permitiendo la integración de diversos modelos y la inyección de código arbitrario para combinar flujos deterministas con capacidades de IA.

La elección de un enfoque "code-first" en lugar de constructores visuales de bajo código subraya la dedicación de Mistral a los desarrolladores e ingenieros, asegurando la precisión y el control necesarios para operaciones críticas. Bajo el capó, Workflows se apoya en el motor de ejecución duradera de Temporal, una plataforma pr obada que garantiza la fiabilidad y el estado en procesos de larga duración. La solución ya está en producción, manejando millones de ejecuciones diarias en casos de uso como la automatización de liberaciones de carga, la verificación de cumplimiento documental en finanzas y la gestión de soporte al cliente. Workflows se posiciona como la capa intermedia de la estrategia de plataforma de IA empresarial de Mistral, complementando sus herramientas de entrenamiento de modelos (Forge) y su interfaz de usuario (Vibe), con el objetivo de democratizar la implementación de IA en el mundo empresarial.

Fuente Original: https://venturebeat.com/technology/mistral-ai-launches-workflows-a-temporal-powered-orchestration-engine-already-running-millions-of-daily-executions

Artículos relacionad os de LaRebelión:

Artículo generado mediante LaRebelionBOT

Nvidia Lanza Nemotron 3 Nano Omni Revolucionario

Nvidia ha dado un paso audaz en el mercado de inteligencia artificial al lanzar Nemotron 3 Nano Omni, un modelo multimodal de código abierto que unifica visión, audio y lenguaje en una sola arquitectura. Con 30 mil millones de parámetros pero solo 3 mil millones activos por inferencia, este modelo representa el movimiento más agresivo de la compañía para competir no solo en infraestructura de IA, sino en los modelos que se ejecutan en ella.

Nvidia Lanza Nemotron 3 Nano Omni Revolucionario

El modelo utiliza un diseño de mezcla de expertos que le permite funcionar en una sola GPU mientras iguala o supera las capacidades multimodales de modelos varias veces más grandes. Nvidia afirma que ofrece nueve veces mayor rendimiento que modelos multimodales abiertos comparables, 2.9 veces más rápido en razonamiento de tareas multimodales y aproximadamente nueve veces mayor capacidad efectiva del sistema para razonamiento de video. El modelo lidera seis benchmarks en inteligencia documental, comprensión de video y audio.

La arquitectura híbrida Mamba-Transformer de Nemotron 3 Nano Omni incluye 23 capas de espacio de estado selectivo Mamba-2, 23 capas de mezcla de expertos con 128 expertos que se enrutan a seis por token, y seis capas de atención de consulta agrupada. Procesa texto, imágenes, audio, video, documentos, gráficos e interfaces como entradas, produciendo texto como salida. Esto significa que un solo modelo puede reemplazar el mosaico de modelos especializados de visión, voz y procesamiento de documentos que la mayoría de las implementaciones empresariales actualmente utilizan.

La estrategia de Nvidia es circular pero poderosa: sus modelos están optimizados para su hardware, y su hardware está optimizado para sus modelos, creando un ecosistema completo que compite con las ofertas de modelo más nube de Google, Amazon y Microsoft. La familia de modelos Nemotron ha sido descargada más de 50 millones de veces en el último año, demostrando la tracción de esta estrategia.

Entre las empresas que ya están adoptando el modelo se encuentran Foxconn, Palantir, Aible y ASI, mientras que Dell, DocuSign, Infosys, Oracle y Zefr están evaluándolo para implementación en producción. Los casos de uso incluyen inspección visual en plantas de fabricación, procesamiento de documentos, aplicaciones de agentes de voz y comprensión de pantalla para agentes de uso de computadora, reflejando el mercado que Nvidia está apuntando: agentes de IA industriales que necesitan ver, escuchar y leer en tiempo real en hardware local.

Lo que distingue a Nemotron 3 Nano Omni no es una sola capacidad, sino la combinación: percepción multimodal en visión, audio y texto en un solo modelo, con eficiencia de mezcla de expertos que permite implementación en el borde, lanzado como pesos abiertos con licencia comercial. Ningún otro modelo actualmente ofrece las cuatro propiedades juntas. Si los modelos abiertos de Nvidia se convierten en el estándar para implementación de agentes de IA en el borde, la compañía captura valor en cada capa de la pila: la GPU que ejecuta la inferencia, el marco de software que la optimiza y ahora el modelo mismo.

Fuente Original: https://thenextweb.com/news/nvidia-nemotron-nano-omni-multimodal-agent-edge

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Poolside Launches Free Open-Source Coding AI Model

The artificial intelligence landscape has witnessed an intriguing development as American startup Poolside releases two groundbreaking large language models designed specifically for agentic coding workflows. Whilst tech giants Anthropic and OpenAI continue their expensive model rivalry, and Chinese companies like DeepSeek pursue affordable alternatives, this San Francisco-based company founded in 2023 has emerged with a compelling proposition: high-performance AI models that are both accessible and, in one case, completely open-source.

Poolside Launches Free Open-Source Coding AI Model

Poolside's release comprises two distinct models. The flagship Laguna M.1 is a proprietary 225-billion parameter Mixture of Experts model with 23 billion active parameters, optimised for complex enterprise and government software engineering challenges. However, the more disruptive offering is Laguna XS.2, a 33-billion parameter model with just 3 billion active parameters, released under the permissive Apache 2.0 open-source licence. This smaller model can run entirely offline on consumer hardware—requiring as little as 36GB of unified memory on Apple Silicon or 24-32GB VRAM on PCs with quantisation—delivering complete privacy and security for developers working on sensitive projects.

What makes these models remarkable is their performance relative to size. On the SWE-bench Pro benchmark, which tests real-world software problem-solving abilities, Laguna M.1 achieved 46.9% whilst the considerably smaller XS.2 scored an impressive 44.5%, nearly matching its larger sibling and outperforming competitors like Claude Haiku 4.5 and Gemma 4. These models weren't simply fine-tuned from existing frameworks but trained from scratch using Poolside's proprietary "Model Factory" infrastructure, incorporating 30 trillion tokens of carefully curated data—13% of which is synthetic, custom-made practice material designed to teach specific skills.

Poolside's training methodology employs sophisticated systems including the Muon optimiser, which accelerates learning approximately 15% faster than standard methods, and AutoMixer, which scientifically determines optimal combinations of code, mathematics, and general knowledge. Following initial training, models undergo reinforcement learning in virtual environments where they practice solving real software engineering problems through trial and error, receiving rewards for successful bug fixes and working code—transforming them from text generators into capable autonomous agents.

Beyond the models themselves, Poolside has introduced two complementary tools. "Pool" is a terminal-based coding agent that functions as an Agent Client Protocol server, bringing researchers' internal training tools to the public. "Shimmer" is a cloud-native development environment offering instant-on virtual machine sandboxes with integrated AI agents, remarkably designed to function even on smartphones—suggesting a future where complex engineering work isn't confined to desktop computers. The company's decision to release XS.2 under Apache 2.0 licensing, allowing unrestricted commercial use without royalties, reflects their conviction that "the West needs strong open-weight models" and positions Poolside as a cornerstone of the open-AI ecosystem, directly challenging the predominantly closed approaches of major competitors.

Fuente Original: https://venturebeat.com/technology/american-ai-startup-poolside-launches-free-high-performing-open-model-laguna-xs-2-for-local-agentic-coding

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

martes, 28 de abril de 2026

Vuelo Caribeno FAA Extiende Prohibicion Sorpresa

La Administración Federal de Aviación (FAA) de Estados Unidos ha tomado la decisión de extender la prohibición de vuelos hacia un país caribeño específico. Esta medida, que inicialmente se implementó para abordar preocupaciones de seguridad, ahora se prolonga, generando incertidumbre para viajeros y aerolíneas. Aunque los detalles exactos de las razones detrás de la extensión no se han revelado completamente, se infiere que persisten riesgos significativos que impiden la reanudación segura de los servicios aéreos.

Vuelo Caribeño: FAA Extiende Prohibición Sorpresa

La extensión de esta prohibición subraya la seriedad con la que la FAA evalúa los protocolos de seguridad y la infraestructura aeronáutica de los países con los que mantiene vínculos aéreos. Si bien el país en cuestión no se menciona explícitamente en el título del artículo original, la implicación es que enfrenta desafíos que han llevado a la FAA a mantener una postura restrictiva. Los pasajeros que tenían planes de viajar a esta nación caribeña deberán estar atentos a futuras actualizaciones y buscar alternativas, mientras que las aerolíneas deberán ajustar sus operaciones y rutas en consecuencia. La seguridad aérea es primordial, y la FAA está comprometida a garantizar que todas las operaciones cumplan con los más altos estándares antes de levantar cualquier restricción.

Fuente Original: https://news.google.com/rss/articles/CBMimgFBVV95cUxNQU5zMy1veF96RmtVcGF0Y2VTWFROZlJ3VG5NcnEtUjc5SVdMSkdFR2VremV0RFZXeWk2ZjZfWElXMUpENWFRdmx2c0JzS3ppMUZsTGgyQ3NBUDdVOFNlMWZnQUFQQm5nRnlpOW9BWkpfNGRmUm1CejRxUFpTZll6WmY0aGQ5UWZYVnB4OHFGUDVGeC03UWVXWDJB0gGuAUFVX3lxTE1LM0VGeTBWLVhXLVp5QWhRNW1JRGo0aFVMUWEzWGstWnFjZF9qTVBmOGxTbnU5dzhlVTltd2Y5VmFqM0lJVlpndUlyRGJmNXZVQ3NGSzFVOEhCMHRlaklRX3dyY3ROaGllTmpWMHRGOGF6eWplLUpoX0d6dFZyVjkxdmlaV0N0Wl9aVjFTdGNudWZMRTVxRGMtS2J6M0pySHhwSFlhNUZSUEo0c2Nudw?oc=5

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Redpine Secures 68M for Licensed AI Data API

In a significant move for the burgeoning AI landscape, Stockholm-based startup Redpine has successfully raised €6.8 million in new funding. This latest round, spearheaded by NordicNinja, with contributions from Luminar Ventures, node.vc, and notable tech founders, brings Redpine's total funding to an impressive €9 million. The company's core mission is to revolutionise how AI agents access and utilise data by providing a licensed, real-time API for premium datasets.

Redpine Secures €6.8M for Licensed AI Data API

Redpine tackles a critical issue plaguing the AI industry: the reliance on scraped internet data for training. This approach is fraught with legal fragility, questionable data quality, and a lack of compensation for the original creators. As legal pressures mount, exemplified by recent copyright settlements and new EU disclosure requireme nts, the need for a legitimate and reliable data infrastructure becomes paramount. Redpine positions itself as the solution, drawing a parallel to Spotify's disruption of the music industry by making licensed access convenient and superior to illicit alternatives.

The platform functions as a headless API, enabling AI agents to query and pay for premium licensed datasets on a token-based model. This ensures that costs scale directly with usage, offering a more dynamic and cost-effective solution than traditional subscription services. Redpine's technology focuses on evaluating data quality in real-time, filtering out inaccuracies to ensure that mission-critical domains like healthcare, legal, finance, scientific research, and news receive reliable information. The backing from investors with deep ties to AI pioneers like OpenAI and Perplexity underscores the perceived value of Redpine's API-native, agent-first approach, aiming to become the global leader in AI data infrastructu re within the next three to five years.

Fuente Original: https://thenextweb.com/news/redpine-raises-e6-8m-api-for-ai-agents

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Google y el Pentagono IA sin limites para fines militares

Google ha sellado un acuerdo clasificado con el Departamento de Defensa de Estados Unidos (Pentágono) que permitirá a la entidad militar emplear los modelos de inteligencia artificial de Google para "cualquier propósito gubernamental legal". Este pacto se produce a pesar de una carta abierta de más de 560 empleados de Google instando a la compañía a evitar este tipo de colaboraciones militares clasificadas.

Google y el Pentágono: IA sin límites para fines militares

Lo que distingue este acuerdo es la ausencia de las restricciones éticas que llevaron a Anthropic, otra empresa de IA, a ser excluida de contratos militares en febrero. Mientras Anthropic se negó a eliminar prohibiciones contractuales sobre vigilancia doméstica masiva y armas autónomas sin supervisión humana, el acuerdo de Google parece otorgar al Pentágono una discreción considerablemente más amplia. Fuentes sugieren que el contrato de Google se alinea con el modelo sin restricciones preferido por la administración anterior, a diferencia del de OpenAI, que negoció algunas salvaguardias.

Google se suma así a OpenAI y xAI como proveedor de capacidades de IA clasificadas para el ejército estadounidense. La situación de Anthropic, excluida por mantener sus principios éticos, contrasta con la de OpenAI, que renegoció para permanecer, y xAI, que firmó sin restricciones aparentes. La decisión de Google, especialmente por el momento en que se produce tras la protesta de sus empleados, pone de manifiesto la tensión entre las demandas del gobierno para aplicaciones militares de IA y los principios éticos que las propias empresas tecnológicas han proclamado. El futuro de estas colaboraciones dependerá de la evolución del panorama político y de la presión interna de los empleados.

Fuente Original: https://thenextweb.com/news/google-pentagon-classified-ai-deal

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Microsoft y OpenAI Rompen Su Acuerdo Exclusivo

Microsoft y OpenAI han anunciado una transformación radical de su histórica alianza que definió la era comercial de la inteligencia artificial. El lunes 27 de abril de 2026, ambas compañías revelaron simultáneamente cambios fundamentales en su acuerdo de exclusividad, permitiendo ahora a OpenAI vender sus servicios en plataformas rivales como AWS de Amazon y Google Cloud. Esta reestructuración desmantela los pilares clave del pacto original firmado en 2019, cuando Microsoft invirtió inicialmente mil millones de dólares en OpenAI.

Microsoft y OpenAI Rompen Su Acuerdo Exclusivo

Bajo los nuevos términos, Microsoft ya no pagará ninguna participación de ingresos a OpenAI cuando los clientes accedan a sus modelos a través de Azure. OpenAI, por su parte, continuará pagando a Microsoft una participación del 20 por ciento hasta 2030, pero con un tope total establecido. La licencia de Microsoft sobre la propiedad intelectual de OpenAI, que antes era exclusiva, ahora se ha convertido en no exclusiva y se extenderá hasta 2032. Lo más significativo es que OpenAI puede ahora servir todos sus productos en cualquier proveedor de nube, terminando con la exclusividad que había sido fundamental en el acuerdo original.

El catalizador inmediato de esta reestructuración fue la inversión de 50 mil millones de dólares de Amazon en OpenAI anunciada en febrero. Amazon comprometió 15 mil millones inicialmente, con otros 35 mil millones programados bajo ciertas condiciones. A cambio, OpenAI acordó expandir su relación con AWS por 100 mil millones durante ocho años y hacer de AWS el proveedor exclusivo de distribución de terceros para Frontier, su nueva plataforma empresarial. Este acuerdo contradecía directamente los términos exclusivos del contrato existente con Microsoft, creando una crisis legal que amenazaba con litigios.

Los cambios financieros son sustanciales. Bajo el antiguo acuerdo, el dinero fluía en ambas direcciones entre las compañías. Ahora, el flujo se vuelve unidireccional: Microsoft deja de pagar a OpenAI completamente, mientras que OpenAI continúa pagando a Microsoft hasta 2030 con un límite establecido. Microsoft conserva aproximadamente el 27 por ciento de propiedad en la entidad con fines de lucro de OpenAI y reportó 7.5 mil millones de dólares en ingresos relacionados con OpenAI solo en el último trimestre.

Un aspecto filosóficamente intrigante es la desaparición de la cláusula AGI (Inteligencia General Artificial) que originalmente gobernaba la asociación. El acuerdo inicial estipulaba que los derechos exclusivos de Microsoft cambiarían si OpenAI alcanzaba AGI, un hito vagamente definido. Esta provisión ha sido reemplazada por fechas fijas y límites monetarios, señalando que la industria ha superado el marco conceptual que una vez definió esta alianza.

Los grandes beneficiarios inmediatos son los clientes empresariales, que durante años solo tenían Azure como opción para acceder a los modelos de OpenAI. Ahora, según el CEO de Amazon Andy Jassy, los modelos de OpenAI estarán disponibles en AWS Bedrock en las próximas semanas. Esta disponibilidad multi-nube llega en un momento de intensa consolidación en el mercado de infraestructura de IA, donde Microsoft compite con OpenAI en productos, se asocia con el rival de OpenAI, Anthropic, y sigue siendo el mayor accionista de OpenAI.

Fuente Original: https://venturebeat.com/technology/microsoft-and-openai-gut-their-exclusive-deal-freeing-openai-to-sell-on-aws-and-google-cloud

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Xiaomis Open-Source AI Models Dominate Agentic Tasks

Chinese technology giant Xiaomi has released two groundbreaking open-source AI models that are revolutionising the landscape of agentic artificial intelligence. The MiMo-V2.5 and MiMo-V2.5-Pro models are now available under the permissive MIT Licence, making them exceptionally attractive for enterprise deployment. What sets these models apart is their remarkable efficiency in powering 'claw' tasks—autonomous agents that complete complex assignments on behalf of users, from managing email to creating marketing content.

Xiaomi's Open-Source AI Models Dominate Agentic Tasks

The performance metrics are genuinely impressive. According to Xiaomi's ClawEval benchmarks, the Pro version leads the open-source field with a 63.8% success rate whilst consuming merely 70,000 tokens per trajectory. This represents a staggering 40-60% reduction in token usage compared to industry heavyweights like Anthropic's Claude Opus 4.6, Google's Gemini 3.1 Pro, and OpenAI's GPT-5.4. In an era where services are increasingly moving towards usage-based billing—as evidenced by GitHub Copilot's recent shift to metered pricing—this efficiency translates directly into substantial cost savings for enterprises.

Xiaomi has strategically released two distinct versions to serve different developer needs. The base MiMo-V2.5 is a multimodal specialist, whilst the MiMo-V2.5-Pro is engineered specifically for long-horizon coherence and complex software engineering tasks. The Pro model's capabilities are nothing short of remarkable: it autonomously implemented a complete SysY compiler in Rust within 4.3 hours—a task that typically takes computer science students several weeks. It also created a fully-featured video editor with 8,192 lines of code over 11.5 hours, demonstrating sustained coherence across 1,868 sequential tool calls.

The pricing structure is aggressively competitive. For international developers, the MiMo-V2.5-Pro costs $1.00 per million input tokens and $3.00 for output within 256K context windows. The base model starts at just $0.40 per million input tokens, positioning it amongst the most affordable leading language models globally. Xiaomi has even made cache writing free of charge for a limited period, further lowering barriers to agentic development.

Architecturally, both models employ a Sparse Mixture-of-Experts design. The base V2.5 features 310 billion total parameters with 15 billion active during inference, whilst the Pro version boasts a massive 1.02 trillion parameters with 42 billion active. This architecture functions like a specialised hospital where only the relevant specialists are called upon for each query, ensuring computational efficiency. The models also feature a native 1-million-token context window, enabling them to maintain coherence across extraordinarily long interactions.

Perhaps the most significant aspect of this release is the MIT Licence, which grants unrestricted commercial use without revenue caps or user-base limits. This stands in stark contrast to many 'open' models that include restrictive acceptable use policies. Enterprises can deploy, modify, fine-tune on proprietary data, and even release derivative versions without seeking permission from Xiaomi. This positions MiMo as foundational infrastructure for the next generation of AI agents, effectively treating the model as a public utility.

The release has received immediate ecosystem support, with popular inference engines SGLang and vLLM providing Day-0 compatibility. Hardware partnerships with AWS, AMD, T-HEAD, and Enflame ensure the models can run efficiently across diverse computing environments. To accelerate adoption, project lead Fuli Luo announced a 100-trillion free token grant for developers and creators, eliminating financial barriers to experimentation with the extensive context window capabilities.

Fuente Original: https://venturebeat.com/technology/open-source-xiaomi-mimo-v2-5-and-v2-5-pro-are-among-the-most-efficient-and-affordable-at-agentic-claw-tasks

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

lunes, 27 de abril de 2026

Malware Snow Teams y Email Roban Active Directory

El grupo de ciberdelincuentes UNC6692 ha perfeccionado una técnica insidiosa para infiltrarse en redes corporativas, combinando tácticas de 'bombardeo de correo' con ingeniería social a través de Microsoft Teams. El objetivo final es engañar a los empleados para que instalen un supuesto parche de seguridad que, en realidad, es un malware avanzado llamado Snow. Esta campaña no solo busca obtener control remoto y moverse lateralmente dentro de la red, sino que culmina en el robo de datos críticos, incluyendo la valiosa base de datos de Active Directory.

Malware Snow: Teams y Email Roban Active Directory

La estrategia de UNC6692 aprovecha la confianza que los empleados depositan en herramientas de uso diario como Microsoft Teams . Al hacerse pasar por personal de soporte técnico (helpdesk), los atacantes pueden interactuar con las víctimas de manera directa y persuasiva, ofreciendo una solución rápida a un problema inexistente. El ataque comienza con una oleada de correos electrónicos diseñados para abrumar al usuario y generar una sensación de urgencia. Justo en ese momento de distracción, se inicia un chat en Teams donde se ofrece el falso parche bajo la premisa de frenar el spam. Este 'parche' actúa como un 'dropper', ejecutando scripts que preparan el terreno para la instalación de un conjunto de herramientas maliciosas.

Una de las piezas clave de este malware es SnowBelt, una extensión maliciosa para Chrome que opera de forma oculta dentro de Microsoft Edge. Para asegurar su persistencia, se crean tareas programadas y se añade un acceso directo en la carpeta de inicio del usuario. Posteriormente, SnowBelt actúa como un relé para SnowBasin, una puerta trasera escrita en Python capaz de ejecutar comandos, descargar y exfiltrar archivos, y establecer sesiones de shell remoto. La comunicación con la infraestructura del atacante se camufla y asegura a través de SnowGlaze, que crea un túnel WebSocket disfrazado como tráfico legítimo de Edge, permitiendo incluso redirigir tráfico TCP arbitrario. Una vez dentro, el grupo procede a la fase de reconocimiento del dominio, buscando activamente sistemas con información sensible para robar credenciales mediante técnicas como el volcado de memoria de LSASS y el movimiento lateral con 'pass the hash', con el objetivo final de acceder al controlador de dominio y extraer la base de datos de Active Directory.

Fuente Original: https://unaaldia.hispasec.com/2026/04/unc6692-usa-microsoft-teams-y-bombardeo-de-correo-para-colar-el-malware-snow-y-robar-active-directory.html?utm_source=rss&utm_medium=rss&utm_campaign=unc6692-usa-microsoft-teams-y-bombardeo-de-correo-para-colar-el-malware-snow-y-robar-active-directory

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

China Reverses Meta AI Deal What You Need to Know

In a significant development in the world of artificial intelligence, China has announced its intention to reverse a major acquisition deal involving Meta, the parent company of Facebook. This move signals a growing trend of increased scrutiny and regulation of foreign technology acquisitions within China, particularly in the rapidly evolving AI sector.

China Reverses Meta AI Deal: What You Need to Know

The exact details of the acquisition have not been fully disclosed, but it is understood to be a substantial investment by Meta in an AI-related entity or technology within China. The Chinese government's decision to block or unwind this deal underscores its commitment to maintaining control over its domestic AI landscape and national security interests. This action is likely influenced by broader geopolitical tensions and a desire to foster indigenous AI development while safeguarding its technological future.

The reversal highlights the complexities and risks associated with cross-border tech deals, especially in sensitive areas like artificial intelligence. For Meta, this represents a setback in its global AI expansion strategy and may lead to a reassessment of its investment approaches in markets with stringent regulatory environments. The implications of this decision could extend to other foreign tech companies looking to engage with the Chinese market, potentially creating a more cautious and selective investment climate. This event is a clear indicator of China's assertive stance in shaping its technological destiny and its willingness to intervene in major acquisitions deemed to be against its national interests.

Fuente Original: https://news.google.com/rss/articles/CBMid0FVX3lxTE4wbEw4czdzUDJyMVV4S19rT2JNTG9ySTZub2lsVzUzc0tEbjRIZWVOdnAzWkxONldEMmZBRGR4S2J6RlRSRlRFTEVYYXlEcjN3dzJ6WG1WOThxT0RyVHpacmEtU05OTXZuRkpYNEoxaUN2QkhVc2cw?oc=5

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Musk vs OpenAI Duelo Legal por el Futuro de la IA

La inteligencia artificial está en el centro de una batalla legal sin precedentes. Elon Musk, figura clave en los inicios de OpenAI, ha decidido demandar a la organización que cofundó, alegando que esta ha traicionado sus principios fundacionales. Musk sostiene que OpenAI, bajo el liderazgo de Sam Altman, ha pasado de ser una entidad sin fines de lucro dedicada al beneficio de la humanidad a convertirse en una empresa impulsada por el lucro, aliándose con gigantes tecnológicos como Microsoft.

Musk vs. OpenAI: Duelo Legal por el Futuro de la IA

La demanda se centra en la supuesta desviación de la misión original de OpenAI, que era desarrollar IA de manera abierta y accesible para el bien común. Musk argumenta que la creciente exclusividad y las ambiciones comerciales de OpenAI, especialmente su colaboración con Microsoft y la búsqueda de beneficios económicos, van en contra del espíritu con el que se creó la compañía. La disputa pone de manifiesto las tensiones inherentes al rápido avance de la IA y el debate sobre quién debe controlar y beneficiarse de esta tecnología transformadora.

Este enfrentamiento legal no solo es significativo por las personalidades involucradas, sino también por las implicaciones que podría tener en el desarrollo futuro de la inteligencia artificial. La resolución de este caso podría sentar un precedente sobre la propiedad intelectual, la ética en la investigación de IA y el equilibrio entre la innovación comercial y el acceso público a tecnologías avanzadas. La comunidad tecnológica observa de cerca este duelo, que promete ser definitorio para el panorama de la IA.

Fuente Original: https://news.google.com/rss/articles/CBMi4AFBVV95cUxPaGtCQ0JxR3FuMDZFQ1RXd20yeHkyaEdmbUEyRV9CUE9oVHJnaVZka2Z1TXA3RW0wek1mX2VjLUQ2TTFlMml6MVZBSE5aaDBjamRRZktsd09mR20zazBPZHFlVXNOZTA1a184anFCSmU0ek9aZmV6dFFDeERvcG1MR25saTFkRmZwNndISWRuNC0yYU9SVWQ5VW1OVDdsa0UtT1VWeXpVYXpSTFc1WXAyd09wSnBXM3FJcE1Hd0dlazZMQ2ZTZWhMSHZVTl9LdVRJdkRSeVpIQk1jdlRiU3Zvaw?oc=5

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

DeepSeek Reduce Precios 75 y Desafia IA

DeepSeek ha lanzado una agresiva estrategia de precios que está sacudiendo la industria de la inteligencia artificial. La compañía china anunció un descuento promocional del 75% en su modelo DeepSeek-V4-Pro para desarrolladores, válido hasta el 5 de mayo de 2026. Simultáneamente, la empresa redujo los costos de caché en toda su suite de API a una décima parte de los niveles anteriores, con efecto inmediato. Este movimiento representa un desafío directo a los proveedores estadounidenses de IA como OpenAI, Google y Anthropic, intensificando una guerra de precios que DeepSeek inició en enero de 2025 con su modelo R1.

DeepSeek Reduce Precios 75% y Desafía IA

El contexto de precios es revelador. Incluso sin el descuento promocional, DeepSeek-V4-Pro ya costaba 0.145 dólares por millón de tokens de entrada y 3.48 dólares por millón de tokens de salida, precios inferiores a los de GPT-5.5 de OpenAI, Gemini 3.1 Pro de Google y Claude Opus 4.7 de Anthropic. Con el descuento del 75%, el precio de entrada se reduce a aproximadamente 0.036 dólares por millón de tokens, estableciendo un nuevo estándar de bajo costo en la industria. La variante Flash del modelo, más pequeña y rápida, también mantiene precios altamente competitivos que superan a alternativas como GPT-5.4 Mini y Claude Haiku 4.5.

La estrategia de DeepSeek es clara y multifacética. La disponibilidad de código abierto elimina completamente las barreras de acceso al modelo, mientras que los precios agresivos de la API eliminan las restricciones de costo para la implementación en producción. El modelo V4-Pro incluye una ventana de contexto de 1 millón de tokens, lo que lo hace viable para casos de uso empresarial que involucran grandes bases de código o documentos extensos. Además, se integra nativamente con frameworks de codificación agente dominantes como Claude Code, OpenClaw y OpenCode, facilitando la transición para desarrolladores que ya trabajan en el ecosistema de IA occidental.

El modelo V4-Pro, lanzado el viernes pasado, es un modelo de mezcla de expertos con 1.6 billones de parámetros totales y 49 mil millones de parámetros activos por tarea, convirtiéndose en el modelo de peso abierto más grande disponible actualmente. Su Arquitectura de Atención Híbrida está diseñada para mantener coherencia en contextos largos. Significativamente, está entrenado y optimizado para chips Ascend 950 de Huawei y hardware Cambricon, en lugar de GPUs de Nvidia, lo que permite construir y desplegar sistemas de IA sin depender exclusivamente de la tecnología estadounidense.

Este anuncio llega en un momento geopolítico tenso. La semana pasada, el Director de Política Científica y Tecnológica de la Casa Blanca, Michael Kratsios, acusó a entidades extranjeras, principalmente chinas, de realizar campañas a "escala industrial" para destilar modelos de IA de vanguardia de empresas estadounidenses. Aunque no mencionó directamente a DeepSeek, tanto Anthropic como OpenAI han acusado previamente a la empresa china de destilar sus modelos. La respuesta de DeepSeek tres días después del lanzamiento de V4 no fue abordar las acusaciones directamente, sino recortar precios aún más, un movimiento competitivo que también representa una declaración política sobre dónde cree la compañía que se decidirá finalmente la carrera de la IA.

Fuente Original: https://thenextweb.com/news/deepseek-v4-pro-price-cut-75-percent

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Google Uncovers AI Prompt Injection Attacks Online

Google's Threat Intelligence teams have conducted a comprehensive investigation into prompt injection attacks targeting AI agents as they browse the web. Analysing billions of pages from Common Crawl's public web repository, researchers discovered a concerning landscape of malicious attempts to manipulate AI systems, ranging from simple pranks to potentially dangerous commands.

Google Uncovers AI Prompt Injection Attacks Online

The study revealed several categories of prompt injection attacks. Some websites contained instructions attempting to vandalize users' machines, including commands designed to delete all files. Whilst researchers deemed such basic attacks unlikely to succeed, they represent a growing trend. Between November 2025 and February 2026, malicious prompt injections increased by 32%, signalling heightened interest in Indirect Prompt Injection (IPI) attacks amongst threat actors.

Amongst the examples discovered, researchers found websites using invisible text with transparent fonts to hide malicious prompts, instructing AI systems to ignore previous commands and behave erratically. Another site attempted to waste AI resources by streaming infinite text that never finished loading, potentially causing timeout errors. Some injections were more whimsical, asking AI to tell children's stories about flying squids or tweet like baby birds, likely experimental pranks by curious website authors.

Not all prompt injections were malicious. Google identified benign cases where website owners simply wanted to ensure AI summaries included relevant context for readers. However, researchers warned such techniques could easily become harmful if used to spread misinformation or redirect users to third-party sites. SEO manipulation emerged as another common use case, with businesses attempting to make AI assistants promote their services over competitors.

Perhaps most concerning were attempts at data exfiltration. A small number of prompts tried instructing AI to send sensitive information, including password files and SSH directory contents, along with system IP addresses. Fortunately, researchers noted they hadn't observed widespread deployment of sophisticated exfiltration techniques published by security researchers in 2025, suggesting attackers haven't yet scaled these methods. As AI systems become more capable and valuable targets, whilst threat actors increasingly automate operations with agentic AI, Google expects both the scale and sophistication of IPI attacks to grow significantly in the near future.

Fuente Original: https://it.slashdot.org/story/26/04/26/2345211/google-studies-prompt-injection-attacks-against-ai-agents-browsing-the-web?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

domingo, 26 de abril de 2026

DeepSeek Lanza IA de 16T Robo o Progreso en EEUU

La tecnología de inteligencia artificial avanza a pasos agigantados, y DeepSeek, una destacada empresa china, ha lanzado su modelo V4 con la asombrosa cifra de 1.6 billones de parámetros. Este hito tecnológico se ha logrado gracias a la utilización de los chips de Huawei, lo que subraya la creciente capacidad de China en el campo de la IA.

DeepSeek Lanza IA de 1.6T: ¿Robo o Progreso en EE.UU.?

Sin embargo, este lanzamiento coincide con un momento de gran tensión geopolítica. El gobierno de Estados Unidos ha intensificado sus acusaciones sobre robo de propiedad intelectual, señalando a DeepSeek y a otras empresas chinas de IA por supuestas prácticas ilícitas. Este escenario crea una dicotomía fascinante: por un lado, el progreso tecnológico que podría beneficiar a la humanidad; por otro, las preocupaciones sobre la comp etencia desleal y la seguridad nacional.

El modelo V4 de DeepSeek promete capacidades sin precedentes en el procesamiento del lenguaje natural y otras áreas de la IA. La elección de los chips de Huawei para potenciar este modelo no es casual, ya que representa la apuesta de China por desarrollar su propia infraestructura tecnológica de vanguardia, independientemente de las restricciones impuestas por Estados Unidos. La industria de la IA se encuentra en un punto de inflexión, donde la innovación y las disputas geopolíticas se entrelazan de manera inextricable. El futuro de la IA dependerá de cómo se gestionen estas tensiones y de si se logra un equilibrio entre la competencia y la colaboración global.

Fuente Original: https://news.google.com/rss/articles/CBMi9gFBVV95cUxObGdBd0NJQ0pTc29TOWhIXzZUR0xSQUlIWXd2NFJMYVZyMmhJMmRSaDF1NUE0Smtpa1VzWXpDSkp4RFN4ZlUwNlJySlowMXg1dVg4NVl3RWE1TDJOUE5ieDM0ODJfN2lOblotcm84YkNzV3h2YkpmX2pRLUc5R2dOZWlWSjZuQ2p6cWIxSU1qWWpweUVfdnlkbmx2V25ienNBSGhISEF3bzd3ek1WV2o3VWxENnRheTNLLVBXdDhzQlY3U0MtTzhQUjg3ZmNGcVNzdEtxem54QnY3cldhOE9QUDBZenJJemNXMTN5NWFUd2h0Qk9na0E?oc=5

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT