sábado, 25 de abril de 2026

Google Invierte Miles de Millones en IA El Futuro

¡Noticias de última hora en el mundo de la inteligencia artificial! Google está a punto de dar un golpe sobre la mesa, comprometiéndose a invertir hasta 40 mil millones de dólares en Anthropic. Esta cifra masiva sigue a una inversión inicial de 5 mil millones de dólares por parte de Amazon, lo que sitúa a Anthropic en una valoración estratosférica de 350 mil millones de dólares.

Google Invierte Miles de Millones en IA: ¿El Futuro?

El rápido ascenso de Anthropic se debe en gran parte al éxito de sus modelos de IA, como Claude, y productos innovadores como Claude Code, diseñado para agilizar el desarrollo de software, y Claude Cowork, que potencia el trabajo de conocimiento general. La compañía ha navegado con éxito las controversias que han rodeado a competidores como OpenAI, además de introducir flujos de trabajo más robustos y eficientes. Esto ha disparado la demanda de sus servicios, llegando incluso a causar interrupciones por la abrumadora cantidad de peticiones, lo que ha llevado a Anthropic a considerar medidas como límites de uso en horas punta o la reubicación de herramientas más demandantes de recursos en planes de servicio menos costosos.

El objetivo principal de estas inversiones es crucial: cerrar la brecha entre la creciente demanda y la capacidad de cómputo disponible para sus potentes modelos de IA. Tanto Google como Amazon están proporcionando a Anthropic recursos vitales, incluyendo chips optimizados para entrenamiento e inferencia de IA, así como capacidad de cómputo en la nube. Este tipo de acuerdos se ha vuelto una estrategia común en la industria de la IA: las grandes empresas tecnológicas invierten en startups emergentes, proporcionando no solo capital sino también la infraestructura necesaria para escalar, a cambio de poder vender sus propios productos y servicios a estas empresas en crecimiento. Es importante destacar que esta no es la primera vez que Google invierte en Anthropic, a pesar de ser competidores directos en el desarrollo de modelos de IA avanzados.

Fuente Original: https://arstechnica.com/ai/2026/04/google-will-invest-as-much-as-40-billion-in-anthropic/

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Google Invierte 40 Mil Millones en Anthropic

Google se prepara para realizar una inversión histórica de hasta $40 mil millones en Anthropic, la compañía cuyo modelo insignia Claude está superando a Gemini en el mercado empresarial. Este movimiento representa la apuesta más grande jamás hecha por una compañía tecnológica en un rival de inteligencia artificial, y al mismo tiempo constituye una admisión implícita de que Gemini por sí solo no es suficiente para competir en este mercado acelerado.

Google Invierte $40 Mil Millones en Anthropic

El acuerdo incluye $10 mil millones en efectivo basados en la valoración actual de Anthropic de $350 mil millones, más $30 mil millones adicionales condicionados al cumplimiento de objetivos de rendimiento no revelados. Además del capital, Google proporcionará cinco gigavatios de poder computacional durante cinco años, incluyendo acceso a hasta un millón de sus chips TPU Ironwood de séptima generación. Con esta inversión, el compromiso total de Google con Anthropic alcanzaría aproximadamente $43 mil millones.

Los números de Anthropic justifican esta inversión masiva. La tasa de ingresos anualizados de la compañía alcanzó $30 mil millones en abril, un salto extraordinario desde $1 mil millones en enero de 2025. Ninguna empresa en la historia tecnológica estadounidense ha crecido a ese ritmo. Claude domina el 32% del mercado empresarial de APIs de modelos de lenguaje, superando al GPT-4o de OpenAI que tiene 25%. Ocho de las diez empresas del Fortune 10 son clientes de Claude, y más de mil negocios gastan más de $1 millón anualmente en la plataforma, una cifra que se duplicó desde febrero.

La estructura del acuerdo revela la verdadera naturaleza de esta alianza. La participación actual de Google en Anthropic es de aproximadamente 14%, adquirida a través de más de $3 mil millones en inversiones previas, con un límite contractual del 15% y sin derechos de voto ni asientos en la junta directiva. Este diseño parece elaborado para evitar activar umbrales de revisión antimonopolio mientras mantiene una exposición económica significativa. El compromiso de cinco gigavatios de capacidad computacional es estratégicamente más importante que el cheque de capital, asegurando que Google incruste profundamente sus TPUs en la infraestructura de Anthropic.

Este movimiento llegó cuatro días después de que Amazon anunciara su propia escalada, comprometiéndose hasta $33 mil millones en Anthropic. Ambos gigantes de la nube están compitiendo simultáneamente por asegurar a la misma compañía como su cliente de IA más importante. Internamente, Google DeepMind ha formado un "equipo de choque" específicamente para cerrar la brecha entre Gemini y Claude en codificación, después de que evaluaciones internas mostraran la superioridad de Claude en la categoría que genera más ingresos empresariales. El producto de codificación Claude Code alcanzó $1 mil millones en ingresos anuales dentro de seis meses de su lanzamiento y ahora genera más de $2.5 mil millones.

La inversión llega en un momento de mayor escrutinio regulatorio sobre las asociaciones de IA. El límite de propiedad del 15% de Google y la ausencia de representación en la junta fueron casi con certeza estructurados pensando en estas preocupaciones antimonopolio. Sin embargo, $43 mil millones en inversión total y una dependencia computacional de varios gigavatios crean un grado de entrelazamiento económico que ningún porcentaje de propiedad puede capturar completamente. Este acuerdo está estructurado para que Google gane ya sea que Anthropic tenga un éxito espectacular o simplemente tenga éxito, capturando miles de millones en gasto computacional a través de los compromisos de infraestructura.

Fuente Original: https://thenextweb.com/news/google-40-billion-anthropic-investment-gemini

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

DeepSeek-V4 Frontier AI at Fraction of Cost

The Chinese AI startup DeepSeek has launched DeepSeek-V4, a groundbreaking open-source model that delivers near state-of-the-art performance at approximately one-sixth the cost of premium competitors like Claude Opus 4.7 and GPT-5.5. This release, described as the 'second DeepSeek moment', arrives 484 days after the company's V3 model and represents a significant leap in making advanced AI accessible to developers worldwide.

DeepSeek-V4: Frontier AI at Fraction of Cost

DeepSeek-V4-Pro is priced at just $1.74 per million input tokens and $3.48 per million output tokens through its API, bringing a combined cost of $5.22 for standard usage. In stark contrast, GPT-5.5 costs $35.00 and Claude Opus 4.7 costs $30.00 for equivalent usage. The even more affordable DeepSeek-V4-Flash variant costs merely $0.42 for the same comparison, representing a staggering 98% reduction compared to premium models. This dramatic price compression is forcing enterprises to reconsider the economic viability of tasks previously too expensive to automate.

Whilst DeepSeek-V4-Pro-Max doesn't outright defeat GPT-5.5 or Claude Opus 4.7 across all benchmarks, it achieves remarkably competitive results. On BrowseComp, measuring agentic web browsing capabilities, DeepSeek scores 83.4%, narrowly trailing GPT-5.5's 84.4% and surpassing Claude Opus 4.7's 79.3%. However, on academic reasoning tests like GPQA Diamond, DeepSeek's 90.1% falls behind GPT-5.5's 93.6% and Claude Opus 4.7's 94.2%. The model demonstrates substantial improvements over its predecessor, V3.2, with MMLU-Pro scores jumping from 65.5 to 73.5 and FACTS Parametric performance more than doubling from 27.1 to 62.6.

The technical innovations underpinning DeepSeek-V4 are revolutionary. The model features a native one-million-token context window whilst requiring only 10% of the memory cache and 27% of the computational operations compared to V3.2. This efficiency stems from a Hybrid Attention Architecture combining Compressed Sparse Attention and Heavily Compressed Attention. The 1.6-trillion-parameter model utilises Mixture-of-Experts design, activating only 49 billion parameters per token. A novel Manifold-Constrained Hyper-Connections system stabilises the massive network, whilst the Muon optimiser enabled training on over 32 trillion high-quality tokens. Crucially, DeepSeek validated its architecture on Huawei Ascend NPUs, achieving up to 1.73x speedup and demonstrating independence from Western GPU supply chains, though Nvidia GPUs were still used during training.

Released under the permissive MIT License, DeepSeek-V4 allows unrestricted commercial use without royalties. The model integrates seamlessly with popular AI agents and development tools, establishing itself as essential open-source infrastructure. Industry reactions have been overwhelmingly positive, with Vals AI declaring it the number one open-weight model on their benchmarks. DeepSeek is retiring legacy endpoints by July 2026, transitioning entirely to the V4 architecture. This release fundamentally challenges the economics of frontier AI, proving that architectural innovation can substitute for raw computational power whilst making cutting-edge intelligence accessible globally.

Fuente Original: https://venturebeat.com/technology/deepseek-v4-arrives-with-near-state-of-the-art-intelligence-at-1-6th-the-cost-of-opus-4-7-gpt-5-5

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

viernes, 24 de abril de 2026

China Restringe Inversion de EE UU en IA Aprobacion Gubernamental Obligatoria

Las tensiones entre China y Estados Unidos en el ámbito de la inteligencia artificial se intensifican, moviéndose más allá de las restricciones en chips y exportaciones para abarcar el capital y los modelos de IA. Según informes recientes, China planea implementar una medida significativa: restringir a sus empresas tecnológicas líderes, incluidas las startups de IA más prometedoras, de aceptar capital estadounidense sin obtener primero la aprobación del gobierno. Si se materializa, esta política representaría un cambio estructural importante en el acceso de las empresas chinas de IA a la financiación extranjera, equiparándola a los marcos de aprobación ya existentes para ciertas exportaciones de tecnología, flujos de datos y adquisiciones extranjeras de activos chinos.

China Restringe Inversión de EE. UU. en IA: ¡Aprobación Gubernamental Obligatoria!

Esta decisión surge en un contexto de escalada mutua. Recientemente, la administración Trump anunció medidas para controlar a las empresas tecnológicas extranjeras, con un enfoque particular en China, por supuestamente "explotar" modelos de IA de Estados Unidos mediante una práctica conocida como "destilación de modelos". Esta táctica permite a los desarrolladores chinos entrenar sus propios sistemas utilizando modelos de IA estadounidenses, ya sean de código abierto o accesibles comercialmente, acortando la brecha de capacidad sin necesidad de un desarrollo desde cero. La jugada de China, por su parte, busca evitar que el dinero estadounidense, que conlleva beneficios intangibles como experiencia gerencial, redes de talento y acceso estratégico, fluya hacia sus "campeones nacionales" de IA sin la supervisión estatal.

Ambas acciones, tomadas casi simultáneamente, pintan un panorama de una guerra de IA en la que ambos países buscan controlar los flujos de tecnología y capital. La regla de inversión saliente de EE. UU., que entró en vigor a principios de 2025, prohíbe las inversiones de capital en empresas chinas que operan en semiconductores avanzados, computación cuántica o ciertos sistemas de IA sin aprobación del Tesoro. El plan reportado de China es, en esencia, el reflejo inverso de esta regla, exigiendo aprobación gubernamental antes de que sus empresas de IA acepten financiación de EE. UU. La cuestión de la destilación de modelos es más novedosa técnicamente, con empresas chinas utilizando modelos como Llama de Meta para entrenar sus propios sistemas, lo que las empresas estadounidenses consideran una ventaja estructural injusta. Las implicaciones comerciales para las startups chinas de IA son significativas, ya que una capa adicional de supervisión gubernamental podría d esalentar aún más la inversión o impulsar la formación de capital de IA a través de canales domésticos. A pesar de estas medidas, el núcleo del problema persiste: las capacidades de IA de China están mejorando rápidamente, y la pregunta que ambos gobiernos deben responder ahora no es cómo mantener el orden tecnológico actual, sino cómo dar forma a los términos de una competencia que ya está en pleno apogeo.

Fuente Original: https://thenextweb.com/news/china-us-investment-ai-startups-approval

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Metas AI Drive 8000 Jobs Cut Survivors Train Replacements

Meta is undergoing a significant restructuring, announcing the layoff of approximately 8,000 employees, which constitutes about 10% of its global workforce. This wave of job cuts is set to commence on May 20th, and it's part of a broader strategy that also includes the cancellation of 6,000 previously open positions. Further reductions are anticipated in the latter half of 2026, potentially impacting another substantial portion of the workforce. The company's HR head, Janelle Gale, communicated these changes internally, citing the need for increased efficiency and to offset significant investments being made elsewhere.

Meta's AI Drive: 8,000 Jobs Cut, Survivors Train Replacements

The core driver behind these extensive layoffs is Meta's monumental investment in Artificial Intelligence. The company plans to allocate a staggering $115 billion to $135 billion towards AI infrastructure this year alone. This investment includes building massive AI superclusters and acquiring top-tier AI talent, with some individual engineers reportedly receiving packages worth up to $1.5 billion. These new hires, crucial for Meta's AI ambitions, are distinct from the employees being let go. The company is systematically reorganising its teams into AI-centric 'pods,' creating new roles like 'AI builder' and 'AI pod lead,' with the stated aim of achieving a 'step change in engineering productivity and product quality.' This restructuring marks the third major round of layoffs since 2022, bringing the total number of job cuts to over 33,000.

Adding to the employee unease, Meta is also implementing a workplace surveillance program called the 'Model Capability Initiative.' This initiative involves capturing employee keystrokes, mouse movements, and screenshots on work computers to train AI agents. Employees have reportedly protested this programme internally, and experts have raised concerns about consent and compensation for using employee behaviour as training data. The juxtaposition is stark: remaining employees are tasked with generating the data that will train AI systems, which in turn are designed to replace human roles. This strategy aligns with a broader tech industry trend where companies are cutting traditional roles to redirect resources towards AI development, with Meta's substantial revenue and profit underscoring that the cuts are strategic rather than a result of financial distress.

Fuente Original: https://thenextweb.com/news/meta-layoffs-8000-ai-restructuring-may-2026

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

IA Transatlantica Cohere y Aleph Alpha se unen valen 20 mil millones

En un movimiento que busca crear un gigante de inteligencia artificial con sede en Europa y libre de la influencia estadounidense, las empresas Cohere y Aleph Alpha han anunciado su fusión. Este acuerdo, valorado en aproximadamente 20 mil millones de dólares, tiene como objetivo principal ofrecer una alternativa tecnológica soberana a las grandes compañías de IA de Estados Unidos, tanto para empresas como para el sector público.

IA Transatlántica: Cohere y Aleph Alpha se unen, valen $20 mil millones

La fusión, anunciada en Berlín, con la presencia de ministros digitales de Alemania y Canadá, subraya la dimensión geopolítica del acuerdo. Aunque se presenta como una fusión equitativa, la estructura accionarial revela que los inversores de Cohere poseerán alrededor del 90% de la nueva entidad, mientras que los de Aleph Alpha tendrán el 10%. Esto, en la práctica, se asemeja más a una adquisición de Aleph Alpha por parte de Cohere, una estrategia que permite a ambas partes beneficiarse de un respaldo gubernamental significativo.

La lógica estratégica detrás de esta unión surge de la creciente preocupación en Canadá y Alemania por su dependencia de proveedores estadounidenses de inteligencia artificial y computación en la nube. Ambas naciones buscan fortalecer su propia capacidad en IA y reducir su vulnerabilidad ante posibles tensiones comerciales y tecnológicas. Cohere, con sede en Toronto, aporta su experiencia en el desarrollo de modelos de IA para empresas, un enfoque en seguridad, privacidad y personalización, así como ingresos recurrentes significativos y alianzas estratégicas con gigantes como Microsoft y Saab.

Por su parte, Aleph Alpha, con base en Alemania, trae consigo una profunda conexión con clientes del sector público y gubernamental alemán, conocimiento de las regulaciones euro peas y un peso simbólico importante en el debate sobre la soberanía de la IA en Europa. Su modelo se centra en ayudar a las empresas a implementar IA, independientemente del proveedor del modelo subyacente, actuando más como un integrador de sistemas.

La inclusión del gobierno alemán como un cliente ancla es un pilar fundamental de este acuerdo. Este rol proporciona a la nueva entidad una visibilidad de ingresos, credibilidad en adquisiciones y apoyo político que sería difícil de obtener de otra manera. Para Cohere, representa una entrada estratégica en los mercados gubernamentales europeos, mientras que para Alemania, ofrece una opción concreta y creíble frente a las alternativas estadounidenses. Sin embargo, surge la pregunta sobre si una empresa con una propiedad mayoritariamente canadiense puede realmente considerarse como IA soberana europea, lo cual será definido por las normativas de contratación y las definiciones políticas de la UE.

La nueva compa� �ía fusionada enfrentará una competencia feroz de titanes como OpenAI, Anthropic y Google, quienes también buscan conquistar los mercados empresariales y gubernamentales europeos. A pesar de esto, la combinación de Cohere y Aleph Alpha posee una ventaja clave: la legitimidad política en un mercado donde la residencia de datos, el cumplimiento del GDPR y la independencia del Cloud Act estadounidense son criterios de adquisición cada vez más importantes. Si la valoración de 20 mil millones de dólares se mantiene, esta entidad se posicionaría como una de las empresas de IA más valiosas del mundo fuera de Estados Unidos, marcando un hito simbólico y comercial significativo.

Fuente Original: https://thenextweb.com/news/cohere-aleph-alpha-merger-20-billion

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

DeepSeek V4 Nueva Revolucion en IA Open-Source

La startup china DeepSeek ha vuelto a sacudir el mundo de la inteligencia artificial con el lanzamiento de sus modelos DeepSeek-V4-Pro y DeepSeek-V4-Flash, aproximadamente un año después de que su modelo R1 provocara lo que Marc Andreessen denominó el "momento Sputnik de la IA". Ambos modelos fueron publicados en Hugging Face como versiones preliminares y mantienen la filosofía de código abierto que caracteriza a la compañía, permitiendo a los desarrolladores usar y modificar libremente el código fuente.

DeepSeek V4: Nueva Revolución en IA Open-Source

El avance técnico más destacado de V4 es su Arquitectura de Atención Híbrida, que mejora significativamente la capacidad del modelo para mantener el contexto en conversaciones largas. Con una ventana de contexto de 1 millón de tokens, suficiente para procesar una base de código completa o un documento del tamaño de un libro en un solo prompt, esta arquitectura está diseñada para tareas de razonamiento agéntico y de largo alcance. La variante Flash está optimizada para velocidad y eficiencia de costos, mientras que la versión Pro se enfoca en máximo rendimiento.

Según los benchmarks propios de DeepSeek, V4-Pro se posiciona como el modelo de código abierto más potente en programación y matemáticas, quedando por detrás únicamente del Gemini 3.1-Pro de Google en conocimiento general. En una evaluación inusualmente honesta, la compañía admite que su trayectoria de desarrollo va aproximadamente de 3 a 6 meses por detrás de los modelos de frontera de código cerrado como GPT-5.4 de OpenAI y Gemini 3.1-Pro, cayendo solo "marginalmente por debajo" de estos.

El aspecto geopolíticamente más relevante es que DeepSeek colaboró con fabricantes chinos de chips de IA como Huawei y Cambricon para optimizar V4 para su hardware más reciente, rompiendo la práctica estándar de dar acceso temprano a Nvidia o AMD. Ejecutar un modelo de clase frontera en los chips Ascend de Huawei, en lugar de los H100 o H200 de Nvidia, representa una prueba de concepto significativa para la cadena de suministro nacional china de hardware de IA, que ha estado bajo restricciones de exportación estadounidenses desde octubre de 2022.

El momento del lanzamiento no es casual. El modelo R1 de DeepSeek, lanzado en enero de 2025, borró aproximadamente 600 mil millones de dólares de la capitalización de mercado de Nvidia en un solo día, obligando a los inversores a recalibrar sus suposiciones sobre el poder de cómputo necesario para construir IA de frontera. V4 llega a un mercado diferente y más competitivo, donde la competencia entre Estados Unidos y China en IA se ha convertido en una dimensión explícita de las políticas comerciales y tecnológicas. Estas son versiones preliminares y aún esperan evaluación independiente para confirmar las afirmaciones de rendimiento de DeepSeek.

Fuente Original: https://thenextweb.com/news/deepseek-v4-pro-flash-launch-open-source

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

OpenAI Unveils GPT-55 Smarter Coding and Efficiency

OpenAI has launched its latest artificial intelligence model, GPT-5.5, positioning it as the company's most intelligent and user-friendly offering to date. This release comes remarkably quickly on the heels of GPT-5.4, which was unveiled just last month, demonstrating OpenAI's rapid pace of innovation in the competitive AI landscape.

OpenAI Unveils GPT-5.5: Smarter Coding and Efficiency

The new GPT-5.5 model represents a significant leap forward in autonomous task management and coding capabilities. According to OpenAI, the system excels at a diverse range of professional tasks including writing and debugging code, conducting online research, and creating spreadsheets and documents. What sets GPT-5.5 apart from its predecessors is its enhanced ability to work across different tools seamlessly, offering users a more integrated and streamlined experience.

One of the most notable improvements is the model's capacity to handle complex, multi-faceted assignments with minimal oversight. Rather than requiring users to meticulously guide every step of a process, GPT-5.5 can accept broadly defined, messy tasks and autonomously plan, execute, and verify its work. The system demonstrates improved ability to navigate ambiguous instructions and persist through challenges, making it particularly valuable for professionals managing intricate projects.

OpenAI has also prioritised safety and efficiency in this release. The company claims GPT-5.5 features the strongest set of safeguards implemented to date, addressing ongoing concerns about AI safety and responsible deployment. Additionally, the model operates with significantly improved token efficiency in Codex, OpenAI's code-generation platform, which should translate to faster performance and reduced computational costs for users.

The rollout strategy targets OpenAI's premium user base, with GPT-5.5 becoming available to Plus, Pro, Business, and Enterprise ChatGPT subscribers, as well as Codex users. An enhanced version, GPT-5.5 Pro, will be exclusively accessible to Pro, Business, and Enterprise tier customers, offering additional capabilities for organisations with more demanding requirements.

Fuente Original: https://slashdot.org/story/26/04/23/1931220/openai-says-its-new-gpt-55-model-is-more-efficient-and-better-at-coding?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

jueves, 23 de abril de 2026

Microsoft Invertira 25 Mil Millones en Australia IA y Empleo

Microsoft ha anunciado una inversión histórica en Australia, comprometiendo A$25 mil millones hasta 2029. Este ambicioso plan representa la mayor inversión de la compañía en el país hasta la fecha y se suma a un compromiso previo de A$5 mil millones realizado en octubre de 2023. El anuncio, realizado por el CEO Satya Nadella junto al Primer Ministro Anthony Albanese, subraya la importancia estratégica de Australia en la expansión global de la inteligencia artificial.

Microsoft Invertirá 25 Mil Millones en Australia: IA y Empleo

La inversión se centrará en cuatro áreas clave. En primer lugar, la infraestructura: Microsoft ampliará su capacidad de supercomputación de IA a través de Azure en más de un 140%, desplegando procesadores avanzados y fortaleciendo la huella de centros de datos en el país. Actualmente, A ustralia cuenta con 29 sitios de Microsoft Azure, una red que se expandirá significativamente.

En segundo lugar, la ciberseguridad se verá reforzada. El programa Microsoft-ASD Cyber-Shield, una colaboración con la Dirección de Señales de Australia, se extenderá a más agencias gubernamentales y se profundizará la cooperación en resiliencia nacional con el Departamento de Asuntos Internos. Esto busca una integración más estrecha entre la infraestructura de Microsoft y la arquitectura de seguridad nacional australiana.

La tercera área es el desarrollo de habilidades. Microsoft se ha comprometido a capacitar a tres millones de australianos en habilidades de IA listas para el mercado laboral para finales de 2028, complementando el compromiso previo de formar a más de un millón de australianos y neozelandeses. Finalmente, la inversión abordará la seguridad y gobernanza de la IA, incluyendo una colaboración con el Instituto Australiano de Seguridad de IA y un d iálogo pionero con trabajadores sobre el impacto de la IA en el empleo.

Este compromiso sitúa a Australia como un actor clave en el crecimiento económico impulsado por la IA, y no solo como un consumidor. La inversión se alinea con el Plan Nacional de IA del gobierno australiano, buscando capitalizar las oportunidades de la IA mientras se gestionan sus riesgos. Según estimaciones encargadas por Microsoft, la compañía ya contribuye significativamente a la economía local y al empleo, cifras que se espera aumenten con esta nueva inyección de capital.

Fuente Original: https://thenextweb.com/news/microsoft-a25-billion-australia-ai-investment

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Cloudsmith Secures 72M for AI Software Supply Chain Security

Cloudsmith, a Belfast-based firm specialising in artifact management, has successfully secured a substantial $72 million in Series C funding. The round was spearheaded by TCV, with existing investors like Insight Partners also participating, demonstrating a strong, renewed confidence in the company's vision less than 13 months after their $23 million Series B. This significant investment is earmarked for further product development and a broader go-to-market expansion.

Cloudsmith Secures $72M for AI Software Supply Chain Security

The core of Cloudsmith's mission addresses a critical and evolving challenge in enterprise software development. As artificial intelligence coding agents become increasingly adept at generating software at an astonishing pace and volume, the traditional human code review process is becoming insufficient. This surge in AI-generated code leads to an explosion in software artifacts – anything from package files and compiled applications to dependencies and containers – that enterprises must meticulously manage, track, and secure. The threat landscape is also expanding, with compromised open-source dependencies, novel vulnerability patterns introduced by AI, and growing regulatory demands for software to be "secure by design" amplifying the need for robust security measures.

Cloudsmith's platform acts as a cloud-native private registry and artifact management solution. It empowers enterprises to host and distribute their internal software packages, mirror public registries like PyPI and Docker Hub within a controlled private environment, and critically, to enforce security scanning, policy enforcement, and access controls on every component entering or exiting their build pipelines. The company positions its offering as a superior alternative to legacy platforms such as JFrog Artifactory and Sonatype Nexus, arguing that these older tools were not built to handle the scale and complexity of AI-driven development. Cloudsmith has recently enhanced its offering with an ML Model Registry and an Enterprise Policy Manager, further solidifying its commitment to governing and securing the AI software supply chain.

Fuente Original: https://thenextweb.com/news/cloudsmith-72m-series-c-tcv-ai-software-supply-chain

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Google Lanza TPUs Para La Era Agente

Google ha presentado dos nuevos Tensor Processing Units (TPUs) de octava generación, diseñados para abordar las demandas de la emergente "era agente" en la inteligencia artificial. A diferencia de depender exclusivamente de hardware de terceros, Google continúa innovando con sus propios chips personalizados, optimizados tanto para el entrenamiento como para la inferencia de modelos de IA.

Google Lanza TPUs Para La Era 'Agente'

La principal novedad son dos modelos: el TPU 8t, enfocado en el entrenamiento de modelos de IA de vanguardia, y el TPU 8i, optimizado para la inferencia. El TPU 8t promete reducir drásticamente los tiempos de entrenamiento, pasando de meses a semanas, gracias a sus clústeres de hasta 9600 chips y dos petabytes de memoria compartida. Ofrece casi el triple de capacidad de cómputo para entrenamie nto que su predecesor, Ironwood, y una notable eficiencia con una tasa de "goodpute" (cómputo útil) del 97%, minimizando el tiempo de inactividad y desperdicio.

Por otro lado, el TPU 8i está diseñado para la eficiencia en la ejecución de múltiples agentes especializados. Aunque posee menos potencia bruta que el 8t, triplica la cantidad de SRAM en chip, permitiendo cachés de valor clave más grandes y acelerando modelos con ventanas de contexto extendidas. Además, estos nuevos TPUs son los primeros en utilizar exclusivamente los CPUs ARM Axion de Google, integrando un CPU por cada dos TPUs para una mayor eficiencia general del sistema. Esta estrategia de "stack completo" basada en ARM busca optimizar el consumo de energía y el rendimiento.

La eficiencia energética es un pilar fundamental de estas nuevas unidades. Google afirma que los TPUs de octava generación ofrecen el doble de rendimiento por vatio en comparación con Ironwood. También se han implementado m ejoras en los centros de datos, como la integración de redes y cómputo en un solo chip y diseños de clústeres más eficientes, que han aumentado la potencia de cómputo por unidad de electricidad hasta seis veces. Se ha adaptado un sistema de refrigeración líquida para gestionar el calor generado, ajustando el flujo de agua según la carga de trabajo para una mayor eficiencia en el enfriamiento.

Estos nuevos TPUs estarán disponibles para potenciar los agentes basados en Gemini de Google y también para desarrolladores externos, soportando los frameworks de IA más populares como JAX, PyTorch y TensorFlow. El lanzamiento de estos chips por parte de Google subraya la creciente competencia en el mercado de aceleradores de IA y la importancia de hardware especializado para la próxima generación de sistemas de inteligencia artificial.

Fuente Original: https://arstechnica.com/ai/2026/04/google-unveils-two-new-tpus-designed-for-the-agentic-era/

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

OpenAI Lanza Workspace Agents Revolucion Empresarial IA

OpenAI ha presentado Workspace Agents, una innovación que marca el fin de los GPT personalizados y el comienzo de una nueva era en la automatización empresarial. Esta solución permite a los usuarios de ChatGPT Business, Enterprise, Edu y Teachers crear agentes de IA capaces de integrarse directamente con aplicaciones empresariales populares como Slack, Salesforce, Google Drive, Microsoft Suite, Notion y Atlassian Rovo, transformando radicalmente cómo las organizaciones gestionan tareas repetitivas y complejas.

OpenAI Lanza Workspace Agents: Revolución Empresarial IA

Lo revolucionario de Workspace Agents es su capacidad para ejecutar tareas de forma autónoma sin supervisión constante. Estos agentes pueden redactar correos electrónicos, generar presentaciones, extraer datos de múltiples fuentes y continuar trabajando incluso después de que el usuario se desconecte. A diferencia de los asistentes de IA tradicionales que requerían interacción continua, estos agentes funcionan en la nube, mantienen memoria entre sesiones y pueden programarse para ejecutar tareas recurrentes automáticamente, como informes semanales o análisis mensuales.

La tecnología detrás de esta innovación es Codex, el sistema de generación de código de OpenAI que proporciona a los agentes capacidades avanzadas de ejecución. Esto significa que los agentes no solo describen el trabajo, sino que realmente lo ejecutan: transforman archivos CSV, reconcilian sistemas de registro, generan gráficos precisos y ejecutan código cuando es necesario. Esta base técnica es fundamental para entender por qué Workspace Agents representa un salto cualitativo respecto a soluciones anteriores.

OpenAI ha implementado controles de gobernanza robustos para abordar las preocupaciones de seguridad empresarial. Los administradores pueden definir permisos granulares sobre quién puede crear, ejecutar y publicar agentes, y qué herramientas pueden utilizar. Los agentes ofrecen dos modos de autenticación: por cuenta de usuario individual o por cuenta compartida del agente. Las acciones de escritura requieren aprobación humana por defecto, aunque esto puede configurarse según las necesidades de cada organización.

El producto estará disponible gratuitamente hasta el 6 de mayo de 2026, después de lo cual se implementará un modelo de precios basado en créditos. Empresas como Rippling, SoftBank Corp., Better Mortgage y BBVA ya están probando esta tecnología. Rippling reporta que un consultor de ventas pudo crear un agente que investiga cuentas, resume llamadas y publica resúmenes de acuerdos en Slack, ahorrando entre 5 y 6 horas semanales por representante, una tarea que anteriormente requería un equipo de ingeniería completo.

Este lanzamiento representa un cambio estratégico significativo para OpenAI, que está retirando gradualmente los GPT personalizados en favor de este nuevo paradigma centrado en agentes empresariales. La compañía se posiciona así en un mercado altamente competitivo donde Microsoft, Google, Salesforce y Anthropic también están desarrollando soluciones similares de agentes empresariales integrados.

Fuente Original: https://venturebeat.com/orchestration/openai-unveils-workspace-agents-a-successor-to-custom-gpts-for-enterprises-that-can-plug-directly-into-slack-salesforce-and-more

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

OpenAIs Privacy Filter Open-Source Data Protection

OpenAI has unveiled Privacy Filter, a groundbreaking open-source tool designed to safeguard sensitive information before it reaches cloud servers. Released on Hugging Face under the permissive Apache 2.0 licence, this innovative model represents a significant step towards privacy-first artificial intelligence infrastructure. The tool addresses a critical industry challenge: preventing personally identifiable information from leaking into training datasets or being exposed during AI processing.

OpenAI's Privacy Filter: Open-Source Data Protection

Privacy Filter is a 1.5-billion-parameter model that can operate on standard laptops or directly within web browsers, effectively functioning as a sophisticated digital shredder for sensitive data. Unlike traditional language models that predict text sequentially, Privacy Filter employs a bidirectional token classifier, reading sentences from both directions simultaneously. This approach provides superior contextual understanding, enabling the model to distinguish between, for instance, a private individual named Alice and the literary character from Wonderland.

The model utilises a Sparse Mixture-of-Experts framework, activating only 50 million parameters during any single operation despite containing 1.5 billion total parameters. This efficient design allows for high-speed processing without excessive computational demands. Remarkably, it features a 128,000-token context window, enabling it to process entire legal documents or lengthy email threads in one pass without fragmenting text—a common limitation that causes traditional filters to lose track of entities across page breaks.

Privacy Filter currently detects eight primary categories of personally identifiable information, including private names, contact details, digital identifiers, and sensitive credentials such as API keys and passwords. Enterprises can deploy the model on-premises or within private clouds, masking data locally before sending it to more powerful AI systems. This approach maintains compliance with stringent GDPR and HIPAA standards whilst leveraging advanced AI capabilities.

The Apache 2.0 licence marks a particularly significant aspect of this release, offering developers complete commercial freedom without royalty obligations. Companies can integrate Privacy Filter into proprietary products, customise it for specific industries, and avoid viral licensing requirements. This positions the tool as a fundamental utility for the AI era. The tech community has responded positively, with engineers praising the model's efficiency and impressive technical achievements. However, OpenAI cautions that Privacy Filter should be viewed as a redaction aid rather than an absolute safety guarantee, recommending against over-reliance in highly sensitive medical or legal workflows.

Fuente Original: https://venturebeat.com/data/openai-launches-privacy-filter-an-open-source-on-device-data-sanitization-model-that-removes-personal-information-from-enterprise-datasets

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

miércoles, 22 de abril de 2026

Plataforma Gemini Crea Gobierna y Optimiza Agentes IA

Google Cloud lanza su innovadora Plataforma Gemini Enterprise Agent, una solución integral diseñada para que los equipos técnicos puedan construir, escalar, gobernar y optimizar agentes de inteligencia artificial.

Plataforma Gemini: Crea, Gobierna y Optimiza Agentes IA

Esta nueva plataforma unifica los servicios de desarrollo y ajuste de modelos de Vertex AI con funcionalidades avanzadas para la integración de agentes, seguridad y DevOps. Gemini Enterprise Agent Platform ofrece acceso a los modelos Gemini 3.1 Pro y Flash, además de Lyria 3, y soporta también los modelos Claude de Anthropic. Su flexibilidad permite adaptarla a las necesidades específicas de cada equipo.

Además, la plataforma se integra con Gemini Enterprise app, que sirve como punto de acceso centralizado para la IA de ntro de las organizaciones. Esta solución busca simplificar la creación y gestión de agentes autónomos, aprovechando la robusta infraestructura, las capacidades de datos y la seguridad de Google Cloud.

Fuente Original: https://blog.google/innovation-and-ai/infrastructure-and-cloud/google-cloud/gemini-enterprise-agent-platform/

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT