lunes, 30 de marzo de 2026

Claude AI El Secreto Tecnologico de CENTCOM

El artículo de Defense One desvela el papel crucial que juega el chatbot de inteligencia artificial Claude en las operaciones del Mando Central de Estados Unidos (CENTCOM). Lejos de ser una mera herramienta de comunicación, Claude se ha convertido en un componente esencial para agilizar y mejorar la toma de decisiones en un entorno complejo y de rápida evolución.

Claude AI: ¿El Secreto Tecnológico de CENTCOM?

Se destaca que Claude no es simplemente un asistente virtual, sino que actúa como un 'superconsultor' para el personal de CENTCOM. Su capacidad para procesar y analizar grandes volúmenes de información, desde informes de inteligencia hasta datos de redes sociales, permite obtener resúmenes concisos y relevantes en tiempo real. Esto libera a los analistas y tomadores de decisiones de tareas tediosas, permitiéndoles c entrarse en la estrategia y la acción.

La implementación de Claude ha demostrado ser particularmente valiosa en la gestión de crisis y la comprensión del panorama geopolítico. La IA puede identificar patrones, prever posibles escenarios y ofrecer perspectivas que podrían pasar desapercibidas para los humanos. Además, su capacidad para traducir y resumir información en varios idiomas amplía significativamente el alcance y la efectividad de CENTCOM en regiones diversas. En resumen, Claude está transformando la forma en que CENTCOM opera, proporcionando una ventaja tecnológica significativa en un mundo cada vez más interconectado y volátil.

Fuente Original: https://news.google.com/rss/articles/CBMiuAFBVV95cUxPSzdialB4ZEtiNEo5NzRuOXNKbWY0YXlOUW4xSUdma0RWeDB4MXQ4OFFrT3ktNGNKX0FwV0tTN0VMdkRicTFZd2w0QTVpeUVDa2JvUHVGdm1HeHJrbEZIczJRMDQ3Y1JkSG93MHVnbFBvTi02UV9fak5HOXllaFEzZ3NEZV9XM05tYmVvcnh4TjdtaWFrODhUWmNzT2lvamNCYTFqcTJpUmZLRGJRa0NaOGlKMnJXOG9Z?oc=5

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

AI Revolutionising Software Development Lifecycles

The world of software development is undergoing a significant transformation, with Artificial Intelligence (AI) emerging as a key catalyst. This integration of AI is not just a minor upgrade; it's fundamentally reshaping the entire Software Development Lifecycle (SDLC), from initial planning and coding to testing, deployment, and ongoing maintenance.

AI Revolutionising Software Development Lifecycles

AI's impact is multifaceted. In the early stages, AI-powered tools can assist in requirements gathering and analysis, identifying potential ambiguities or inconsistencies that might be missed by human eyes. During the coding phase, AI can act as an intelligent co-pilot, suggesting code snippets, identifying potential bugs in real-time, and even automating the generation of repetitive code. This not only speeds up development but also h elps improve code quality and reduces the likelihood of errors.

Testing is another area where AI is making substantial inroads. AI can automate test case generation, predict which parts of the code are most likely to contain defects, and even perform intelligent test execution, focusing on areas that require the most scrutiny. This leads to more efficient and effective testing processes. Furthermore, AI can contribute to the deployment phase by optimising deployment strategies and predicting potential issues. In maintenance and operations, AI can help monitor system performance, detect anomalies, predict failures, and even automate certain troubleshooting tasks, ensuring smoother and more reliable software operation.

The adoption of AI in SDLC promises enhanced efficiency, faster delivery times, improved software quality, and a reduced burden on development teams. As AI technologies continue to evolve, their role in software development is set to expand, ushering in a ne w era of innovation and productivity.

Fuente Original: https://news.google.com/rss/articles/CBMirgFBVV95cUxOd19SSVlpY3R4d0R1bkJJUGZhQXVBSWVaSmpMSjJhT3JURlJOUFVld1ROZUdyTUhxckR4WHhNT0RFZ3ZhbDh6MlNrV05XdHBrQWZ4NFh0OXdzOGpyWGt0bEEwRUZ0eEhhcGFndUs3Wjdza1ZYU3E1ZWZ3VVBRcE1oOVhPSXBqdHd1dnNXOWVpRFZkS21qVXpmcVVuSFNTZEtoNlFNZk5SRUpfam1sRWc?oc=5

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

IA Resuelve Misterios Matematicos FrontierMath Explota Limites

La Inteligencia Artificial está demostrando ser una herramienta formidable, no solo en tareas cotidianas, sino también en la vanguardia de la investigación científica. El artículo nos presenta FrontierMath, un proyecto de Epoch AI dedicado a evaluar el avance de la IA en el campo de las matemáticas. Este proyecto no solo monitoriza el rendimiento de los modelos de lenguaje grande (LLM) en problemas matemáticos, sino que también mantiene un registro de conjeturas y problemas aún no resueltos por los humanos, sumando un total de 15 retos actualmente.

IA Resuelve Misterios Matemáticos: FrontierMath Explota Límites

Dentro de esta colección de desafíos, FrontierMath clasifica los problemas por dificultad. Sorprendentemente, uno de los problemas catalogados como 'Moderadamente Interesantes', que ni siquiera su proponente pudo resolver en 2019, ha sido recientemente resuelto por la Inteligencia Artificial. Este problema, titulado 'Ramsey-Style Problem on Hypergraphs', fue abordado con éxito por modelos avanzados como GPT-5.4 Pro, GPT-5.4 (xhigh), Gemini 3.1 Pro y Claude Opus 4.6 (max), quienes proporcionaron una solución y una demostración matemática detallada a través de un 'prompt' específico.

El éxito de la IA en resolver este problema, que los matemáticos humanos aún no habían logrado descifrar, marca un hito significativo. Si bien se trata de un avance pequeño en el gran esquema de las matemáticas, demuestra la creciente capacidad de la IA para abordar problemas complejos. FrontierMath continúa desafiando a los modelos de IA con problemas de alta dificultad, especialmente en su nivel 'Tier-4', que contiene 50 retos extremadamente complejos. La competencia entre estos modelos es feroz, y su rápida mejora sugiere que podrían superar a los matemáticos humanos en un futuro no muy lejano. Esta evolución tiene implicaciones directas en campos como el hacking y el 'pentesting', donde la IA ya es una herramienta valiosa para mejorar la eficiencia en la detección y resolución de vulnerabilidades.

Fuente Original: http://www.elladodelmal.com/2026/03/frontiermath-inteligencia-artificial.html

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Mistral AI recauda 830M para centro de datos propio

La empresa francesa de inteligencia artificial Mistral AI ha dado un paso audaz hacia la independencia tecnológica al asegurar $830 millones en financiamiento de deuda para construir su propio centro de datos cerca de París. Este movimiento representa la primera financiación mediante deuda desde su fundación en abril de 2023 y marca un cambio estratégico significativo en su modelo de operaciones.

Mistral AI recauda $830M para centro de datos propio

El financiamiento fue otorgado por un consorcio de siete bancos internacionales, incluyendo BNP Paribas, Crédit Agricole CIB, HSBC y MUFG. Los fondos se destinarán específicamente a la compra de 13,800 chips Nvidia de última generación que alimentarán las operaciones del centro de datos ubicado en Bruyères-le-Châtel, al sur de París. La instalación está programada para entrar en funcionamiento durante el segundo trimestre de 2026.

Hasta ahora, Mistral había dependido de proveedores de nube como Microsoft Azure, Google Cloud y CoreWeave para ejecutar sus modelos de IA y proporcionar acceso GPU a sus clientes. Sin embargo, la construcción y propiedad de infraestructura propia, aunque más intensiva en capital, otorga a Mistral control directo sobre su pila de computación. Esta autonomía es cada vez más valiosa para clientes empresariales y gubernamentales europeos que buscan servicios de IA que no dependan de la infraestructura estadounidense.

El crecimiento de Mistral ha sido notable. Su ingreso anual recurrente superó los $400 millones en febrero de 2026, un salto impresionante desde los $20 millones del año anterior. La compañía se ha fijado como objetivo alcanzar $1,000 millones en ingresos recurrentes anuales para finales de año. Este centro de datos forma parte de una ambición de infraestructura más amplia que incluye un campus de IA de 1.4 gigavatios cerca de París, anunciado en marzo de 2026 junto con MGX de Abu Dhabi, Bpifrance y Nvidia, con operaciones previstas para 2028.

Fundada por Arthur Mensch, Guillaume Lample y Timothée Lacroix, todos provenientes de Google DeepMind y Meta, Mistral se ha posicionado como la alternativa europea líder frente a los proveedores estadounidenses de IA. Con una valoración de $13,800 millones tras su Serie C de $2,000 millones en septiembre de 2025, y más de $3,000 millones recaudados en total, Mistral representa la startup de IA más valiosa de Europa. Esta estrategia de soberanía tecnológica responde a la creciente preocupación europea sobre la dependencia tecnológica en medio de la volatilidad geopolítica global.

Fuente Original: https://thenextweb.com/news/mistral-ai-830m-debt-data-centre-paris

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Critical Python Library Flaw Threatens AI Systems

A critical vulnerability has recently been disclosed in NLTK, one of Python's most widely used libraries for natural language processing. Identified as CVE-2026-0848, this security flaw poses a serious threat to environments utilising text analysis tools or artificial intelligence-based systems. The vulnerability enables remote code execution (RCE), meaning attackers could execute arbitrary commands on vulnerable systems—one of the most critical security scenarios possible.

Critical Python Library Flaw Threatens AI Systems

The root of the problem lies in how NLTK manages certain external resources. Under specific conditions, the library can load files without properly validating their origin or content. This creates an opportunity for manipulated resources to be processed as legitimate. In practical terms, if an attacker manages to introduce a malicious file into an application's data stream, that code could execute directly on the system. Complex scenarios aren't necessary for exploitation—in many current environments such as APIs, notebooks, and machine learning pipelines, data is consumed automatically. If any of these entry points is compromised, exploitation can occur without direct user interaction.

This vulnerability is particularly significant due to its context. The use of natural language processing libraries has grown enormously with the rise of AI, and NLTK remains a common dependency in numerous projects. This introduces an interesting security risk: the possibility that a widely trusted library could become a vector in broader attacks, such as supply chain compromises. This wouldn't be the first time such an incident has occurred. Furthermore, the fact that this involves RCE considerably elevates its severity—we're not merely discussing information access, but potential control over affected systems.

The first mitigation measure is straightforward: update the library to a version that addresses the issue. However, beyond applying patches, this type of vulnerability highlights practices often overlooked. Validating external resources, limiting data sources, and executing processes in isolated environments such as containers are measures that significantly reduce potential impact. This incident serves as a reminder of the importance of robust security practices in AI development workflows.

Fuente Original: https://unaaldia.hispasec.com/2026/03/como-un-fallo-en-una-libreria-de-python-puede-comprometer-sistemas-de-ia-cve-2026-0848.html?utm_source=rss&utm_medium=rss&utm_campaign=como-un-fallo-en-una-libreria-de-python-puede-comprometer-sistemas-de-ia-cve-2026-0848

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

domingo, 29 de marzo de 2026

IA y Farma Eli Lilly y Insilico Medicine pactan 2 mil millones

La industria farmacéutica da un paso audaz hacia el futuro con la noticia de que Eli Lilly, un gigante del sector, estaría a punto de cerrar un acuerdo multimillonario con Insilico Medicine, una empresa de inteligencia artificial con sede en Hong Kong. Según informa el Financial Times, este potencial pacto, valorado en unos 2 mil millones de dólares, marcaría una alianza estratégica para el desarrollo de fármacos, impulsado por las capacidades avanzadas de la IA.

IA y Farma: Eli Lilly y Insilico Medicine pactan $2 mil millones

Este acuerdo subraya la creciente importancia de la inteligencia artificial en la investigación y desarrollo de nuevos medicamentos. Insilico Medicine, conocida por su plataforma de IA para el descubrimiento de fármacos, se perfila como un socio clave para Eli Lilly en la aceleración de procesos que tradicionalmente son largos, costosos y con altas tasas de fracaso. La IA tiene el potencial de identificar nuevas dianas terapéuticas, predecir la eficacia y seguridad de compuestos, y optimizar el diseño de ensayos clínicos, revolucionando así la forma en que se conciben y crean los medicamentos del futuro.

La colaboración entre estas dos entidades podría significar un antes y un después en la lucha contra enfermedades complejas, al permitir un descubrimiento de fármacos más rápido y eficiente. La noticia refuerza la tendencia del sector farmacéutico a integrar tecnologías de vanguardia para mantenerse competitivo y responder a las necesidades médicas no cubiertas de manera más efectiva.

Fuente Original: https://news.google.com/rss/articles/CBMi3wFBVV95cUxQRUtWbXlUNS04X1dualdiUTg0ME11ajdLb3FGekwyT1lXbFhmT2ltNUVUUVFna1RQYmh6OUJRcWd5bk1ETXE0LUNWbVRRU0NQUFFYaWk4bXlwX3EwX1lSTW1WWHFsV2c3R0ZpT1p6S29fMDlBdzhtRy1VY1VoV1hDaGg3UnJzNDlkSGVTeE5HckNCUmxBNUZxN3dhRm1FT2ltaE43UDVQUUMtQTZIdkRPV1dreGVXOEljMEdoVlNZXzd4Z2N3RXdUWkFZdnVtUEFpRHlXaWtMZ092ajV6MDNr?oc=5

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

xAIs Elite Team Exodus Musks AI Vision Rebuilt

It appears that all eleven co-founders who were initially recruited to build Elon Musk's AI company, xAI, have now reportedly departed. The latest departures include Manuel Kroiss, who led the pretraining team, and Ross Nordeen, described as Musk's key operational figure. These exits mark the end of an era for the company, which was recently valued at a staggering $250 billion following its acquisition by SpaceX. This mass departure is particularly noteworthy given the calibre of talent Musk assembled, featuring researchers with significant contributions to the AI field from institutions like Google DeepMind, Google, Microsoft, and OpenAI.

xAI's Elite Team Exodus: Musk's AI Vision Rebuilt?

The exodus seems to have accelerated in early 2026, with a cascade of departures beginning in February. This timeline appears closely linked to significant corporate restructuring. In February, SpaceX acquired xAI in a monumental all-stock deal, valuing SpaceX at $1 trillion and xAI at $250 billion. More recently, Tesla invested $2 billion into xAI, a move that is now the subject of a shareholder lawsuit alleging breach of fiduciary duty. This investment came shortly after Musk himself admitted that xAI's coding tools were not competitive, stating the company needed to be "rebuilt from the foundations up."

Musk's candid admission about the product's shortcomings likely provided little incentive for the co-founders to remain and participate in a rebuild, especially in a hyper-competitive AI talent market where top researchers are commanding multi-million dollar compensation packages. While xAI still possesses significan t assets like the Colossus supercomputer and Grok chatbot, the complete departure of its founding research leadership raises questions about its future competitiveness. This pattern of senior staff attrition is also consistent with previous transitions at Musk's other companies, such as Twitter and Tesla, suggesting potential organisational challenges in research-intensive fields, despite his proven success in hardware engineering.

Fuente Original: https://thenextweb.com/news/xai-all-cofounders-departed-musk-spacex-rebuild

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Skimmer WebRTC Nueva Amenaza Evade Seguridad Ecommerce

Una nueva y sofisticada amenaza ha surgido en el mundo del comercio electrónico: un skimmer de pagos que utiliza la tecnología WebRTC para eludir los controles de seguridad tradicionales y robar datos de tarjetas. A diferencia de los métodos convencionales que se basan en solicitudes HTTP o beacons de imágenes, este malware establece conexiones cifradas a través de DTLS sobre UDP. Este enfoque le permite operar fuera del radar de las herramientas de inspección de red diseñadas para monitorear únicamente el tráfico web estándar.

Skimmer WebRTC: Nueva Amenaza Evade Seguridad Ecommerce

El ataque se potencia gracias a una vulnerabilidad conocida como PolyShell, que afecta a las plataformas Magento Open Source y Adobe Commerce. Esta falla permite a atacantes no autenticados cargar archivos maliciosos, los cuales pueden ser ejecutados si la configuración del servidor es vulnerable, llevando a la ejecución remota de código. Desde el 19 de marzo de 2026, se ha observado una actividad de escaneo masiva, y se estima que aproximadamente el 56.7% de las tiendas vulnerables ya han sido comprometidas.

El skimmer opera como un script que se autoejecuta, estableciendo una conexión peer-to-peer hacia una dirección IP específica. Desde allí, descarga código JavaScript malicioso que luego se inyecta en las páginas web, con el fin de capturar los datos de pago de los clientes. La utilización de WebRTC representa una evolución significativa, ya que puede sortear las directivas de Seguridad de Contenido (CSP). Incluso aquellos sitios que bloquean conexiones HTTP no autorizadas, siguen siendo vulnerables a la exfiltración de datos debido a que WebRTC utiliza conexiones cifradas DTLS sobre UDP, las cuales escapan a las herramientas de inspección HTTP convencionales.

Para mitigar estos ataques, se recomienda bloquear el acceso a directorios de medios específicos y realizar escaneos exhaustivos en busca de web shells o backdoors. Aunque se ha liberado una corrección beta para PolyShell, el parche aún no ha llegado a las versiones de producción. Este incidente subraya la creciente necesidad de estar vigilantes ante ataques cada vez más complejos y de mantener medidas de protección robustas.

Fuente Original: https://unaaldia.hispasec.com/2026/03/nuevo-skimmer-con-webrtc-evade-controles-de-seguridad-y-roba-datos-de-pago-en-e-commerce.html?utm_source=rss&utm_medium=rss&utm_campaign=nuevo-skimmer-con-webrtc-evade-cont roles-de-seguridad-y-roba-datos-de-pago-en-e-commerce

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

IA Revoluciona Desarrollo 170 Productividad Menos Personal

La inteligencia artificial está transformando radicalmente el desarrollo de software, y los resultados son asombrosos. Andrew Filev, fundador y CEO de Zencoder, comparte su experiencia de seis meses implementando un enfoque AI-first en su organización de ingeniería, logrando resultados que parecían imposibles: un aumento del 170% en productividad con solo el 80% del personal original. Su equipo pasó de 36 ingenieros a 30, mientras duplicaban subjetivamente su velocidad de desarrollo.

IA Revoluciona Desarrollo: 170% Productividad, Menos Personal

El cambio más significativo ocurrió en la forma de trabajar. Antes de la IA, los equipos invertían semanas perfeccionando flujos de usuario antes de escribir código. Ahora, el costo de la experimentación se ha desplomado. Una idea puede pasar del concepto al prototipo funcional en un solo día, atravesando todo el ciclo desde la generación de requisitos hasta la implementación asistida por IA. Su sitio web, crucial para la adquisición de clientes, se convirtió en un sistema con cientos de componentes personalizados, diseñados y mantenidos directamente por su director creativo en código.

La validación se ha convertido en el nuevo punto de apalancamiento. Cuando la IA genera la mayor parte de la implementación, el verdadero valor reside en definir qué significa "bueno". Los ingenieros de control de calidad han evolucionado hacia arquitectos de sistemas, construyendo agentes de IA que generan y mantienen pruebas de aceptación directamente desde los requisitos. Este enfoque de "shift left" integra la validación como parte fundamental del proceso de producción, no como una función aislada.

La geometría misma del desarrollo de software está cambiando. Durante décadas, seguía una forma de "diamante": un pequeño equipo de producto entregaba a un gran equipo de ingeniería, que luego se reducía en QA. Hoy, esa estructura se está invirtiendo hacia un "doble embudo". Los humanos participan más profundamente al principio, definiendo la intención y explorando opciones, y al final, validando resultados. El medio, donde la IA ejecuta, es más rápido y estrecho. El modelo se parece menos a una línea de ensamblaje y más a una torre de control.

Los ingenieros ahora trabajan en una capa meta: orquestando flujos de trabajo de IA, ajustando instrucciones y habilidades de agentes, y definiendo protecciones. Las máquinas construyen; los humanos deciden el qué y el por qué. Este es el nivel de abstracción más alto en la evolución del software, comparable al salto de las tarjetas perforadas a los lenguajes de alto nivel, o del hardware a la nube. La paradoja de la ingeniería AI-first es que se siente menos como programar y más como pensar estratégicamente.

Fuente Original: https://venturebeat.com/orchestration/when-ai-turns-software-development-inside-out-170-throughput-at-80-headcount

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

AI Tools Transform Linux Bug Detection

In a significant development for open source software, Linux kernel maintainer Greg Kroah-Hartman has confirmed that AI-driven code review tools have undergone a dramatic improvement in recent weeks. Speaking to The Register, Kroah-Hartman revealed that approximately a month ago, something fundamental shifted in the AI landscape, transforming these tools from unreliable novelties into genuinely useful assistants for identifying real bugs in the Linux kernel and other open source projects.

AI Tools Transform Linux Bug Detection

The change has been so pronounced that security teams across major open source initiatives are experiencing the same phenomenon simultaneously. According to Kroah-Hartman, who maintains regular informal contact with these teams, everyone is reporting a sudden influx of high-quality, AI-generated bug reports. These aren't false positives or automated spam – they're legitimate discoveries of actual problems in the code that require attention and resolution.

Kroah-Hartman himself has experimented with AI-generated patches, running a deliberately simple prompt that produced 60 potential fixes. Whilst approximately one-third of the suggested patches were incorrect, they still highlighted genuine issues worth investigating. The remaining two-thirds were correct, though they required human intervention for proper changelogs and integration work. For straightforward error condition detection, he noted, AI can already generate dozens of usable patches today.

Whilst AI is primarily functioning as a reviewer and assistant rather than a primary code author, that distinction is beginning to blur. Some patches are now being submitted with co-developer tags acknowledging AI involvement, particularly for new features. To support this emerging workflow, the Linux Foundation has adopted Sashiko, a tool originally developed at Google, to integrate AI capabilities directly into the kernel's review infrastructure. Kroah-Hartman's assessment is clear: the tools have become genuinely good, and the development community cannot afford to ignore this rapidly evolving technology.

Fuente Original: https://linux.slashdot.org/story/26/03/28/0717258/linux-maintainer-greg-kroah-hartman-says-ai-tools-now-useful-finding-real-bugs?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

sábado, 28 de marzo de 2026

Paquete LiteLLM Secuestrado Robo de Credenciales Peligroso

¡Atención desarrolladores! Un grave incidente de seguridad ha sacudido la comunidad Python. El popular paquete LiteLLM, utilizado por millones para interactuar con modelos de lenguaje grandes (LLMs), ha sido comprometido por el grupo de hackers TeamPCP. Las versiones maliciosas, LiteLLM 1.82.7 y 1.82.8, fueron publicadas en el repositorio PyPI, insertando un 'infostealer' diseñado para robar una amplia gama de datos sensibles de cientos de miles de dispositivos.

Paquete LiteLLM Secuestrado: ¡Robo de Credenciales Peligroso!

LiteLLM, conocido por su versatilidad al actuar como una puerta de enlace para múltiples proveedores de LLMs a través de una única API, es descargado por millones de usuarios diariamente. La gravedad del ataque radica en la masiva adopción del paquete, lo que significa que la información comprometida podría ser extensa. Afortunadamente, las versiones maliciosas ya han sido retiradas de PyPI, y la versión limpia más reciente es la 1.82.6.

Si tu organización o tú mismo utilizáis LiteLLM, es crucial actuar de inmediato. Se recomienda encarecidamente verificar si se han instalado las versiones afectadas (1.82.7 u 1.82.8). En caso de sospecha de compromiso, se deben rotar urgentemente todas las credenciales, secretos y tokens utilizados en los sistemas afectados. Además, se aconseja buscar artefactos de persistencia, como archivos sospechosos y servicios no autorizados, así como monitorear el tráfico de red saliente hacia dominios conocidos de atacantes. La rápida respuesta es vital para mitigar el impacto de este sofisticado ataque a la cadena de suministro.

Fuente Original: https://it.slashdot.org/story/26/03/27/1527202/popular-litellm-pypi-package-backdoored-to-steal-credentials-auth-tokens?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

OpenAIs ChatGPT Ads 100M Revenue in 6 Weeks

In a remarkable display of early success, OpenAI's experimental advertising pilot on ChatGPT in the United States has already generated an impressive annualized revenue of over $100 million, achieving this milestone in just six weeks since its launch. This rapid uptake highlights a strong initial demand for OpenAI's foray into the advertising sector, demonstrating the potential for AI-driven platforms to attract advertisers.

OpenAI's ChatGPT Ads: $100M Revenue in 6 Weeks!

The spokesperson for OpenAI indicated that while a significant portion of users (around 85%) are currently eligible to see ads, only a fraction (under 20%) are exposed to them daily. This suggests substantial room for growth in ad monetization by tapping into the existing user base. Importantly, OpenAI reported that this new advertising initiative has had no negat ive impact on consumer trust metrics. They've observed low ad dismissal rates and continuous improvements in ad relevance as they incorporate user feedback.

Looking ahead, OpenAI plans to roll out this advertising test to other countries in the coming weeks, with initial expansions set for Australia, New Zealand, and Canada. The platform has already attracted over 600 advertisers, and a notable 80% of small and medium-sized businesses have expressed interest in advertising on ChatGPT. To further facilitate growth and accessibility, OpenAI is scheduled to introduce self-serve advertiser capabilities in April. This strategic move by OpenAI, spearheaded by CEO Sam Altman who had previously been hesitant about ads as a business model, signifies a significant shift and a promising new revenue stream for the AI giant.

Fuente Original: https://news.slashdot.org/story/26/03/28/0231232/openais-us-ad-pilot-exceeds-100-million-in-annualized-revenue-in-six-weeks?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

SoftBank Prestamo Gigante de 40B para Apostar a OpenAI

SoftBank ha dado un paso audaz y de gran envergadura al asegurar un préstamo puente de 40 mil millones de dólares, la operación de crédito denominada en dólares más grande de su historia. Este movimiento financiero está destinado principalmente a respaldar su continua y creciente inversión en OpenAI, la destacada empresa de inteligencia artificial. El préstamo, que no requiere colateral y ha sido orquestado con la participación de instituciones financieras de renombre como JPMorgan Chase, Goldman Sachs, Mizuho, SMBC y MUFG, tiene como fecha de vencimiento marzo de 2027.

SoftBank: Préstamo Gigante de $40B para Apostar a OpenAI

La magnitud de esta operación refleja la ambición de Masayoshi Son, CEO de SoftBank, quien no teme pensar en grande. Sin embargo, la velocidad y la escala de esta apuesta por OpenAI han comenzado a generar inquietud entre las agencias de calificación crediticia. Con este préstamo, SoftBank planea desembolsar 30 mil millones de dólares adicionales en OpenAI como parte de su ronda de financiación actual. Al completar esta inversión, la participación acumulada de SoftBank en OpenAI ascenderá a aproximadamente 64.6 mil millones de dólares, lo que representará alrededor del 13% de la compañía.

Este préstamo puente es fundamental para que SoftBank pueda cumplir con su compromiso de inversión en OpenAI, que busca recaudar un total de 110 mil millones de dólares. La estrategia de Son para financiar estas inversiones pasadas ya ha implicado la liquidación de otras participaciones valiosas, incluida su posición en Nvidia. La apuesta por OpenAI se presenta como una jugada concentrada y de alto riesgo, con la es peranza de que la inteligencia artificial generativa genere los retornos necesarios para justificar el elevado apalancamiento financiero. La S&P ha rebajado recientemente su perspectiva crediticia sobre SoftBank, citando preocupaciones sobre la exposición a OpenAI y su posible impacto en la liquidez y la calidad crediticia de sus activos. Paralelamente, este préstamo también forma parte de los planes de SoftBank para invertir 100 mil millones de dólares en infraestructura de IA en Estados Unidos durante los próximos cuatro años, en línea con iniciativas más amplias del sector.

Fuente Original: https://thenextweb.com/news/softbank-40-billion-bridge-loan-openai

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

IndexCache Inferencia 82 Mas Rapida en IA

Procesar 200,000 tokens a través de un modelo de lenguaje grande es costoso y lento: cuanto más largo es el contexto, más rápido se disparan los costos. Investigadores de la Universidad de Tsinghua y Z.ai han desarrollado una técnica llamada IndexCache que elimina hasta el 75% de la computación redundante en modelos de atención dispersa, logrando una velocidad hasta 1.82 veces más rápida en el tiempo hasta el primer token y 1.48 veces más rápida en el rendimiento de generación con esa longitud de contexto.

IndexCache: Inferencia 82% Más Rápida en IA

Los modelos de lenguaje grandes dependen del mecanismo de autoatención, donde el modelo calcula la relación entre cada token en su contexto y todos los anteriores para predecir el siguiente. Sin embargo, esta autoatención tiene una limitación severa: su complejidad computacional escala de manera cuadrática con la longitud de la secuencia. La atención dispersa ofrece una solución al hacer que cada consulta seleccione y atienda solo al subconjunto más relevante de tokens. La arquitectura DeepSeek Sparse Attention (DSA) implementa este concepto mediante un módulo indexador ligero que califica los tokens anteriores y selecciona un pequeño lote para procesarlo.

Los investigadores identificaron un problema persistente: el indexador DSA aún opera con complejidad cuadrática en cada capa. A medida que crece la longitud del contexto, el tiempo que el modelo pasa ejecutando estos indexadores se dispara. Para resolver este cuello de botella, el equipo descubrió que el subconjunto de tokens importantes que selecciona un indexador permanece notablemente estable a través de capas consecutivas del transformador, con capas adyacentes compartiendo entre el 70% y el 100% de sus tokens seleccionados.

IndexCache capitaliza esta redundancia dividiendo las capas del modelo en dos categorías: capas completas (F) que mantienen sus indexadores activos calculando y almacenando en caché los tokens más importantes, y capas compartidas (S) que no realizan indexación y reutilizan los índices almacenados de la capa F anterior más cercana. Los investigadores desarrollaron dos enfoques de implementación: un método sin entrenamiento que utiliza un algoritmo de selección de capas y un método consciente del entrenamiento que optimiza los parámetros de la red.

En pruebas con el modelo GLM-4.7 Flash de 30 mil millones de parámetros, IndexCache redujo la latencia de prellenado de 19.5 segundos a solo 10.7 segundos en un contexto de 200K, logrando una aceleración de 1.82 veces. Durante la fase de decodificación, el rendimiento aumentó de 58 a 86 tokens por segundo, una mejora de 1.48 veces. Estas ganancias de eficiencia se traducen directamente en ahorros de costos: los equipos empresariales observan al menos una reducción aproximada del 20% en los costos de implementación para cargas de trabajo de contexto largo como RAG, análisis de documentos y flujos de trabajo agénticos.

Notablemente, estas ganancias de eficiencia no comprometieron las capacidades de razonamiento. El modelo optimizado igualó el puntaje promedio del original en benchmarks de contexto largo e incluso superó al original en el complejo benchmark de razonamiento matemático AIME 2025. Los parches de código abierto ya están disponibles en GitHub para los principales motores de servicio como vLLM y SGLang, permitiendo a los desarrolladores integrar IndexCache con cambios mínimos de configuración.

Fuente Original: https://venturebeat.com/technology/indexcache-a-new-sparse-attention-optimizer-delivers-1-82x-faster-inference

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT