domingo, 17 de mayo de 2026

Grok Build IA de Elon Musk para Codificar

¡Atención, desarrolladores! Elon Musk y su empresa xAI han dado un paso importante en el competitivo mundo de la inteligencia artificial con el lanzamiento de Grok Build. Este nuevo agente de codificación se presenta como un rival directo para herramientas ya establecidas como Claude Code de Anthropic, buscando acortar distancias con empresas líderes del sector como OpenAI.

Grok Build: ¡IA de Elon Musk para Codificar!

Elon Musk, fundador y CEO de xAI, reconoció previamente que la compañía se encontraba rezagada en capacidades de codificación. Tras una reestructuración interna, xAI está apostando fuerte por Grok Build para recuperar terreno. Según informes, se ha instado al equipo a trabajar intensamente para que Grok alcance el nivel de rendimiento de Claude en diversas tareas de programación.

Actualmente, Grok B uild se encuentra en fase beta y está disponible para los suscriptores del plan SuperGrok Heavy, cuyo coste es de 300 dólares mensuales. Los interesados pueden descargarlo desde el sitio web de xAI. La herramienta se describe como un potente agente de codificación y una interfaz de línea de comandos (CLI) diseñada para la ingeniería de software profesional y trabajos de codificación complejos. xAI busca activamente la retroalimentación de los usuarios para identificar y corregir errores. Entre las características destacadas se incluye un modo de planificación que permite revisar, editar y aprobar un plan antes de su ejecución, además de ofrecer compatibilidad con plugins y flujos de trabajo existentes.

Fuente Original: https://developers.slashdot.org/story/26/05/17/021425 4/elon-musks-xai-launches-grok-build-its-first-ai-coding-agent?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

IA Creativa Superan los LLM el Test de Lovelace

We've all heard of the Turing Test, the classic benchmark for artificial intelligence that asks if a machine can converse indistinguishably from a human. But what if there's a tougher challenge out there? Enter the Lovelace Test, a more demanding evaluation proposed nearly two decades ago, designed to gauge a machine's true originality and creativity. Unlike the Turing Test, which focuses on conversational mimicry, the Lovelace Test posits that an intelligent machine should be able to produce something novel, something even its creators can't fully explain how it was achieved. This test aims to measure genuine creativity, suggesting that a computer only possesses a 'mind' if it demonstrates this independent creative spark.

IA Creativa: ¿Superan los LLM el Test de Lovelace?

The concept, first laid out in 2001 and later refined wit h Lovelace Test 2.0 in 2014, has gained renewed relevance with the advent of sophisticated Large Language Models (LLMs) like ChatGPT. The article suggests that these advanced AI systems might not just be passing the Lovelace Test, but exceeding it significantly. Current LLMs, trained on vast datasets of human-generated text, code, and images, employ probabilistic estimations to generate output. The sheer computational power and complexity involved in producing even a short piece of text – potentially requiring 10^14 to 10^15 calculations – make it virtually impossible for human creators to trace the exact creative process behind it within a reasonable timeframe. This complexity aligns with the Lovelace Test's criterion that the output should be so intricate that even the originators cannot fully reconstruct its genesis.

The debate continues whether this output represents true artificial creativity or merely the sophisticated mimicry of "stochastic parrots." While the Lovel ace Test was designed to assess creativity as a hallmark of intelligence, some argue that LLMs might simply be demonstrating unpredictability, a trait that, while human-like, doesn't necessarily equate to genuine understanding or consciousness. Whether these AI-generated creations are truly original or a reflection of their training data remains a key question, but their ability to generate outputs that defy easy explanation certainly pushes the boundaries of our current definitions of artificial intelligence.

Fuente Original: https://www.microsiervos.com/archivo/ia/test-lovelace-version-exigente-test-turing-ia.html

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Fedora Detiene Iniciativa de IA por Reaccion Comunitaria

La ambiciosa iniciativa de Fedora para crear un 'AI Developer Desktop' ha sido frenada de manera inesperada. Originalmente propuesta para potenciar Fedora como una plataforma líder en inteligencia artificial y aprendizaje automático, el proyecto buscaba ofrecer un entorno optimizado con herramientas de desarrollo, soporte de hardware acelerado y una comunidad activa. La propuesta, que recibió aprobación inicial unánime por parte del Consejo de Fedora, se encontró con un obstáculo significativo poco después.

Fedora Detiene Iniciativa de IA por Reacción Comunitaria

Dos miembros clave del Consejo de Fedora retiraron sus votos de aprobación tras una fuerte reacción de la comunidad. Las preocupaciones principales se centraron en la estrategia del kernel, la posible inclusión de software propietario y la identidad del proyect o. Un punto de fricción importante fue el énfasis en el soporte de CUDA, que algunos argumentan va en contra de los principios de software libre de Fedora, abogando por alternativas de código abierto como ROCm de AMD y oneAPI de Intel.

La controversia destaca la delicada balanza que Fedora debe mantener entre adoptar nuevas tecnologías y adherirse a sus valores fundamentales. La comunidad, a través de cientos de respuestas en los foros de discusión, ha expresado su deseo de que cualquier avance en IA se alinee con el compromiso de Fedora con el software abierto y la transparencia, asegurando que el desarrollo futuro no comprometa la filosofía que ha definido a la distribución. Este revés subraya la importancia de un consenso comunitario robusto antes de implementar cambios estructurales significativos.

Fuente Original: https://linux.slashdot.org/story/26/05/16/0815220/fedoras-ai-developer-desktop-initiative-blocked-by-community-backlash?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

IA Reemplaza a Expertos que Necesita para Aprender

La inteligencia artificial enfrenta una paradoja peligrosa que pocas empresas están considerando: está eliminando precisamente a los expertos humanos de los que depende para seguir mejorando. Ahmad Al-Dahle, CTO de Airbnb, plantea un riesgo empresarial crítico que nadie está modelando adecuadamente. Mientras la industria tecnológica invierte enormemente en capacidades de autoaprendizaje de la IA, ignora casi por completo lo que está sucediendo con los evaluadores humanos que estos sistemas necesitan para evolucionar.

IA Reemplaza a Expertos que Necesita para Aprender

Para que los sistemas de IA continúen mejorando en trabajo de conocimiento, necesitan un mecanismo confiable de auto-mejora autónoma o evaluadores humanos capaces de detectar errores y generar retroalimentación de alta calidad. El problema es que la contratación de recién graduados en las principales empresas tecnológicas ha caído a la mitad desde 2019. Tareas como revisión de documentos, investigación preliminar, limpieza de datos y revisión de código ahora las manejan modelos de IA. Lo que los economistas llaman desplazamiento, las empresas lo llaman eficiencia, pero ninguno se enfoca en el problema futuro.

A diferencia de juegos como Go o ajedrez, donde AlphaZero alcanzó niveles sobrehumanos mediante autoaprendizaje, el trabajo de conocimiento carece de reglas estables y señales de recompensa claras. Las reglas en cualquier dominio profesional son dinámicas y continuamente reescritas. Nuevas leyes se aprueban, nuevos instrumentos financieros se inventan, y una estrategia legal exitosa en 2022 puede fallar en una jurisdicción que cambió su interpretación. Sin un entorno estable y una señal de recompensa inequívoca, no se puede cerrar el ciclo. Se necesitan humanos en la cadena de evaluación para seguir enseñando al modelo.

El verdadero problema es la formación. Los sistemas de IA actuales fueron entrenados con la experiencia de personas que pasaron por años de desarrollo profesional. Sin embargo, los trabajos de nivel inicial que desarrollan tal experiencia fueron los primeros en automatizarse. Esto significa que la próxima generación de expertos potenciales no está acumulando el tipo de juicio que hace valioso tener a un evaluador humano en el proceso. A su límite lógico, esto no es solo un problema de pipeline, sino un colapso de la demanda de la experiencia misma. Campos enteros podrían atrofiarse no por catástrofe, sino por miles de decisiones económicas individualmente racionales.

Las rúbricas de evaluación actuales, aunque útiles, tienen limitaciones. Solo pueden capturar lo que quien las escribió sabía medir. Optimizar contra una rúbrica produce un modelo muy bueno satisfaciéndola, pero eso no es lo mismo que un modelo que realmente está en lo correcto. Las rúbricas escalan la parte explícita del juicio, pero la parte más profunda, el instinto de que algo está mal, no cabe en una rúbrica. Al-Dahle concluye que debemos tratar el problema de evaluación humana con el mismo rigor e inversión que ponemos en construir las capacidades del modelo mismo.

Fuente Original: https://venturebeat.com/technology/the-enterprise-risk-nobody-is-modeling-ai-is-replacing-the-very-experts-it-needs-to-learn-from

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Linux Kernel Defines Security Bugs and AI Reporting

The Linux 7.1 kernel has introduced comprehensive new documentation that clarifies two critical aspects of kernel development: what constitutes a genuine security vulnerability and how the community should handle bug reports generated with the assistance of artificial intelligence. This move comes in response to a notable surge in security-related submissions, many of which have been identified through AI-powered analysis tools.

Linux Kernel Defines Security Bugs and AI Reporting

Veteran Linux developer Willy Tarreau authored the new guidelines, which address growing concerns about the quality and nature of vulnerability reports flooding the kernel security channels. The documentation establishes clear criteria for what merits treatment as a security issue versus an ordinary bug that should follow standard public reporting procedures.

According to the new guidelines, AI-assisted vulnerability reports should be treated as public information by default. The rationale behind this approach is that AI-driven discoveries tend to surface simultaneously across multiple researchers, often on the very same day. Reporters are advised against posting exploit code or reproducers publicly; instead, they should simply mention that a reproducer exists and provide it privately only if kernel maintainers specifically request it.

The documentation also sets clear expectations for AI-assisted submissions. Reports must be concise and formatted in plain text, focusing on demonstrable impact rather than speculative or theoretical consequences. Researchers should include a thoroughly tested reproducer and, wherever feasible, propose and test a potential fix before submission.

Regarding what actually qualifies as a security bug worthy of the private security mailing list, the kernel team has drawn a firm line. Such bugs must be urgent issues that grant attackers capabilities they shouldn't possess on properly configured production systems, must be easily exploitable, and must pose an imminent threat to a substantial number of users. Crucially, reporters must consider whether the issue genuinely crosses a trust boundary, as many privately submitted bugs turn out to be ordinary defects that belong in the normal public reporting workflow.

Fuente Original: https://linux.slashdot.org/story/26/05/16/0332211/linux-kernel-outlines-what-qualifies-as-a-security-bug-responsible-ai-use?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

sábado, 16 de mayo de 2026

ChatGPT Tu Banco Ahora en Conversacion Inteligente

OpenAI ha dado un paso audaz al integrar ChatGPT con tus cuentas bancarias, tarjetas de crédito, inversiones y préstamos, a través de una asociación con Plaid. Esta nueva función, disponible para suscriptores Pro en Estados Unidos, permite a los usuarios interactuar con sus finanzas de una manera completamente nueva. Imagina preguntar a ChatGPT cuánto gastaste en tus últimas vacaciones o pedirle ayuda para planificar la compra de una casa en cinco años, con respuestas basadas en tus datos reales.

ChatGPT: Tu Banco Ahora en Conversación Inteligente

La herramienta promete transformar las conversaciones financieras genéricas en consejos personalizados y accionables. ChatGPT, potenciado por su modelo más reciente, GPT-5.5, puede acceder a saldos, transacciones e inversiones, aunque se asegura que no podrá ver números de cuenta completos ni realizar cambios. La privacidad es una preocupación clave, y OpenAI afirma que los datos se eliminan en un plazo de 30 días y que los usuarios pueden desconectar sus cuentas en cualquier momento. Sin embargo, la combinación de esta información sensible con la reciente introducción de publicidad en ChatGPT plantea interrogantes sobre la privacidad y la posible recopilación de datos para segmentación de audiencias, algo que OpenAI niega.

La adquisición previa de startups fintech como Hiro Finance y Roi subraya la ambición de OpenAI de posicionarse no solo como un chatbot, sino como una plataforma integral de servicios financieros. La competencia no se queda atrás, con Perplexity lanzando funcionalidades similares. La clave del éxito para OpenAI residirá en si los usuarios confían lo suficiente en el chatbot para compartir sus datos financieros más íntimos, especialmente considerando que no existe una obligación fiduciaria legal como la de un asesor humano. La pregunta fundamental es si la conveniencia superará los riesgos de privacidad y seguridad.

Fuente Original: https://thenextweb.com/news/openai-chatgpt-personal-finance-plaid

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Salesforces 300M AI Tokens Slack Coding Plans

Salesforce's CEO, Marc Benioff, has revealed an ambitious AI strategy, projecting a colossal spend of $300 million on Anthropic's AI tokens this year. This substantial investment is primarily earmarked for AI coding applications, a move Benioff believes will significantly reduce development costs and accelerate product iteration. He views AI coding agents as revolutionary, enabling unprecedented efficiency gains across various business functions, including service, support, and marketing, a point underscored by the significant reduction in their support workforce due to AI-driven productivity.

Salesforce's $300M AI Tokens & Slack Coding Plans

Beyond token expenditure, Benioff is keen on integrating AI more deeply into Slack, the communication platform Salesforce acquired. He hinted at forthcoming advancements that will make coding more seamless within Slack, positioning it as the primary interface for AI interactions. This vision aligns with recent Slack overhauls, which have introduced over 30 new AI capabilities powered by Anthropic's Claude, transforming Slack into a more agentic system capable of task execution and data analysis. The synergy between Slack and AI is further exemplified by the growth of Salesforce's Agentforce business and the automatic provisioning of AI-enabled Slack for new customers.

A key insight from Benioff is the need for an "intermediary layer" to intelligently route AI tasks. This would allow complex requests to be handled by powerful frontier models like Claude, while simpler tasks are delegated to more cost-effective, smaller models. This strategic approach to token management could yield significant cost savings, with Salesforce potentially developing this optimisation in-house. The broader context highlights the escalating importance of AI as a core operational expense for enterprises, with Anthropic's expanding reach through partnerships further solidifying this trend. Salesforce's significant past investment in Anthropic, driven by a strategic redirection from potential OpenAI investment, also positions them for substantial returns if this AI token strategy proves as successful as anticipated.

Fuente Original: https://thenextweb.com/news/salesforce-benioff-300-million-anthropic-tokens-slack-coding

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Fin La IA que Gestiona a Otra IA Revoluciona Soporte

La empresa anteriormente conocida como Intercom, ahora rebautizada como Fin, ha presentado una innovación sin precedentes en el servicio al cliente: Fin Operator. Este sistema de inteligencia artificial no reemplaza a los agentes humanos de primera línea, sino que se enfoca en optimizar la labor de los equipos de operaciones de soporte. Su función principal es gestionar y mejorar a Fin, el agente de cara al cliente de la compañía, liberando a los profesionales de tareas como la actualización de bases de conocimiento, la depuración de errores conversacionales y el análisis de rendimiento.

Fin: La IA que Gestiona a Otra IA Revoluciona Soporte

Este lanzamiento marca un punto de inflexión para Fin, que ha experimentado un crecimiento exponencial, superando los 100 millones de dólares en ingresos recurrentes anuales. Fin Operator busca aliviar la creciente complejidad operativa que acompaña a la expansión de los agentes de IA. A medida que Fin resuelve millones de problemas de clientes semanalmente, la necesidad de mantener actualizadas las bases de datos, solucionar fallos y analizar el rendimiento se ha vuelto abrumadora para los equipos de soporte. Operator se presenta como una solución integral para estas tareas, actuando como analista de datos, gestor de conocimiento y constructor de agentes.

Fin Operator asume tres roles clave: como analista de datos, puede responder preguntas complejas sobre el rendimiento del equipo y generar informes detallados. Como gestor de conocimiento, es capaz de asimilar actualizaciones de productos y optimizar la base de contenidos de forma autónoma. Finalmente, como constructor de agentes, introduce una función de depuración que permite identificar y solucionar los fallos de Fin mediante un análisis conversacional paso a paso. Un aspecto crucial de Fin Operator es su sistema de "propuestas", similar a las solicitudes de extracción en ingeniería de software, que requiere la aprobación humana antes de implementar cualquier cambio. Esto garantiza un control riguroso, minimizando riesgos. Sorprendentemente, Operator utiliza los modelos Claude de Anthropic en lugar de los propios modelos Apex de Fin, ya que se considera que los modelos de Anthropic son más adecuados para las tareas de ingeniería de software y análisis de datos que req uieren los operadores. Los primeros usuarios beta han reportado mejoras significativas, comparando la eficiencia de Fin Operator con la adición de cinco miembros al equipo, lo que sugiere un futuro prometedor para la gestión de IA en el ámbito empresarial.

Fuente Original: https://venturebeat.com/technology/intercom-now-called-fin-launches-an-ai-agent-whose-only-job-is-managing-another-ai-agent

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

RecursiveMAS Revoluciona Sistemas Multi-Agente de IA

Los sistemas de inteligencia artificial multi-agente enfrentan un desafío crítico: la comunicación entre agentes mediante texto genera latencia, aumenta costos y dificulta el entrenamiento cohesivo del sistema completo. Investigadores de la Universidad de Illinois Urbana-Champaign y Stanford han desarrollado RecursiveMAS, un marco innovador que permite a los agentes colaborar transmitiendo información a través del espacio de embeddings en lugar de texto, logrando mejoras significativas en eficiencia y rendimiento.

RecursiveMAS Revoluciona Sistemas Multi-Agente de IA

RecursiveMAS se inspira en los modelos de lenguaje recursivos, donde en lugar de procesar datos linealmente a través de capas distintas, se reutiliza un conjunto de capas compartidas que procesan la información y la retroalimentan. Este framework extiende este principio a una arquitectura multi-agente que funciona como un sistema recursivo unificado. Cada agente actúa como una capa en un modelo recursivo, pasando representaciones latentes continuas al siguiente agente en la secuencia, creando un flujo circular de información. Solo el último agente genera una salida textual en la ronda final, mientras que los demás se comunican internamente sin producir tokens de texto.

El componente arquitectónico clave es el RecursiveLink, un módulo ligero de dos capas diseñado para transmitir y refinar los estados latentes del modelo. Existen dos variaciones: el RecursiveLink interno opera dentro de un agente durante su fase de razonamiento, permitiéndole generar un flujo continuo de pensamientos latentes sin texto. El RecursiveLink externo sirve como puente entre agentes, adaptando las dimensiones de embedding entre diferentes arquitecturas de modelos. Durante el entrenamiento, solo se actualizan los parámetros de RecursiveLink, manteniendo congelados los pesos de los modelos originales, similar a la adaptación de bajo rango.

Las pruebas realizadas en nueve benchmarks que abarcan matemáticas, ciencia, medicina, generación de código y búsqueda de respuestas demostraron resultados impresionantes. RecursiveMAS logró una mejora promedio de precisión del 8.3% comparado con las alternativas más robustas, destacándose especialmente en tareas de razonamiento complejo. El sistema alcanzó una aceleración de inferencia de 1.2x a 2.4x y redujo el uso de tokens hasta en un 75.6% en la tercera ronda de recursión. Además, el entrenamiento resultó notablemente económico, actualizando solo 13 millones de parámetros (0.31% de los parámetros entrenables), reduciendo costos de entrenamiento en más de la mitad comparado con el ajuste fino completo. Los investigadores han liberado el código y los pesos del modelo bajo licencia Apache 2.0, facilitando su adopción empresarial para flujos de trabajo de agentes complejos sin la sobrecarga computacional que actualmente limita las implementaciones.

Fuente Original: https://venturebeat.com/orchestration/how-recursivemas-speeds-up-multi-agent-inference-by-2-4x-and-reduces-token-usage-by-75

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Turla Transforms Kazuar Backdoor Into P2P Botnet

The sophisticated threat actor known as Turla has significantly evolved its Kazuar backdoor, transforming it from a traditional command-and-control tool into a modular peer-to-peer botnet designed for persistent and resilient access to compromised networks. This development represents a concerning advancement in the group's cyber espionage capabilities, making detection and remediation considerably more challenging for security teams.

Turla Transforms Kazuar Backdoor Into P2P Botnet

Kazuar, which has been in Turla's arsenal for several years, has undergone substantial architectural changes. The backdoor now operates using a peer-to-peer communication model rather than relying on centralised command-and-control servers. This decentralised approach makes it significantly harder for defenders to disrupt operations by taking down infrastructure, as each infected system can communicate directly with others in the network, creating a resilient mesh of compromised endpoints.

The modular design of the updated Kazuar allows attackers to deploy specific functionality as needed, reducing the malware's footprint and making detection more difficult. Operators can now selectively load components for data exfiltration, lateral movement, or additional payload delivery based on the specific objectives of their campaign. This flexibility enables Turla to maintain long-term access whilst minimising the risk of discovery through unnecessary or noisy operations.

Security researchers warn that this evolution demonstrates Turla's continued investment in developing advanced persistent threat capabilities. Organisations should enhance their monitoring for unusual peer-to-peer network traffic patterns, implement robust endpoint detection and response solutions, and maintain current threat intelligence on Turla's tactics, techniques, and procedures to defend against this sophisticated threat.

Fuente Original: https://thehackernews.com/2026/05/turla-turns-kazuar-backdoor-into.html

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

viernes, 15 de mayo de 2026

Exchange Server Vulnerable Ataque por Email Explota CVE

¡Atención administradores de sistemas! Una nueva y preocupante vulnerabilidad ha sido descubierta afectando a los servidores Microsoft Exchange locales. La vulnerabilidad, identificada como CVE-2026-42897, ha sido explotada activamente, lo que representa un riesgo significativo para las organizaciones que aún dependen de estas implementaciones on-premise.

Exchange Server Vulnerable: Ataque por Email Explota CVE

La clave de este ataque reside en un simple correo electrónico malicioso. Los atacantes están utilizando correos electrónicos especialmente diseñados para explotar esta falla de seguridad. Una vez que un usuario a bre o procesa este correo, el atacante puede obtener un acceso no autorizado a los sistemas afectados. Esto abre la puerta a una serie de acciones maliciosas, incluyendo el robo de información confidencial, la interrupción de servicios e incluso el despliegue de malware adicional.

La gravedad de CVE-2026-42897 radica en su relativa facilidad de explotación y el impacto potencial que puede tener en la infraestructura crítica de las empresas. La naturaleza del ataque, que se propaga a través del correo electrónico, lo hace particularmente sigiloso y difícil de detectar sin las medidas de seguridad adecuadas. Las organizaciones que utilizan Exchange Server on-premise deben tomar medidas inmediatas para mitigar este riesgo. Se recomienda encarecidamente aplicar todos los parches de seguridad disponibles y revisar activamente los registros del servidor para detectar cualquier actividad sospechosa. La adopción de soluciones de seguridad perimetral robustas y la concienciaci� �n del usuario sobre las amenazas de phishing son también pasos cruciales en la defensa contra este tipo de ataques. Mantener el software actualizado y estar al tanto de las últimas advertencias de seguridad es fundamental para proteger los activos digitales de su organización.

Fuente Original: https://thehackernews.com/2026/05/on-prem-microsoft-exchange-server-cve.html

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Multiverse Bags 70M for Europe AI Adoption Push

Euan Blair's AI and tech upskilling platform, Multiverse, has secured a significant funding round of $70 million, achieving a valuation of $2.1 billion. This latest investment, led by Schroders Capital, signifies a substantial step up from its previous Series D round in 2022. The company has experienced impressive growth, with revenue increasing by 50% year-on-year for the third consecutive year, and has even achieved its first cash-positive quarter. This funding is earmarked to fuel Multiverse's ambitious expansion across Europe, solidifying its position as a key player in the AI adoption landscape.

Multiverse Bags $70M for Europe AI Adoption Push

Multiverse is strategically positioning itself not just as a product provider, but as Europe's go-to AI adoption platform. Their core mission is to bridge the gap between businesses acquiring AI tools and the workforce that needs to effectively utilise them. Chief Executive Euan Blair highlights that the critical missing piece in the AI ecosystem isn't another model or agent, but rather a skilled workforce capable of operating these advanced technologies. This philosophy is underscored by their recent acquisition of StackFuel, a German AI training provider, demonstrating their commitment to building this essential human capital.

The company's value proposition resonates strongly with current market trends, addressing a prevalent concern among businesses: while AI investment is surging, the returns are often inconsistent. Multiverse's data indicates that organisations investing heavily in workforce upskilling see significantly better AI adoption outcomes. Customer testimonials and case studies, including clients like the AA and Babcock, point to substantial verified ROI delivered by Multiverse's solutions. With AI coaching platform Atlas seeing a tripling of daily active users and strategic partnerships with tech giants like Microsoft and Palantir, Multiverse is well-equipped to capitalise on the growing demand for AI-driven workforce transformation.

Fuente Original: https://thenextweb.com/news/ultiverse-70-million-schroders-ai-adoption-europe

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Cerebras Chips de IA de Elite Alcanzan los 100B en Nasdaq

Cerebras Systems, el innovador fabricante de chips de IA, ha irrumpido en el mercado de valores con un debut espectacular en el Nasdaq. La compañía, conocida por su procesador de escala de oblea (Wafer-Scale Engine), casi duplicó su valor de salida a bolsa (IPO) en su primer día, alcanzando una capitalización de mercado de 100 mil millones de dólares. Este hito no solo la posiciona como una de las empresas de semiconductores más valiosas del mundo, sino que también valida una década de inversión en la idea de que la inteligencia artificial requiere una arquitectura de chip fundamentalmente diferente.

Cerebras: ¡Chips de IA de Élite Alcanzan los $100B en Nasdaq!

El éxito de Cerebras se basa en su revolucionario Wafer-Scale Engine (WSE), un procesador que abarca una oblea de silicio completa. Su última generación, el WSE-3, cuenta con una cantidad asombrosa de transistores y núcleos de cómputo, ofreciendo una memoria y un ancho de banda significativamente superiores a las soluciones convencionales de NVIDIA. Esta ventaja es crucial para la inferencia de IA, el proceso de ejecución de modelos entrenados para generar respuestas. La arquitectura de Cerebras reduce drásticamente la latencia al mantener los elementos de cómputo más cerca, lo que se traduce en respuestas hasta 15 veces más rápidas que las soluciones basadas en GPU para ciertos modelos.

La estrategia de la empresa ha pivotado de la venta directa de hardware a un modelo centrado en servicios de inferencia basados en la nube. A pesar de haber enfrentado desafíos en el pasado, como una fuerte dependencia de un solo cliente en los Emiratos Árabes Unidos, Cerebras ha forjado alianzas estratégicas clave con gigantes como OpenAI y Amazon Web Services. El acuerdo con OpenAI, valorado en más de 20 mil millones de dólares, implica la co-creación de futuros modelos y hardware, mientras que la colaboración con AWS busca integrar los sistemas de Cerebras en su infraestructura global, democratizando el acceso a la inferencia rápida para millones de desarrolladores.

Si bien el crecimiento en ingresos ha sido exponencial, la compañía enfrenta la necesidad de escalar rápidamente su infraestructura física para satisfacer la creciente demanda. La transición a la nube implica costos iniciales significativos que presionarán los márgenes de ganancia a corto plazo. Además, la concentración de clientes, aunque reducida, sigue siendo un punto de atención, con entidades de los Emiratos Árabes Unidos aún representando una parte sustancial de sus ingresos. Sin embargo, la fuerte validación del mercado a través de su exitoso debut en el Nasdaq, junto con un plan tecnológico ambicioso, sugiere que Cerebras está bien posicionada para navegar la competencia en la guerra de los chips de IA y capitalizar la explosión de la inferencia de inteligencia artificial.

Fuente Original: https://venturebeat.com/technology/cerebras-stock-nearly-doubles-on-day-one-as-ai-chipmaker-hits-100-billion-what-it-means-for-ai-infrastructure

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Exploit Zero-Day Derrota Proteccion BitLocker Windows 11

Una vulnerabilidad crítica de día cero está circulando en línea y permite a cualquier persona con acceso físico a un sistema Windows 11 eludir completamente las protecciones predeterminadas de BitLocker en cuestión de segundos. Este exploit, denominado YellowKey, representa una grave amenaza para la seguridad de millones de dispositivos que dependen del cifrado de disco completo de Microsoft para proteger información sensible.

Exploit Zero-Day Derrota Protección BitLocker Windows 11

El exploit fue publicado esta semana por un investigador conocido como Nightmare-Eclipse y funciona contra las configuraciones predeterminadas de Windows 11 con BitLocker activado. BitLocker es el sistema de cifrado de volumen completo que Microsoft proporciona para mantener el contenido del disco inaccesible sin la clave de descifrado, la cual normalmente se almacena en un módulo de plataforma confiable o TPM. Esta protección es obligatoria para muchas organizaciones, especialmente aquellas que trabajan con gobiernos.

El núcleo del exploit YellowKey es una carpeta FsTx personalizada que aprovecha funcionalidades del sistema de archivos transaccional NTFS de Windows. El proceso de ataque es sorprendentemente simple: el atacante solo necesita copiar la carpeta FsTx especial a una unidad USB formateada en NTFS o FAT, conectarla al dispositivo protegido, iniciar el sistema manteniendo presionada la tecla Control y acceder a la recuperación de Windows. Una vez allí, aparece un símbolo del sistema con acceso completo al contenido del disco cifrado, sin necesidad de ingresar la clave de recuperación de BitLocker.

Varios investigadores de seguridad reconocidos, incluyendo Kevin Beaumont y Will Dormann, han confirmado que el exploit funciona exactamente como se describe. Lo más preocupante es que la carpeta FsTx en un volumen USB puede modificar el contenido de otro volumen durante su reproducción transaccional, eliminando archivos críticos del sistema de recuperación y otorgando acceso directo sin las protecciones esperadas. Dormann señala que esto podría representar una vulnerabilidad aún más profunda que el simple bypass de BitLocker.

Es importante destacar que esta vulnerabilidad solo afecta a la configuración predeterminada de BitLocker en Windows 11, que almacena las claves de descifrado únicamente en el TPM. Los expertos en seguridad han advertido durante mucho tiempo que esta configuración solo con TPM es insuficiente, recomendando en su lugar habilitar un PIN adicional antes de que la clave pueda recuperarse del TPM. Microsoft ha declarado que está investigando el problema, pero hasta el momento no ha proporcionado una solución o parche. Los usuarios deben ser conscientes de que actualmente BitLocker en Windows 11 no está proporcionando la protección esperada, y los dispositivos perdidos o robados pueden ser accesibles incluso con el cifrado activado.

Fuente Original: https://arstechnica.com/security/2026/05/zero-day-exploit-completely-defeats-default-windows-11-bitlocker-protections/

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT