sábado, 16 de mayo de 2026

ChatGPT Tu Banco Ahora en Conversacion Inteligente

OpenAI ha dado un paso audaz al integrar ChatGPT con tus cuentas bancarias, tarjetas de crédito, inversiones y préstamos, a través de una asociación con Plaid. Esta nueva función, disponible para suscriptores Pro en Estados Unidos, permite a los usuarios interactuar con sus finanzas de una manera completamente nueva. Imagina preguntar a ChatGPT cuánto gastaste en tus últimas vacaciones o pedirle ayuda para planificar la compra de una casa en cinco años, con respuestas basadas en tus datos reales.

ChatGPT: Tu Banco Ahora en Conversación Inteligente

La herramienta promete transformar las conversaciones financieras genéricas en consejos personalizados y accionables. ChatGPT, potenciado por su modelo más reciente, GPT-5.5, puede acceder a saldos, transacciones e inversiones, aunque se asegura que no podrá ver números de cuenta completos ni realizar cambios. La privacidad es una preocupación clave, y OpenAI afirma que los datos se eliminan en un plazo de 30 días y que los usuarios pueden desconectar sus cuentas en cualquier momento. Sin embargo, la combinación de esta información sensible con la reciente introducción de publicidad en ChatGPT plantea interrogantes sobre la privacidad y la posible recopilación de datos para segmentación de audiencias, algo que OpenAI niega.

La adquisición previa de startups fintech como Hiro Finance y Roi subraya la ambición de OpenAI de posicionarse no solo como un chatbot, sino como una plataforma integral de servicios financieros. La competencia no se queda atrás, con Perplexity lanzando funcionalidades similares. La clave del éxito para OpenAI residirá en si los usuarios confían lo suficiente en el chatbot para compartir sus datos financieros más íntimos, especialmente considerando que no existe una obligación fiduciaria legal como la de un asesor humano. La pregunta fundamental es si la conveniencia superará los riesgos de privacidad y seguridad.

Fuente Original: https://thenextweb.com/news/openai-chatgpt-personal-finance-plaid

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Salesforces 300M AI Tokens Slack Coding Plans

Salesforce's CEO, Marc Benioff, has revealed an ambitious AI strategy, projecting a colossal spend of $300 million on Anthropic's AI tokens this year. This substantial investment is primarily earmarked for AI coding applications, a move Benioff believes will significantly reduce development costs and accelerate product iteration. He views AI coding agents as revolutionary, enabling unprecedented efficiency gains across various business functions, including service, support, and marketing, a point underscored by the significant reduction in their support workforce due to AI-driven productivity.

Salesforce's $300M AI Tokens & Slack Coding Plans

Beyond token expenditure, Benioff is keen on integrating AI more deeply into Slack, the communication platform Salesforce acquired. He hinted at forthcoming advancements that will make coding more seamless within Slack, positioning it as the primary interface for AI interactions. This vision aligns with recent Slack overhauls, which have introduced over 30 new AI capabilities powered by Anthropic's Claude, transforming Slack into a more agentic system capable of task execution and data analysis. The synergy between Slack and AI is further exemplified by the growth of Salesforce's Agentforce business and the automatic provisioning of AI-enabled Slack for new customers.

A key insight from Benioff is the need for an "intermediary layer" to intelligently route AI tasks. This would allow complex requests to be handled by powerful frontier models like Claude, while simpler tasks are delegated to more cost-effective, smaller models. This strategic approach to token management could yield significant cost savings, with Salesforce potentially developing this optimisation in-house. The broader context highlights the escalating importance of AI as a core operational expense for enterprises, with Anthropic's expanding reach through partnerships further solidifying this trend. Salesforce's significant past investment in Anthropic, driven by a strategic redirection from potential OpenAI investment, also positions them for substantial returns if this AI token strategy proves as successful as anticipated.

Fuente Original: https://thenextweb.com/news/salesforce-benioff-300-million-anthropic-tokens-slack-coding

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Fin La IA que Gestiona a Otra IA Revoluciona Soporte

La empresa anteriormente conocida como Intercom, ahora rebautizada como Fin, ha presentado una innovación sin precedentes en el servicio al cliente: Fin Operator. Este sistema de inteligencia artificial no reemplaza a los agentes humanos de primera línea, sino que se enfoca en optimizar la labor de los equipos de operaciones de soporte. Su función principal es gestionar y mejorar a Fin, el agente de cara al cliente de la compañía, liberando a los profesionales de tareas como la actualización de bases de conocimiento, la depuración de errores conversacionales y el análisis de rendimiento.

Fin: La IA que Gestiona a Otra IA Revoluciona Soporte

Este lanzamiento marca un punto de inflexión para Fin, que ha experimentado un crecimiento exponencial, superando los 100 millones de dólares en ingresos recurrentes anuales. Fin Operator busca aliviar la creciente complejidad operativa que acompaña a la expansión de los agentes de IA. A medida que Fin resuelve millones de problemas de clientes semanalmente, la necesidad de mantener actualizadas las bases de datos, solucionar fallos y analizar el rendimiento se ha vuelto abrumadora para los equipos de soporte. Operator se presenta como una solución integral para estas tareas, actuando como analista de datos, gestor de conocimiento y constructor de agentes.

Fin Operator asume tres roles clave: como analista de datos, puede responder preguntas complejas sobre el rendimiento del equipo y generar informes detallados. Como gestor de conocimiento, es capaz de asimilar actualizaciones de productos y optimizar la base de contenidos de forma autónoma. Finalmente, como constructor de agentes, introduce una función de depuración que permite identificar y solucionar los fallos de Fin mediante un análisis conversacional paso a paso. Un aspecto crucial de Fin Operator es su sistema de "propuestas", similar a las solicitudes de extracción en ingeniería de software, que requiere la aprobación humana antes de implementar cualquier cambio. Esto garantiza un control riguroso, minimizando riesgos. Sorprendentemente, Operator utiliza los modelos Claude de Anthropic en lugar de los propios modelos Apex de Fin, ya que se considera que los modelos de Anthropic son más adecuados para las tareas de ingeniería de software y análisis de datos que req uieren los operadores. Los primeros usuarios beta han reportado mejoras significativas, comparando la eficiencia de Fin Operator con la adición de cinco miembros al equipo, lo que sugiere un futuro prometedor para la gestión de IA en el ámbito empresarial.

Fuente Original: https://venturebeat.com/technology/intercom-now-called-fin-launches-an-ai-agent-whose-only-job-is-managing-another-ai-agent

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

RecursiveMAS Revoluciona Sistemas Multi-Agente de IA

Los sistemas de inteligencia artificial multi-agente enfrentan un desafío crítico: la comunicación entre agentes mediante texto genera latencia, aumenta costos y dificulta el entrenamiento cohesivo del sistema completo. Investigadores de la Universidad de Illinois Urbana-Champaign y Stanford han desarrollado RecursiveMAS, un marco innovador que permite a los agentes colaborar transmitiendo información a través del espacio de embeddings en lugar de texto, logrando mejoras significativas en eficiencia y rendimiento.

RecursiveMAS Revoluciona Sistemas Multi-Agente de IA

RecursiveMAS se inspira en los modelos de lenguaje recursivos, donde en lugar de procesar datos linealmente a través de capas distintas, se reutiliza un conjunto de capas compartidas que procesan la información y la retroalimentan. Este framework extiende este principio a una arquitectura multi-agente que funciona como un sistema recursivo unificado. Cada agente actúa como una capa en un modelo recursivo, pasando representaciones latentes continuas al siguiente agente en la secuencia, creando un flujo circular de información. Solo el último agente genera una salida textual en la ronda final, mientras que los demás se comunican internamente sin producir tokens de texto.

El componente arquitectónico clave es el RecursiveLink, un módulo ligero de dos capas diseñado para transmitir y refinar los estados latentes del modelo. Existen dos variaciones: el RecursiveLink interno opera dentro de un agente durante su fase de razonamiento, permitiéndole generar un flujo continuo de pensamientos latentes sin texto. El RecursiveLink externo sirve como puente entre agentes, adaptando las dimensiones de embedding entre diferentes arquitecturas de modelos. Durante el entrenamiento, solo se actualizan los parámetros de RecursiveLink, manteniendo congelados los pesos de los modelos originales, similar a la adaptación de bajo rango.

Las pruebas realizadas en nueve benchmarks que abarcan matemáticas, ciencia, medicina, generación de código y búsqueda de respuestas demostraron resultados impresionantes. RecursiveMAS logró una mejora promedio de precisión del 8.3% comparado con las alternativas más robustas, destacándose especialmente en tareas de razonamiento complejo. El sistema alcanzó una aceleración de inferencia de 1.2x a 2.4x y redujo el uso de tokens hasta en un 75.6% en la tercera ronda de recursión. Además, el entrenamiento resultó notablemente económico, actualizando solo 13 millones de parámetros (0.31% de los parámetros entrenables), reduciendo costos de entrenamiento en más de la mitad comparado con el ajuste fino completo. Los investigadores han liberado el código y los pesos del modelo bajo licencia Apache 2.0, facilitando su adopción empresarial para flujos de trabajo de agentes complejos sin la sobrecarga computacional que actualmente limita las implementaciones.

Fuente Original: https://venturebeat.com/orchestration/how-recursivemas-speeds-up-multi-agent-inference-by-2-4x-and-reduces-token-usage-by-75

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Turla Transforms Kazuar Backdoor Into P2P Botnet

The sophisticated threat actor known as Turla has significantly evolved its Kazuar backdoor, transforming it from a traditional command-and-control tool into a modular peer-to-peer botnet designed for persistent and resilient access to compromised networks. This development represents a concerning advancement in the group's cyber espionage capabilities, making detection and remediation considerably more challenging for security teams.

Turla Transforms Kazuar Backdoor Into P2P Botnet

Kazuar, which has been in Turla's arsenal for several years, has undergone substantial architectural changes. The backdoor now operates using a peer-to-peer communication model rather than relying on centralised command-and-control servers. This decentralised approach makes it significantly harder for defenders to disrupt operations by taking down infrastructure, as each infected system can communicate directly with others in the network, creating a resilient mesh of compromised endpoints.

The modular design of the updated Kazuar allows attackers to deploy specific functionality as needed, reducing the malware's footprint and making detection more difficult. Operators can now selectively load components for data exfiltration, lateral movement, or additional payload delivery based on the specific objectives of their campaign. This flexibility enables Turla to maintain long-term access whilst minimising the risk of discovery through unnecessary or noisy operations.

Security researchers warn that this evolution demonstrates Turla's continued investment in developing advanced persistent threat capabilities. Organisations should enhance their monitoring for unusual peer-to-peer network traffic patterns, implement robust endpoint detection and response solutions, and maintain current threat intelligence on Turla's tactics, techniques, and procedures to defend against this sophisticated threat.

Fuente Original: https://thehackernews.com/2026/05/turla-turns-kazuar-backdoor-into.html

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

viernes, 15 de mayo de 2026

Exchange Server Vulnerable Ataque por Email Explota CVE

¡Atención administradores de sistemas! Una nueva y preocupante vulnerabilidad ha sido descubierta afectando a los servidores Microsoft Exchange locales. La vulnerabilidad, identificada como CVE-2026-42897, ha sido explotada activamente, lo que representa un riesgo significativo para las organizaciones que aún dependen de estas implementaciones on-premise.

Exchange Server Vulnerable: Ataque por Email Explota CVE

La clave de este ataque reside en un simple correo electrónico malicioso. Los atacantes están utilizando correos electrónicos especialmente diseñados para explotar esta falla de seguridad. Una vez que un usuario a bre o procesa este correo, el atacante puede obtener un acceso no autorizado a los sistemas afectados. Esto abre la puerta a una serie de acciones maliciosas, incluyendo el robo de información confidencial, la interrupción de servicios e incluso el despliegue de malware adicional.

La gravedad de CVE-2026-42897 radica en su relativa facilidad de explotación y el impacto potencial que puede tener en la infraestructura crítica de las empresas. La naturaleza del ataque, que se propaga a través del correo electrónico, lo hace particularmente sigiloso y difícil de detectar sin las medidas de seguridad adecuadas. Las organizaciones que utilizan Exchange Server on-premise deben tomar medidas inmediatas para mitigar este riesgo. Se recomienda encarecidamente aplicar todos los parches de seguridad disponibles y revisar activamente los registros del servidor para detectar cualquier actividad sospechosa. La adopción de soluciones de seguridad perimetral robustas y la concienciaci� �n del usuario sobre las amenazas de phishing son también pasos cruciales en la defensa contra este tipo de ataques. Mantener el software actualizado y estar al tanto de las últimas advertencias de seguridad es fundamental para proteger los activos digitales de su organización.

Fuente Original: https://thehackernews.com/2026/05/on-prem-microsoft-exchange-server-cve.html

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Multiverse Bags 70M for Europe AI Adoption Push

Euan Blair's AI and tech upskilling platform, Multiverse, has secured a significant funding round of $70 million, achieving a valuation of $2.1 billion. This latest investment, led by Schroders Capital, signifies a substantial step up from its previous Series D round in 2022. The company has experienced impressive growth, with revenue increasing by 50% year-on-year for the third consecutive year, and has even achieved its first cash-positive quarter. This funding is earmarked to fuel Multiverse's ambitious expansion across Europe, solidifying its position as a key player in the AI adoption landscape.

Multiverse Bags $70M for Europe AI Adoption Push

Multiverse is strategically positioning itself not just as a product provider, but as Europe's go-to AI adoption platform. Their core mission is to bridge the gap between businesses acquiring AI tools and the workforce that needs to effectively utilise them. Chief Executive Euan Blair highlights that the critical missing piece in the AI ecosystem isn't another model or agent, but rather a skilled workforce capable of operating these advanced technologies. This philosophy is underscored by their recent acquisition of StackFuel, a German AI training provider, demonstrating their commitment to building this essential human capital.

The company's value proposition resonates strongly with current market trends, addressing a prevalent concern among businesses: while AI investment is surging, the returns are often inconsistent. Multiverse's data indicates that organisations investing heavily in workforce upskilling see significantly better AI adoption outcomes. Customer testimonials and case studies, including clients like the AA and Babcock, point to substantial verified ROI delivered by Multiverse's solutions. With AI coaching platform Atlas seeing a tripling of daily active users and strategic partnerships with tech giants like Microsoft and Palantir, Multiverse is well-equipped to capitalise on the growing demand for AI-driven workforce transformation.

Fuente Original: https://thenextweb.com/news/ultiverse-70-million-schroders-ai-adoption-europe

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Cerebras Chips de IA de Elite Alcanzan los 100B en Nasdaq

Cerebras Systems, el innovador fabricante de chips de IA, ha irrumpido en el mercado de valores con un debut espectacular en el Nasdaq. La compañía, conocida por su procesador de escala de oblea (Wafer-Scale Engine), casi duplicó su valor de salida a bolsa (IPO) en su primer día, alcanzando una capitalización de mercado de 100 mil millones de dólares. Este hito no solo la posiciona como una de las empresas de semiconductores más valiosas del mundo, sino que también valida una década de inversión en la idea de que la inteligencia artificial requiere una arquitectura de chip fundamentalmente diferente.

Cerebras: ¡Chips de IA de Élite Alcanzan los $100B en Nasdaq!

El éxito de Cerebras se basa en su revolucionario Wafer-Scale Engine (WSE), un procesador que abarca una oblea de silicio completa. Su última generación, el WSE-3, cuenta con una cantidad asombrosa de transistores y núcleos de cómputo, ofreciendo una memoria y un ancho de banda significativamente superiores a las soluciones convencionales de NVIDIA. Esta ventaja es crucial para la inferencia de IA, el proceso de ejecución de modelos entrenados para generar respuestas. La arquitectura de Cerebras reduce drásticamente la latencia al mantener los elementos de cómputo más cerca, lo que se traduce en respuestas hasta 15 veces más rápidas que las soluciones basadas en GPU para ciertos modelos.

La estrategia de la empresa ha pivotado de la venta directa de hardware a un modelo centrado en servicios de inferencia basados en la nube. A pesar de haber enfrentado desafíos en el pasado, como una fuerte dependencia de un solo cliente en los Emiratos Árabes Unidos, Cerebras ha forjado alianzas estratégicas clave con gigantes como OpenAI y Amazon Web Services. El acuerdo con OpenAI, valorado en más de 20 mil millones de dólares, implica la co-creación de futuros modelos y hardware, mientras que la colaboración con AWS busca integrar los sistemas de Cerebras en su infraestructura global, democratizando el acceso a la inferencia rápida para millones de desarrolladores.

Si bien el crecimiento en ingresos ha sido exponencial, la compañía enfrenta la necesidad de escalar rápidamente su infraestructura física para satisfacer la creciente demanda. La transición a la nube implica costos iniciales significativos que presionarán los márgenes de ganancia a corto plazo. Además, la concentración de clientes, aunque reducida, sigue siendo un punto de atención, con entidades de los Emiratos Árabes Unidos aún representando una parte sustancial de sus ingresos. Sin embargo, la fuerte validación del mercado a través de su exitoso debut en el Nasdaq, junto con un plan tecnológico ambicioso, sugiere que Cerebras está bien posicionada para navegar la competencia en la guerra de los chips de IA y capitalizar la explosión de la inferencia de inteligencia artificial.

Fuente Original: https://venturebeat.com/technology/cerebras-stock-nearly-doubles-on-day-one-as-ai-chipmaker-hits-100-billion-what-it-means-for-ai-infrastructure

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Exploit Zero-Day Derrota Proteccion BitLocker Windows 11

Una vulnerabilidad crítica de día cero está circulando en línea y permite a cualquier persona con acceso físico a un sistema Windows 11 eludir completamente las protecciones predeterminadas de BitLocker en cuestión de segundos. Este exploit, denominado YellowKey, representa una grave amenaza para la seguridad de millones de dispositivos que dependen del cifrado de disco completo de Microsoft para proteger información sensible.

Exploit Zero-Day Derrota Protección BitLocker Windows 11

El exploit fue publicado esta semana por un investigador conocido como Nightmare-Eclipse y funciona contra las configuraciones predeterminadas de Windows 11 con BitLocker activado. BitLocker es el sistema de cifrado de volumen completo que Microsoft proporciona para mantener el contenido del disco inaccesible sin la clave de descifrado, la cual normalmente se almacena en un módulo de plataforma confiable o TPM. Esta protección es obligatoria para muchas organizaciones, especialmente aquellas que trabajan con gobiernos.

El núcleo del exploit YellowKey es una carpeta FsTx personalizada que aprovecha funcionalidades del sistema de archivos transaccional NTFS de Windows. El proceso de ataque es sorprendentemente simple: el atacante solo necesita copiar la carpeta FsTx especial a una unidad USB formateada en NTFS o FAT, conectarla al dispositivo protegido, iniciar el sistema manteniendo presionada la tecla Control y acceder a la recuperación de Windows. Una vez allí, aparece un símbolo del sistema con acceso completo al contenido del disco cifrado, sin necesidad de ingresar la clave de recuperación de BitLocker.

Varios investigadores de seguridad reconocidos, incluyendo Kevin Beaumont y Will Dormann, han confirmado que el exploit funciona exactamente como se describe. Lo más preocupante es que la carpeta FsTx en un volumen USB puede modificar el contenido de otro volumen durante su reproducción transaccional, eliminando archivos críticos del sistema de recuperación y otorgando acceso directo sin las protecciones esperadas. Dormann señala que esto podría representar una vulnerabilidad aún más profunda que el simple bypass de BitLocker.

Es importante destacar que esta vulnerabilidad solo afecta a la configuración predeterminada de BitLocker en Windows 11, que almacena las claves de descifrado únicamente en el TPM. Los expertos en seguridad han advertido durante mucho tiempo que esta configuración solo con TPM es insuficiente, recomendando en su lugar habilitar un PIN adicional antes de que la clave pueda recuperarse del TPM. Microsoft ha declarado que está investigando el problema, pero hasta el momento no ha proporcionado una solución o parche. Los usuarios deben ser conscientes de que actualmente BitLocker en Windows 11 no está proporcionando la protección esperada, y los dispositivos perdidos o robados pueden ser accesibles incluso con el cifrado activado.

Fuente Original: https://arstechnica.com/security/2026/05/zero-day-exploit-completely-defeats-default-windows-11-bitlocker-protections/

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Debug AI Agents Locally with Raindrops Workshop

Raindrop AI has launched Workshop, an open-source debugging tool that's set to transform how developers work with AI agents. Released under the MIT License, this innovative platform allows developers to debug and evaluate AI agents entirely on their local machines, addressing longstanding privacy concerns about sending sensitive trace data to external servers.

Debug AI Agents Locally with Raindrop's Workshop

Workshop operates as a local daemon with an intuitive user interface, streaming every token, tool call, and decision made by an AI agent directly to a local dashboard, typically accessible at localhost:5899. All this information is stored in a single, lightweight SQL database file that consumes minimal memory. This real-time telemetry approach eliminates the delays associated with traditional polling methods, giving developers immediate visibility into their agents' behaviour, including errors and decision-making processes.

One of Workshop's most impressive features is its "self-healing eval loop." This functionality enables coding agents like Claude Code to autonomously read traces, write evaluations against the codebase, and fix broken code without human intervention. For instance, if a veterinary assistant agent fails to ask necessary follow-up questions, Workshop captures the complete trajectory. Claude Code can then analyse this trace, write a specific evaluation, identify the logic error in the prompt or code, and re-run the agent until all assertions pass successfully.

The tool demonstrates remarkable versatility in its compatibility, supporting multiple programming languages including TypeScript, Python, Rust, and Go. It integrates seamlessly with popular SDKs and frameworks such as Vercel AI SDK, OpenAI, Anthropic, LangChain, LlamaIndex, and CrewAI. Workshop also works with various coding agents, including Claude Code, Cursor, Devin, and OpenCode. Installation is straightforward across macOS, Linux, and Windows platforms, requiring just a single shell command that handles binary placement and PATH configuration automatically. For developers who prefer building from source, the repository is available on GitHub and utilises the Bun runtime.

By providing a "sane" approach to debugging agents locally whilst maintaining data sovereignty, Workshop represents a significant step forward in making AI agent development more accessible and secure for the developer community.

Fuente Original: https://venturebeat.com/technology/developers-can-now-debug-and-evaluate-ai-agents-locally-with-raindrops-open-source-tool-workshop

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

jueves, 14 de mayo de 2026

Brecha de PraisonAI Ataque Inmediato tras Revelacion

¡Atención, entusiastas de la ciberseguridad! Un fallo crítico en PraisonAI, identificado como CVE-2026-44338, ha sido objeto de ataques tan solo horas después de su divulgación. Esto subraya la velocidad vertiginosa con la que las vulnerabilidades son explotadas en el panorama actual de amenazas.

Brecha de PraisonAI: Ataque Inmediato tras Revelación

La vulnerabilidad en cuestión permite una elusión de autenticación, lo que significa que atacantes malintencionados podrían haber accedido a sistemas y datos sensibles sin pasar por los controles de seguridad habituales. La rapidez con la que se produjeron estos ataques después de l a noticia es alarmante y pone de manifiesto la importancia de una respuesta ágil y proactiva ante la revelación de vulnerabilidades.

Este incidente sirve como un recordatorio contundente para las organizaciones de que el tiempo es un factor crucial en la gestión de riesgos de ciberseguridad. No basta con conocer las vulnerabilidades; es imperativo parchearlas y mitigar sus efectos de inmediato. Las empresas deben priorizar la implementación de estrategias de seguridad robustas y la monitorización constante de sus sistemas para detectar y responder a amenazas emergentes de manera eficiente. La rápida explotación de CVE-2026-44338 es un ejemplo claro de que las defensas deben estar siempre un paso por delante de los atacantes.

Fuente Original: https://thehackernews.com/2026/05/praisonai-cve-2026-44338-auth-bypass.html

Artículos relacionados de La Rebelión:

Artículo generado mediante LaRebelionBOT

AI Finds 16 Windows Bugs Microsoft Patched

In an impressive display of artificial intelligence in cybersecurity, Microsoft's proprietary AI system, codenamed MDASH, has successfully identified a significant number of vulnerabilities within the Windows operating system. This breakthrough comes just in time for Microsoft's routine Patch Tuesday, where they address newly discovered security flaws. The MDASH system's ability to detect these 16 separate Windows flaws before they could be exploited highlights the growing importance of AI in bolstering software security and proactively identifying potential threats.

AI Finds 16 Windows Bugs Microsoft Patched

The detected vulnerabiliti es, which have now all been addressed by Microsoft, covered a range of severity levels. While the specific details of each flaw are not publicly disclosed to avoid providing information to malicious actors, the sheer volume identified by the AI underscores its effectiveness. This proactive approach by Microsoft, leveraging advanced AI tools like MDASH, demonstrates a commitment to enhancing the security posture of its widely used operating system. It signifies a shift towards more intelligent and automated methods of security auditing, aiming to stay ahead of increasingly sophisticated cyber threats.

This development is particularly noteworthy as it suggests a potential future where AI plays an even more crucial role in the entire software development lifecycle, from initial design to ongoing maintenance and patching. By autonomously identifying and flagging security weaknesses, AI systems like MDASH can significantly reduce the time and resources required for manual security testing, allowing development teams to focus on innovation and delivering more secure products to users worldwide. The successful deployment of MDASH in finding these critical Windows flaws marks a significant milestone in the application of AI for cybersecurity defence.

Fuente Original: https://thehackernews.com/2026/05/microsofts-mdash-ai-system-finds-16.html

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Anthropic Supera a OpenAI Liderazgo IA o Amenazas Pendientes

¡La carrera de la inteligencia artificial empresarial tiene un nuevo líder! Por primera vez, más empresas en Estados Unidos están invirtiendo en la tecnología de Anthropic, concretamente en su modelo Claude, que en la popular ChatGPT de OpenAI. Los datos de mayo de 2026 del Ramp AI Index revelan que la adopción de Anthropic alcanzó el 34.4% de las empresas, superando el 32.3% de OpenAI, cuya adopción ha disminuido. Este cambio de liderazgo culmina un año de crecimiento meteórico para Anthropic, que ha cuadruplicado su presencia empresarial, mientras que OpenAI apenas ha crecido en este segmento.

Anthropic Supera a OpenAI: ¿Liderazgo IA o Amenazas Pendientes?

El ascenso de Anthropic es notable. Hace apenas un año, OpenAI dominaba el mercado con un 32% de adopción empresarial, mientras que Anthropic apenas alcanzaba el 8%. Inicialmente, ChatGPT fue la puerta de entrada a la IA para muchos usuarios, impulsando su adopción corporativa. Anthropic, en cambio, se ganó primero a los adoptantes tempranos y a los expertos técnicos, para luego expandirse al mercado general. Su producto estrella, Claude Code, una herramienta de codificación IA, ha sido fundamental, llegando a generar el 4% de todos los commits públicos en GitHub mundialmente. A pesar de este éxito, el informe de Ramp advierte que la posición de Anthropic podría ser frágil.

Tres grandes amenazas acechan el liderazgo de Anthropic: los crecientes costos operativos, las limitaciones en la capacidad de cómputo y el modelo de precios basado en tokens que, si bien ha impulsado sus ingresos, también podría ser su perdición. La alta demanda de Claude Code ha llevado a un gasto disparado en algunas empresas, como Uber, que agotó su presupuesto de IA para 2026 en solo cuatro meses debido a los costos de uso del modelo. Además, la saturación ha provocado caídas de servicio y una disminución en la satisfacción de los usuarios. Si bien Anthropic está buscando expandir su capacidad de cómputo, el aumento de costos por prompts con imágenes y la competencia de modelos de código abierto y de OpenAI con precios más competitivos, como Codex, podrían erosionar rápidamente su ventaja. Incluso la posible adopción de IA como una elección cultural, más allá de la lógica empresarial, plantea interrogantes sobre la sostenibilidad de este liderazgo en un mercado tan volátil.

Fuente Original: https://venturebeat.com/technology/anthropic-finally-beat-openai-in-business-ai-adoption-but-3-big-threats-could-erase-its-lead

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Shai-Hulud Malware Sofisticado Infiltra npm y PyPI

La comunidad de desarrolladores enfrenta una de las amenazas más peligrosas de los últimos años. Una campaña masiva de ataque a la cadena de suministro, bautizada como Shai-Hulud, ha logrado comprometer cientos de paquetes en los repositorios npm y PyPI, afectando a proyectos reconocidos mundialmente como TanStack, Mistral AI, Bitwarden CLI y SAP. Lo que hace a este ataque particularmente alarmante es su capacidad para evadir los mecanismos de seguridad tradicionales mediante el uso de tokens OIDC legítimos y firmas digitales válidas, otorgando a los paquetes maliciosos una apariencia de total autenticidad.

Shai-Hulud: Malware Sofisticado Infiltra npm y PyPI

El ataque demuestra un conocimiento técnico excepcional de los sistemas de CI/CD (Integración y Despliegue Continuo). Los atacantes explotaron tres vulnerabilidades críticas en GitHub Actions: configuraciones inseguras de workflows pull_request_target que permitieron ejecutar código malicioso en repositorios principales, técnicas de envenenamiento de caché para inyectar dependencias comprometidas, y el robo de tokens OIDC directamente desde la memoria de los runners. Esta última táctica permitió publicar versiones maliciosas con certificación SLSA, haciendo que los sistemas automatizados de seguridad consideraran los paquetes como completamente legítimos.

El objetivo principal de Shai-Hulud es el robo masivo de credenciales sensibles. El malware busca exhaustivamente en los entornos infectados para extraer tokens de GitHub Actions, credenciales de npm, secretos de AWS, configuraciones de Kubernetes, y datos de herramientas de IA como Claude Code. Para evadir detección, utiliza la red descentralizada de Session Messenger (Oxen/Lokinet), disfrazando el tráfico de exfiltración como comunicación cifrada legítima. Sorprendentemente, el malware incluye código de sabotaje selectivo que en entornos vinculados a Israel o Irán puede ejecutar comandos destructivos de borrado completo del sistema.

Las cifras del impacto son alarmantes: más de 160 paquetes comprometidos en npm según Endor Labs, y hasta 416 artefactos maliciosos entre npm y PyPI según Socket. TanStack reporta 42 paquetes afectados con 84 versiones maliciosas. Los expertos recomiendan acciones inmediatas: auditar archivos de bloqueo de dependencias, rotar todas las credenciales potencialmente expuestas, limpiar configuraciones persistentes en IDEs, utilizar instalaciones estrictas basadas en lockfiles, y bloquear indicadores de compromiso publicados por fuentes verificadas de seguridad.

Fuente Original: https://unaaldia.hispasec.com/2026/05/shai-hulud-ataque-a-la-cadena-de-suministro-compromete-cientos-de-paquetes-en-npm-y-pypi.html?utm_source=rss&utm_medium=rss&utm_campaign=shai-hulud-ataque-a-la-cadena-de-suministro-compromete-cientos-de-paquetes-en-npm-y-pypi

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT