martes, 7 de abril de 2026

IA De Pilotos a Resultados Reales Masivos

En el mundo de la inteligencia artificial empresarial, el fracaso rara vez se debe a malas ideas, sino más bien a la incapacidad de llevar los pilotos a producción. MassMutual y Mass General Brigham comparten sus estrategias para superar este obstáculo, transformando la proliferación de proyectos de IA en resultados tangibles.

IA: De Pilotos a Resultados Reales Masivos

MassMutual ha logrado mejoras significativas, como un aumento del 30% en la productividad de los desarrolladores, una reducción drástica en los tiempos de resolución de incidencias de soporte técnico (de 11 minutos a 1) y una disminución en las llamadas de atención al cliente (de 15 minutos a solo uno o dos). Su enfoque se basa en el método científico: comenzar siempre con la pregunta "¿por qué nos importa este problema?" y definir claramente cómo se medirá el éxito. Establecen métricas precisas y ciclos de retroalimentación robustos, asegurándose de que las soluciones cumplan con los requisitos del negocio antes de implementarlas en producción. La agilidad es clave, manteniendo un entorno tecnológico heterogéneo y construyendo capas de servicio comunes que permiten la fácil sustitución de modelos de IA sin necesidad de empezar de cero, anticipándose a la evolución tecnológica.

Por su parte, Mass General Brigham (MGB) adoptó inicialmente un enfoque de "mil flores floreciendo", pero ante la proliferación descontrolada de pilotos de IA y aprendizaje automático, decidieron implementar una estrategia más controlada. Tras revisar sus necesidades y alinear sus planes con los de sus proveedores de plataformas clave (Epic, Workday, ServiceNow, Microsoft), se dieron cuenta de que muchas herramientas internas ya estaban siendo desarrolladas o planificadas por estos vendors, impulsando la decisión de aprovechar las soluciones existentes en lugar de duplicar esfuerzos. MGB ahora distribuye herramientas como Microsoft Copilot de forma controlada, utiliza una "pequeña zona de aterrizaje" para probar productos más sofisticados y fomenta la adopción mediante "campeones de IA" incrustados en los grupos empresariales. La observabilidad, el monitoreo de modelos y la seguridad son pilares fundamentales, con principios y políticas claras para el uso de IA, incluyend o un "botón rojo" de emergencia. En entornos clínicos, la IA actúa como un apoyo, pero la decisión final siempre recae en un profesional humano, garantizando la seguridad y la ética, especialmente con la información de salud protegida (PHI).

Fuente Original: https://venturebeat.com/orchestration/how-massmutual-and-mass-general-brigham-turned-ai-pilot-sprawl-into

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Iran Targets OpenAIs 30bn AI Hub Stargate Under Threat

Tensions are escalating dramatically in the Middle East, with Iran's Islamic Revolutionary Guard Corps (IRGC) now directly threatening the colossal $30 billion Stargate AI campus in Abu Dhabi. This marks the first time the IRGC has publicly singled out a specific facility for destruction. The threat is a direct response to potential US attacks on Iranian civilian infrastructure, specifically power and desalination plants, as warned by President Trump.

Iran Targets OpenAI's $30bn AI Hub: Stargate Under Threat

The IRGC released a video showcasing the Stargate facility, emphasizing their awareness and intent. This aggressive stance follows Iran's earlier designation of 18 US tech companies as potential military targets, but Stargate is the first concrete installation to be named. The timing of this threat is particularly critical, as the Stargate campus, a joint venture involving OpenAI, SoftBank, Oracle, and Abu Dhabi's MGX, is poised to become a major global hub for artificial intelligence compute power outside the United States. Its first phase is set to go live by the end of 2026.

The situation is compounded by recent actual attacks on data centres in the region, including drone strikes on Amazon Web Services facilities in the UAE. These incidents highlight the growing vulnerability of critical digital infrastructure during geopolitical conflicts. The potential destruction or disruption of Stargate would have profound implications for the future of AI development, forcing a reassessment of where vast compute resources are located and raising significant concerns for insurers and investors in the booming AI infrastructure market. The fate of this ambitious $30 billion project now hangs in the balance, caught between kinetic warfare and the strategic control of future AI capabilities.

Fuente Original: https://thenextweb.com/news/iran-threatens-stargate-openai-abu-dhabi

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

IA Impuestos a Robots y Renta Basica la Propuesta de OpenAI

OpenAI, la reconocida empresa de inteligencia artificial, ha lanzado una propuesta audaz y multifacética para abordar el impacto social que la IA avanzada podría generar en el futuro. Ante la posibilidad de que empleos e industrias enteras se vean transformados o incluso desaparezcan, la compañía sugiere una serie de cambios legislativos significativos. Entre las ideas más destacadas se encuentra la implementación de impuestos dirigidos a la automatización, la creación de un fondo de riqueza pública y la experimentación con la semana laboral de cuatro días.

IA: Impuestos a Robots y Renta Básica, la Propuesta de OpenAI

El documento de políticas de OpenAI detalla cómo un fondo de riqueza pública podría funcionar: los gobiernos y las empresas de IA colaborarían para invertir en activos a largo plazo, con las ganancias de estas inversiones distribuidas directamente entre los ciudadanos. Además, se plantea la incentivación a los empleadores para que exploren la semana laboral de cuatro días sin reducción de salario, ofreciendo bonificaciones ligadas a los aumentos de productividad que las herramientas de IA puedan facilitar. Otro punto crucial es la modernización del sistema fiscal, desplazando la carga impositiva de los ingresos laborales hacia las ganancias corporativas y de capital, dada la potencial disminución del empleo humano.

Asimismo, OpenAI aboga por impuestos específicos para el trabajo automatizado y subraya la urgencia de expandir la red eléctrica estadounidense. La demanda de energía para los centros de datos y el entrenamiento de modelos de IA cada vez más potentes ya está ejerciendo una presión considerable sobre la infraestructura existente. Estas propuestas buscan sentar las bases para una transición más equitativa y gestionable ante la disrupción que promete la inteligencia artificial.

Fuente Original: https://yro.slashdot.org/story/26/04/06/2154206/openai-calls-for-robot-taxes-public-wealth-fund-and-4-day-workweek-to-tackle-ai-disruption?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Flowise AI Bajo Ataque Vulnerabilidad Critica CVSS 100

Una alarmante vulnerabilidad de seguridad está siendo explotada activamente en Flowise AI Agent Builder, una popular plataforma de código abierto para construir agentes de inteligencia artificial. La falla, calificada con la puntuación máxima de 10.0 en el sistema CVSS (Common Vulnerability Scoring System), permite la ejecución remota de código (RCE) y pone en riesgo a más de 12,000 instancias expuestas públicamente en internet.

Flowise AI Bajo Ataque: Vulnerabilidad Crítica CVSS 10.0

Esta vulnerabilidad crítica representa uno de los mayores riesgos de seguridad que puede existir en cualquier sistema informático. Con una calificación perfecta de 10.0, los atacantes pueden explotar la falla para ejecutar código malicioso de forma remota en los servidores afectados, obteniendo control total sobre los sistemas comprometidos. Esto significa que los ciberdelincuentes pueden robar información sensible, instalar malware, comprometer datos de usuarios o utilizar los servidores infectados como punto de partida para ataques adicionales.

Lo más preocupante es que esta vulnerabilidad ya está siendo explotada activamente en la naturaleza, lo que significa que los atacantes no están esperando y ya están aprovechando esta debilidad para comprometer sistemas vulnerables. Los expertos en seguridad han detectado más de 12,000 instancias de Flowise AI expuestas en internet que podrían ser objetivos potenciales de estos ataques.

Flowise AI Agent Builder es una herramienta ampliamente utilizada por desarrolladores y empresas para crear aplicaciones basadas en modelos de lenguaje y agentes de IA. Su popularidad hace que esta vulnerabilidad sea particularmente peligrosa, ya que afecta a una base de usuarios considerable que incluye desde pequeños proyectos hasta implementaciones empresariales.

Se recomienda encarecidamente a todos los usuarios de Flowise AI que actualicen inmediatamente sus instancias a la versión parcheada, revisen sus sistemas en busca de signos de compromiso y implementen medidas de seguridad adicionales como restricciones de acceso a nivel de red. La urgencia de esta situación no puede subestimarse, dado que cada minuto de retraso aumenta el riesgo de explotación exitosa.

Fuente Original: https://news.google.com/rss/articles/CBMiggFBVV95cUxOMmV2elZDZ1d0eWFXU2prMHQweUZ4b2tPbEk1cWtFY0ktWHgxcXZ0XzlGdUc4em50UVBDMmtyaC1QMF80UjNjTVpjSVpLckFvUG9xUDloVkFOLWNPcDN5OTA2YkZRVmF1YzlXVG5mdzc5dTR2LUVxRkdKNy1WeWhaV3p3?oc=5

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Anthropic Secures Massive Google-Broadcom Computing Partnership

Anthropic has announced its largest infrastructure commitment to date, securing approximately 3.5 gigawatts of next-generation Google tensor processing unit (TPU) compute capacity through Broadcom beginning in 2027. This substantial agreement comes alongside the revelation that the AI company's revenue run rate has soared past $30 billion, representing more than a threefold increase from approximately $9 billion at the end of 2025. The deal builds upon the 1 gigawatt of capacity already being supplied to Anthropic in 2026, with the majority of the new infrastructure to be located in the United States.

Anthropic Secures Massive Google-Broadcom Computing Partnership

The announcement represents a three-way partnership that positions Broadcom as a critical intermediary between Google's custom silicon and Anthropic's AI workloads. Broadcom has simultaneously signed a separate long-term agreement with Google to design and supply future generations of custom TPU chips, alongside a supply assurance agreement extending through 2031. This strategic positioning has made Broadcom increasingly indispensable in the AI infrastructure landscape, with analysts estimating the company could record $21 billion in AI revenue from Anthropic in 2026 alone, potentially rising to $42 billion in 2027. Broadcom shares rose approximately 3% in extended trading following the announcement.

Anthropic's extraordinary revenue growth is driving these massive infrastructure commitments. The company now serves over 1,000 business customers each spending more than $1 million annually, doubling from 500 customers just two months earlier. This acceleration followed Anthropic's Series G funding round in February 2026, which raised $30 billion at a post-money valuation of $380 billion. What distinguishes Anthropic's approach is its multi-vendor chip strategy, with Claude trained and served across Amazon's Trainium chips, Google's TPUs, and Nvidia GPUs, making it the only frontier model available across AWS, Google Cloud, and Microsoft Azure.

The deal extends Anthropic's November 2025 commitment to invest $50 billion in American AI computing infrastructure, aligning with the strategic priorities outlined in the Trump administration's AI Action Plan. This domestic emphasis reflects both strategic positioning and regulatory considerations, as a substantial portion of next-generation AI training capacity becomes anchored in American geography. The announcement represents another data point in an escalating compute arms race, where AI labs' infrastructure requirements now exceed what can be financed from revenue alone, requiring financial engineering at a scale once reserved for infrastructure utilities.

Fuente Original: https://thenextweb.com/news/anthropic-google-broadcom-compute-deal

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

lunes, 6 de abril de 2026

Fuga de Codigo de Claude Modo Sigiloso y Deteccion de Frustracion

Una reciente filtración del código fuente de Claude Code ha desvelado detalles sorprendentes sobre su funcionamiento. Entre los más de 500.000 líneas de código, se ha descubierto la existencia de un 'modo encubierto' que permitiría a Claude realizar contribuciones 'sigilosas' a bases de código públicas. Además, se ha identificado un agente de 'siempre activo' y un peculiar 'compañero' al estilo Tamagotchi para Claude Code.

Fuga de Código de Claude: Modo Sigiloso y Detección de Frustración

Sin embargo, uno de los hallazgos más peculiares es que Claude Code parece estar monitorizando activamente los mensajes de chat de los usuarios. Se ha encontrado un archivo denominado "userPromptKeywords.ts" que utiliza una herramienta de reconocimiento de patrones simple, conocida como regex, para escanear cada mensaje enviado a Cla ude. El objetivo de esta herramienta es identificar palabras y frases específicas, incluyendo maldiciones y expresiones de enfado, que podrían indicar frustración por parte del usuario. Algunas de las palabras y frases detectadas incluyen "wtf", "wth", "omfg", "dumbass", "horrible", "awful", "piece of ---", "f--- you", y "this sucks", entre otras expresiones coloridas.

Aunque la filtración ha confirmado la presencia de esta funcionalidad de "palabras de frustración" en Claude Code, el artículo no proporciona información sobre el propósito detrás de esta monitorización ni sobre qué se hace con los datos recopilados. La existencia de estas características plantea interrogantes sobre la transparencia y las intenciones detrás del desarrollo y la implementación de herramientas de inteligencia artificial generativa como Claude.

Fuente Original: https://developers.slashdot.org/story/26/04/05/2339243/claude-code-leak-reveals-a-stealth-mode-for-genai-code-contributions---and-a-frustration-words-regex?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Slackbots AI Overhaul 30 New Powers Microsoft Strategy

Salesforce has unveiled a significant transformation for Slackbot, introducing over 30 new AI-powered capabilities. This marks the most extensive update since Salesforce acquired Slack for $27.7 billion in 2021. The company is repositioning Slackbot from a simple conversational assistant to an "agentic operating system," aiming to serve as a central hub for workers to interact with AI agents, enterprise applications, and each other.

Slackbot's AI Overhaul: 30 New Powers, Microsoft Strategy

The enhanced Slackbot can now perform a variety of sophisticated tasks. A key feature is the introduction of reusable AI skills, allowing users to define and save specific workflows like summarizing campaign briefs or generating event budgets. Slackbot can then automatically recognise and execute these tasks, gat hering relevant information from connected sources without manual configuration. Additionally, "meeting intelligence" enables Slackbot to listen to calls on platforms like Zoom and Google Meet, transcribing them, identifying decisions, assigning action items, and providing structured summaries post-call. A new desktop agent monitors user activity, suggesting actions and drafting follow-ups based on their deals, conversations, calendar, and habits, though this raises significant privacy considerations.

Slack is also launching a native, lightweight CRM directly within its chat interface. Slackbot can automatically identify and update deal information and new contacts mentioned in channels. For broader integration, Slackbot now acts as a Model Context Protocol (MCP) client, enabling it to connect and coordinate with a vast array of external services, including Google Workspace, Microsoft 365, and more than 6,000 other applications within the Salesforce ecosystem. The entire syste m is powered by Anthropic’s Claude, chosen partly due to its FedRAMP Moderate certification, a crucial requirement for regulated industries. This strategic move by Salesforce appears to be a direct competitive response to Microsoft's integrated AI approach across its 365 suite, positioning Slack as a communication-first alternative with extensive enterprise integration.

Fuente Original: https://thenextweb.com/news/slack-slackbot-30-ai-features-agentic

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Agentes IA Llego el Caos y la Nueva Realidad

La era de la inteligencia artificial autónoma ya está aquí, trayendo consigo tanto promesas como desafíos. Desde las interacciones iniciales con chatbots hasta la aparición de agentes IA potentes como Claude y OpenClaw, estamos presenciando una transformación significativa. Estos agentes, diseñados para realizar tareas complejas de forma independiente, plantean preguntas cruciales sobre seguridad laboral y el futuro de la automatización.

Agentes IA: ¡Llegó el Caos y la Nueva Realidad!

Herramientas como OpenClaw, que ofrece acceso profundo al sistema en máquinas locales, actúan como asistentes personales capaces de gestionar archivos y realizar tareas como la organización de correos electrónicos o la planificación de viajes. Por otro lado, agentes de codificación co mo Antigravity de Google agilizan el desarrollo de software, funcionando de manera similar a un desarrollador junior que se encarga de la codificación, pruebas e integración. Claude, con su versión Cowork, se especializa en tareas de nicho, como la revisión de contratos en el sector legal, equiparándose a un experto financiero que maneja información sensible.

La eficacia de estos agentes radica en la autonomía que se les otorga, lo que, a su vez, incrementa el riesgo de uso indebido y errores. La confianza en los proveedores es fundamental para asegurar que los agentes no causen daño, filtren datos o proporcionen ventajas desleales. En el caso de OpenClaw, al ser de código abierto, la falta de una autoridad centralizada añade complejidad. Un fallo en estos sistemas, como un error de codificación o un manejo inadecuado de datos financieros, podría tener consecuencias graves y generalizadas, provocando pánico.

Sin embargo, en medio de este potencial caos, emer ge una oportunidad para aprovechar estas tecnologías de manera responsable. La implementación de salvaguardias adecuadas, como registros detallados de las acciones de los agentes y la confirmación humana, es esencial. Además, la estandarización de la comunicación entre agentes a través de ontologías compartidas permitirá un mejor seguimiento y control. Adoptando principios de IA responsable como la rendición de cuentas, la transparencia, la seguridad y la privacidad, junto con marcos de confianza y de identidad distribuida, podemos construir un ecosistema de agentes IA que libere a los humanos de tareas mundanas, permitiéndoles centrarse en actividades de mayor valor y fomentando una fuerza laboral más eficiente y productiva.

Fuente Original: https://venturebeat.com/technology/claude-openclaw-and-the-new-reality-ai-agents-are-here -and-so-is-the-chaos

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Fortinet Parchea Vulnerabilidad Critica Explotada en FortiClient

Fortinet ha lanzado un parche de emergencia fuera de banda para corregir una vulnerabilidad crítica identificada como CVE-2026-35616 que afecta a FortiClient EMS (Endpoint Management Server). Lo más preocupante es que esta falla de seguridad ya está siendo explotada activamente por ciberdelincuentes en entornos reales, lo que convierte su corrección en una prioridad máxima para las organizaciones que utilizan esta herramienta de gestión de endpoints.

Fortinet Parchea Vulnerabilidad Crítica Explotada en FortiClient

La vulnerabilidad ha recibido una calificación CVSS de 9.1, lo que la sitúa en el rango crítico. El problema radica en un control de acceso inapropiado (CWE-284) en la API de FortiClient EMS, que permite a un atacante no autenticado eludir los mecanismos de seguridad y acceder a funciones del sistema que deberían estar protegidas. Este tipo de bypass pre-autenticación es especialmente peligroso porque no requiere credenciales válidas para ser explotado, permitiendo potencialmente la ejecución remota de comandos y código malicioso en el servidor.

Las versiones afectadas son FortiClient EMS 7.4.5 y 7.4.6. Fortinet ha puesto a disposición un hotfix temporal para mitigar el riesgo de forma inmediata, mientras que la corrección definitiva se integrará en la versión 7.4.7. El descubrimiento se atribuye a los investigadores de seguridad Simo Kohonen de Defused Cyber y Nguyen Duc Anh. Además, la empresa watchTowr reportó haber detectado intentos de explotación en sus honeypots desde el 31 de marzo de 2026, confirmando que los atacantes ya están automatizando ataques contra sistemas vulnerables.

La gravedad del asunto se incrementa porque FortiClient EMS es una herramienta centralizada de gestión que tiene control sobre múltiples equipos endpoint en una organización. Un compromiso exitoso podría dar al atacante acceso privilegiado a toda la infraestructura administrada. El artículo también menciona otra vulnerabilidad reciente, CVE-2026-21643, igualmente explotada en el mismo producto, aunque no está confirmado si ambas fallas se están encadenando en los ataques.

Las recomendaciones de seguridad son claras: aplicar el hotfix inmediatamente, especialmente si el servidor FortiClient EMS está expuesto a Internet. Además, se aconseja limitar el acceso a la API mediante controles de red estrictos, monitorear activamente los logs del sistema en busca de actividad anómala desde finales de marzo, y considerar cualquier instancia expuesta como una prioridad de respuesta a incidentes. El tiempo de reacción es crítico para prevenir compromisos que podrían afectar toda la red corporativa.

Fuente Original: https://unaaldia.hispasec.com/2026/04/fortinet-corrige-una-vulnerabilidad-critica-explotada-activamente-en-forticlient-ems-cve-2026-35616.html?utm_source=rss&utm_medium=rss&utm_campaign=fortinet-corrige-una-vulnerabilidad-critica-explotada-activamente-en-forticlient-ems-cve-2026-35616

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

AI Bug Discovery Forces Internet Bounty Pause

The Internet Bug Bounty programme has announced a temporary halt to new submissions, marking a significant shift in how vulnerability discoveries are managed in the open-source community. Operating since 2012 and backed by several leading software companies, the programme has distributed over $1.5 million to security researchers who have identified critical bugs in widely-used software systems.

AI Bug Discovery Forces Internet Bounty Pause

The decision to pause comes as artificial intelligence tools dramatically alter the landscape of vulnerability research. According to HackerOne, which manages the programme, AI-assisted research is rapidly expanding both the coverage and speed of vulnerability discovery across the entire ecosystem. Historically, 80% of the programme's payouts rewarded new flaw discoveries, whilst 20% supported remediation efforts. However, this balance has become unsustainable as AI makes it increasingly simple to find bugs, creating a substantial gap between discovery rates and the capacity to actually fix these vulnerabilities.

The impact is already being felt across major projects. Node.js, a popular server-side JavaScript platform known for its extensive ecosystem, will continue accepting and triaging bug reports through HackerOne but will no longer offer financial rewards without Internet Bug Bounty funding. This development follows Google's recent decision last month to halt AI-generated submissions to its Open Source Software Vulnerability Reward Programme, indicating a broader industry trend.

In their statement, the Internet Bug Bounty programme emphasised their responsibility to ensure the initiative effectively serves its dual purpose of both discovery and remediation. The pause allows organisers to reconsider the structure and incentives needed to better align with the realities of the open-source ecosystem. They remain committed to strengthening open-source security and are actively collaborating with project maintainers and researchers to develop solutions that ensure vulnerability discoveries translate into meaningful remediation outcomes rather than simply accumulating unfixed security issues.

Fuente Original: https://it.slashdot.org/story/26/04/06/0113254/internet-bug-bounty-pauses-payouts-citing-expanding-discovery-from-ai-assisted-research?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

domingo, 5 de abril de 2026

Claude Pago Extra para Herramientas de Terceros

Anthropic ha anunciado un cambio significativo y repentino: el uso de su inteligencia artificial Claude con herramientas de terceros, como OpenClaw, se encarecerá sustancialmente. A partir del 4 de abril, los límites de suscripción de Claude ya no cubrirán estas plataformas externas. Para seguir utilizándolas, los usuarios deberán recurrir a una opción de pago por uso, facturada de forma independiente a su suscripción actual.

Claude: Pago Extra para Herramientas de Terceros

Esta nueva modalidad de pago por uso se ofrece con un descuento inicial. Alternativamente, Anthropic sugiere su API, que cobra por cada token procesado, en contraste con los planes Pro y Max que ofrecían un uso ilimitado hasta ciertos límites. La justificación técnica de Anthropic se centra en que sus propias herramientas, como Claude Code y Claude C owork, están optimizadas para maximizar la reutilización de texto y reducir el consumo de recursos. Las plataformas de terceros, al no aprovechar estas eficiencias, generan costes adicionales que Anthropic ya no está dispuesta a asumir.

La medida ha generado controversia. El creador de OpenClaw y recién contratado por OpenAI, Peter Steinberger, ha expresado su escepticismo, sugiriendo que el cambio coincide con la incorporación de funcionalidades similares a las de OpenClaw en las herramientas internas de Anthropic, y ve esto como un bloqueo a las soluciones de código abierto. Usuarios y observadores han señalado que el uso de OpenClaw podría volverse prohibitivamente caro para pequeños desarrolladores, forzándoles a buscar modelos alternativos. Aakash Gupta, por ejemplo, comentó que esto marca el fin de la era del "buffet libre" para la automatización, indicando que Anthropic absorbía los altos costes de los usuarios que utilizaban estas herramientas de terceros.

Boris Cherny, creador de Claude Code, reconoció la incomodidad, pero defendió la decisión como un ejercicio de ingeniería y optimización de recursos para poder atender a una base de clientes más amplia. La decisión de Anthropic de limitar las suscripciones a sus propias herramientas les otorga un mayor control sobre la interfaz y la recopilación de datos, pero corre el riesgo de alienar a su comunidad de usuarios avanzados. En esencia, Anthropic está priorizando la gestión de márgenes y la sostenibilidad de sus servicios sobre el modelo de consumo ilimitado subvencionado para la automatización externa, marcando el fin de una era para los usuarios de alta demanda en el ecosistema de IA.

Fuente Original: https://slashdot.org/story/26/04/04/1919236/anthropic-announc es-claude-subscribers-must-now-pay-extra-to-use-openclaw?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

AI Secrets Leaked Meta Pauses Mercor Data Work

A significant supply chain attack has sent shockwaves through the AI industry, leading Meta to halt its work with AI data startup Mercor. This breach, executed through a compromised version of the open-source LiteLLM library, has potentially exposed the highly sensitive training methodologies behind leading large language models, not just personal data. This incident has sparked investigations at other major AI players like OpenAI and Anthropic, and has resulted in a class action lawsuit involving over 40,000 individuals.

AI Secrets Leaked: Meta Pauses Mercor Data Work

Mercor, a rapidly growing company founded by young entrepreneurs, specialises in creating bespoke training datasets for AI giants. Its business model, focused on generating fine-tuning and reinforcement learning data, has made it a critical, yet now vulnerable, link in the AI supply chain. The attack, orchestrated by a group identified as TeamPCP, exploited credentials obtained from a security scanner to inject malicious code into the LiteLLM library. This poisoned package was available for a short period, but its sophisticated payload was designed to harvest extensive sensitive information, including API keys, cloud credentials, and other secrets, exfiltrating them to a remote server.

The exposure of approximately four terabytes of data from Mercor includes source code, user databases, and personal verification documents. However, the most alarming aspect for companies like Meta is the potential leak of proprietary data selection criteria, labelling protocols, and training strategies. These methodologies represent significant intellectual property and competitive advantages that companies have invested billions in developing and keeping secret. The interconnected nature of the AI industry, with multiple competitors relying on the same data vendors, means that a single breach can have widespread implications, exposing the carefully guarded secrets of many. The fallout also includes a class action lawsuit alleging inadequate cybersecurity at Mercor and the claim of responsibility by the threat group Lapsus$, potentially in collaboration with TeamPCP, who began auctioning the stolen data on the dark web. This event serves as a stark warning about the systemic risk s inherent in the AI supply chain, highlighting the fragility of the infrastructure upon which the industry's rapid advancements have been built.

Fuente Original: https://thenextweb.com/news/meta-mercor-breach-ai-training-secrets-risk

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Hackers Atacan UE Herramienta Seguridad Compromete Datos

Un ataque a la cadena de suministro ha permitido a ciberdelincuentes acceder a datos sensibles de la Comisión Europea. El grupo TeamPCP logró comprometer Trivy, una popular herramienta de código abierto utilizada para escanear vulnerabilidades de seguridad. Al infectar Trivy con código malicioso, los atacantes consiguieron robar 92 GB de información comprimida de la infraestructura en la nube de la Comisión Europea, alojada en AWS.

Hackers Atacan UE: Herramienta Seguridad Compromete Datos

Posteriormente, la notoria banda ShinyHunters, conocida por otros ciberataques de alto perfil, publicó los datos robados. Estos incluían correos electrónicos y detalles personales de hasta 71 clientes de diversas instituciones de la Unión Europea. El incidente pone de manifiesto la fragilidad de la cadena de suministro del software de código abierto, en la que confían herramientas críticas para la seguridad gubernamental.

El ataque comenzó el 19 de marzo, cuando la Comisión Europea descargó inadvertidamente una versión comprometida de Trivy. TeamPCP explotó una rotación de credenciales incompleta tras una brecha previa en el repositorio de GitHub de Trivy. Esto les permitió introducir código malicioso en varias versiones de la herramienta. Cuando el sistema de seguridad automatizado de la Comisión actualizó Trivy, el malware sustrajo una clave de API de AWS, otorgando a los atacantes acceso a la cuenta en la nube de la Comisión.

Los atacantes llevaron a cabo una campaña metódica para buscar secretos adicionales y evadir la detección, antes de acceder a diversos servicios de AWS. La Comisión Europea no detectó la actividad anómala hasta cinco días después del compromiso inicial, el 24 de marzo, cuando las alertas señalaron un uso potencial in debido de las API de Amazon y un aumento inusual del tráfico de red. La Comisión hizo público el incidente el 27 de marzo, y al día siguiente, ShinyHunters publicó los datos en su sitio de filtraciones en la web oscura. Los datos comprometidos pertenecen a sitios web alojados para 42 clientes internos de la Comisión Europea y al menos 29 entidades de la UE, incluyendo agencias como la Agencia Europea de Medicamentos y la Autoridad Bancaria Europea.

Este suceso resalta las debilidades en la protección de la infraestructura digital de la UE y podría intensificar el debate sobre la soberanía digital europea y la dependencia de proveedores de la nube extranjeros. Para la industria tecnológica en general, la lección es clara: las herramientas de seguridad de código abierto, diseñadas para ser la última línea de defensa, se han convertido en un vector de ataque. La confianza en el modelo de seguridad automatizada y la infraestructura de software moderna se ven seriame nte cuestionadas cuando el propio escáner se convierte en el arma.

Fuente Original: https://thenextweb.com/news/european-commission-breach-trivy-supply-chain

Artículo generado mediante LaRebelionBOT

OCSF The Security Data Language Teams Need

Whilst the cybersecurity industry has been fixated on AI models and automation tools, a fundamental transformation has been quietly taking shape beneath the surface. The Open Cybersecurity Schema Framework (OCSF) is emerging as the industry's answer to a longstanding challenge: creating a unified language for security data that works across vendors, platforms, and technologies.

OCSF: The Security Data Language Teams Need

OCSF provides a vendor-neutral, open-source framework that allows security teams, enterprises, and product developers to describe security events, findings, objects, and contextual information using a consistent structure. For security operations centres (SOCs), this solves a persistent headache. Teams currently spend enormous amounts of time normalising data from disparate tools just to correlate basic security events. Consider detecting a potentially compromised credential: an employee logs in from San Francisco at 10 a.m., then mysteriously accesses cloud resources from New York two minutes later. Building systems that can spot such anomalies requires painstaking translation work because different security tools describe identical concepts using different field names, data structures, and assumptions. OCSF eliminates much of this translation overhead, enabling analysts to focus on actual threat detection rather than data wrangling.

The framework's momentum has been remarkable. Launched in August 2022 by AWS and Splunk, with contributions from Symantec, Broadcom, and other major players including Cloudflare, CrowdStrike, IBM, Okta, Palo Alto Networks, and Zscaler, OCSF has rapidly evolved from a 17-company initiative into a community with over 200 participating organisations and 900 contributors following its incorporation into the Linux Foundation in November 2024. The framework now appears throughout the security ecosystem: AWS Security Lake converts logs into OCSF format, Splunk translates incoming data using edge processors, Cribl supports streaming conversion, and CrowdStrike positions itself on both sides of the pipeline, translating Falcon data into OCSF whilst also ingesting OCSF-formatted information.

The rise of AI infrastructure has given OCSF fresh urgency. Modern AI deployments involve complex distributed systems including model gateways, agent runtimes, vector stores, and policy engines, all generating new forms of telemetry that span product boundaries. Security teams need to understand not just what an AI system produces, but what it actually does and whether those actions create security risks. Recent OCSF updates in versions 1.5.0 through 1.7.0 address these challenges by enabling teams to trace AI assistant tool calls, flag unusual behaviour, and investigate full action chains rather than merely final outputs. Upcoming developments in version 1.8.0 will allow teams to track model details, token counts, and message roles, helping investigators spot when AI systems pull excessive data or leak sensitive information through unusually verbose responses. OCSF has transitioned from community experiment to operational standard, providing the common infrastructure security tea ms need to correlate data across expanding AI-driven threat landscapes without losing critical context.

Fuente Original: https://venturebeat.com/security/ocsf-explained-the-shared-data-language-security-teams-have-been-missing

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT