martes, 21 de abril de 2026

IA en Seguridad Riesgos y Soluciones para Empresas

En 2025, más de 90 organizaciones sufrieron el secuestro de sus herramientas de seguridad basadas en inteligencia artificial (IA). Los atacantes inyectaron indicaciones maliciosas en estas herramientas legítimas, logrando robar credenciales y criptomonedas. Inicialmente, estas herramientas comprometidas solo tenían la capacidad de leer datos, pero la próxima generación de agentes de seguridad autónomos (SOC) ya posee acceso de escritura a elementos críticos como los firewalls.

IA en Seguridad: Riesgos y Soluciones para Empresas

Esta escalada es alarmante, ya que estos agentes de SOC autónomos pueden reescribir reglas de firewall, modificar políticas de gestión de identidades y accesos (IAM), e incluso poner en cuarentena endpoints, todo ello utilizando sus propias credenc iales privilegiadas y a través de llamadas API que son clasificadas como actividad autorizada por los sistemas de detección y respuesta de endpoints (EDR). Esto significa que el adversario nunca necesita tocar la red directamente; el propio agente actúa en su nombre.

La rápida evolución de la IA en ciberseguridad está acelerando la innovación, pero también las oportunidades de explotación. Informes recientes, como el Global Threat Report 2026 de CrowdStrike, destacan que la IA está comprimiendo el tiempo entre la intención y la ejecución, convirtiendo los sistemas empresariales de IA en objetivos. El uso de IA por parte de estados para operaciones ofensivas ha aumentado significativamente. Además, el panorama de amenazas se expande con clones de servidores de gestión de configuración de activos (MCP) maliciosos que interceptan datos sensibles al suplantar servicios de confianza. La advertencia del Centro Nacional de Ciberseguridad del Reino Unido de que los ataq ues de inyección de prompts contra aplicaciones de IA "quizás nunca se mitiguen por completo" subraya la magnitud del desafío.

Para abordar estos riesgos, se han desarrollado marcos de gobernanza como el OWASP Top 10 para Aplicaciones Agentes. Este documento identifica 10 categorías de ataques contra sistemas autónomos de IA, tres de las cuales son particularmente relevantes para los agentes de SOC con acceso de escritura: secuestro de objetivos, uso indebido de herramientas y abuso de identidad y privilegios. La proliferación de identidades de máquina en comparación con las identidades humanas (una proporción de 82:1 en promedio) agrava este problema, ya que cada agente autónomo introduce una brecha adicional.

Los informes indican que una parte significativa de las organizaciones ha observado comportamientos no deseados en sus agentes de IA y se siente poco confiada en su capacidad para contener un agente comprometido. Muchos profesionales de la ciberseguridad consideran la IA agente como el vector de ataque más peligroso. El riesgo no solo proviene de los modelos de IA, sino de su nivel de autonomía, el alcance de sus privilegios y el entorno operativo en el que operan. Si bien la industria está reconociendo la necesidad de controles, la pregunta clave es si estos controles llegarán a tiempo para prevenir las explotaciones a gran escala.

Soluciones como las que ofrece Ivanti, que integran el cumplimiento continuo y agentes de autoservicio de IA con salvaguardas incorporadas para políticas, aprobaciones y validación de datos, están comenzando a abordar la brecha de gobernanza. Estos enfoques, que priorizan la velocidad junto con la gobernanza, buscan automatizar tareas rutinarias y permitir que los equipos de seguridad se centren en iniciativas de mayor valor, todo ello dentro de los límites definidos. Sin embargo, la aplicación de políticas de acceso para identidades de IA y la gobernanza de todas las identidades de IA c on los mismos controles que los usuarios humanos siguen siendo desafíos críticos para la mayoría de las organizaciones.

Fuente Original: https://venturebeat.com/security/adversaries-hijacked-ai-security-tools-at-90-organizations-the-next-wave-has-write-access-to-the-firewall

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

GitHub Copilot Pauses Sign-ups Amidst AI Cost Surge

GitHub has temporarily halted new sign-ups for its popular Copilot Pro, Pro+, and Student plans. This significant move stems from a growing disparity between how developers are now utilising the AI coding assistant and the infrastructure originally designed to support it. The core issue lies with 'agentic coding workflows', which involve long, complex, and often parallel AI sessions that are now routinely incurring compute costs exceeding the fixed monthly subscription fees.

GitHub Copilot Pauses Sign-ups Amidst AI Cost Surge

VP of Product, Joe Binder, highlighted that it's now commonplace for a small number of requests to generate costs greater than a user's monthly payment. Consequently, as of April 20th, only the Copilot Free tier remains open for new individual users. While existing subscribers can maintain their current plans and even upgrade, GitHub has not provided a timeframe for reinstating new subscriptions. Existing Pro and Pro+ users who have contacted support between April 20th and May 20th are eligible for a refund for April's charges.

To address this economic imbalance and encourage heavier users towards the more expensive Pro+ tier, GitHub is implementing stricter usage limits across all individual plans. These caps on sessions and weekly tokens govern the amount of data processed, operating independently of premium request entitlements for model access. The premium Pro+ plan, priced at $39 per month, now offers significantly more generous limits compared to the $10 Pro plan. Furthermore, access to Anthropic's most advanced Opus models is being restricted, migrating exclusively to the Pro+ tier, while being entirely removed from the Pro plan. GitHub is also introducing usage warnings within VS Code and the Copilot CLI to help developers monitor their consumption before hitting limits mid-task. This strategic shift underscores the evolving economics of AI development, moving from simple code completion to more intensive, agent-driven workflows that demand a re-evaluation of pricing structures.

Fuente Original: https://thenextweb.com/news/github-copilot-signup-pause-agentic-ai-usage-limits

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

OpenAI Codex IA que ve tu pantalla Contexto con Capturas

OpenAI ha lanzado una nueva función para su aplicación de escritorio Codex en Mac llamada Chronicle. Esta característica experimental permite a la IA tener un contexto pasivo sobre tu actividad al tomar capturas de pantalla periódicas de tu pantalla.

OpenAI Codex: ¿IA que ve tu pantalla? Contexto con Capturas

La novedad reside en que estas capturas se envían a los servidores de OpenAI para su procesamiento, donde se generan resúmenes en texto. Estos resúmenes se guardan localmente en formato Markdown sin cifrar, lo que permite a Codex recordar lo que estabas haciendo sin que tengas que explicárselo explícitamente.

Chronicle forma parte de una actualización más amplia que ha transformado Codex de un asistente de codificación a un espacio de trabajo de IA más generalista. La función requiere permisos de grabación de pantalla y accesibilidad, y solo está disponible para usuarios con suscripción Pro de ChatGPT y Macs con Apple Silicon. Es importante destacar que Chronicle no está disponible en la Unión Europea, Reino Unido y Suiza, lo que sugiere preocupaciones de privacidad.

A diferencia de competidores como Microsoft Recall, que procesa y almacena datos localmente de forma encriptada, Chronicle opta por el procesamiento en la nube. OpenAI afirma que las capturas de pantalla originales se eliminan después de seis horas y no se utilizan para entrenamiento, pero los resúmenes persistirán localmente. Esta elección plantea serias dudas sobre la privacidad, ya que los archivos de memoria no están cifrados y podrían contener información sensible, aumentando el riesgo de inyección de prompts.

La industria tecnológica avanza hacia la IA ambiental, que comprende el contexto del usuario de forma continua. Chronicle es el primer paso de OpenAI en este ámbito para escritorio, prometiendo una mayor productividad al eliminar la necesidad de reexplicar el contexto. Sin embargo, la dependencia de la nube para el procesamiento y la arquitectura de confianza plantean interrogantes sobre su viabilidad regulatoria y la confianza del usuario, especialmente tras experiencias previas con promesas de privacidad en la industria.

Fuente Original: https://thenextweb.com/news/openai-codex-chronicle-screen-context-mac

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Amazon Invierte 25 Mil Millones en Anthropic

Amazon ha anunciado una inversión masiva de hasta $25 mil millones en Anthropic, la compañía de inteligencia artificial responsable de los modelos Claude. Este acuerdo forma parte de una alianza ampliada que asegura más de $100 mil millones en gasto de computación en la nube que Anthropic realizará en Amazon Web Services durante la próxima década. Esta operación representa la segunda mega-ronda consecutiva de Amazon con un laboratorio de IA de vanguardia, siguiendo una inversión casi idéntica de $50 mil millones en OpenAI hace dos meses.

Amazon Invierte $25 Mil Millones en Anthropic

La estructura del acuerdo es particularmente reveladora. Amazon está realizando una inversión inmediata de $5 mil millones, mientras que los $20 mil millones restantes están vinculados a hitos comerciales específicos. Esto se suma a los $8 mil millones que Amazon ya había comprometido con Anthropic desde 2023, elevando la inversión total potencial a aproximadamente $33 mil millones. Sin embargo, el compromiso de $100 mil millones de Anthropic con AWS no es un pago directo, sino una promesa de adquisición de computación en la nube, chips de IA personalizados y servicios de infraestructura durante diez años.

En el centro de este acuerdo se encuentran los chips Trainium de Amazon, su alternativa interna a las GPU de Nvidia para entrenamiento e inferencia de IA. El trato cubre los actuales Trainium2, el próximo Trainium3 y el aún no lanzado Trainium4, además de decenas de millones de núcleos CPU Graviton. Anthropic asegura hasta 5 gigavatios de capacidad para entrenar y desplegar sus modelos Claude, con una capacidad significativa de Trainium2 que estará disponible en el segundo trimestre de 2026.

Este compromiso de computación responde directamente a la creciente demanda que Anthropic está experimentando: los ingresos anualizados de la compañía han alcanzado los $30 mil millones, un aumento considerable desde los aproximadamente $9 mil millones a finales de 2025. La asociación también profundiza la distribución de los modelos de Anthropic, permitiendo a los clientes de AWS acceder a la Plataforma Claude completa directamente a través de sus cuentas existentes, sin necesidad de credenciales o facturación separadas. Este acuerdo consolida a Amazon como el socio de infraestructura principal de Anthropic, eclipsando el acuerdo previo con Microsoft de noviembre de 2025, que involucró una inversión de hasta $5 mil millones y $30 mil millones en capacidad de computación Azure.

Fuente Original: https://thenextweb.com/news/amazon-anthropic-25-billion-investment

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Creating Chrome Exploits Using Claude AI Coding

Artificial intelligence is revolutionising the landscape of cybersecurity vulnerability research and exploitation. A recent experiment demonstrates how AI language models can now autonomously develop exploits for publicly disclosed Chrome vulnerabilities, raising serious concerns about the security of Electron-based applications.

Creating Chrome Exploits Using Claude AI Coding

Security researcher s1r1us conducted a compelling study using Claude Opus to create a functional exploit for a Chrome CVE without any public proof-of-concept code. The investigation revealed a critical security gap: whilst Google Chrome promptly patches vulnerabilities, popular Electron-based applications like Discord, Slack, Cursor, and Claude Desktop embed outdated Chrome versions that remain vulnerable for extended periods. At the time of writing, Chrome had reached version 147, yet many widely-used Electron applications still run significantly older versions, leaving millions of installations exposed.

The methodology involved selecting a high-severity CVE from Chrome's recently patched vulnerabilities and directing Claude Opus to analyse and exploit it through iterative prompting. The AI model successfully developed read and write primitives within Chrome's sandbox. To achieve full exploitation, the researcher then pointed Claude towards a known V8 sandbox bypass documented in Chromium's issue tracker, enabling the creation of a complete working exploit chain.

The economics of this approach prove particularly concerning. The entire exercise required approximately 20 hours of human supervision and roughly 2,000 USD in API tokens. Considering that bug bounty programmes typically pay around 10,000 USD for such exploits, the process remains financially viable. More troubling is the trajectory of AI capability improvements—future models may require even less human intervention, potentially automating the entire exploit development process.

This development highlights fundamental questions about vulnerability disclosure practices and software supply chain security. The substantial time lag between component updates and their integration into dependent applications creates exploitable windows that AI-assisted attackers can now leverage efficiently. As AI models become more sophisticated, the industry may need to reconsider how quickly security information is published and whether current patching timelines remain adequate in an era of AI-accelerated exploit development.

Fuente Original: http://www.elladodelmal.com/2026/04/como-crear-un-exploit-1-day-sobre-un.html

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

lunes, 20 de abril de 2026

IA de Vanguardia Revolucionando la Ciberseguridad Ahora

La inteligencia artificial (IA) de vanguardia, personificada por modelos como 'Mythos' de Anthropic, está a punto de transformar radicalmente el panorama de la ciberseguridad. Lejos de ser una mera herramienta, esta nueva generación de IA promete redefinir la forma en que abordamos la protección digital, ofreciendo capacidades predictivas y defensivas sin precedentes.

IA de Vanguardia: Revolucionando la Ciberseguridad Ahora

Los avances en IA están permitiendo el desarrollo de sistemas capaces de anticipar y neutralizar amenazas cibernéticas antes de que se materialicen. Estos sistemas avanzados pueden analizar patrones complejos de datos, identificar anomalías sutiles que escapan a la detección humana y responder con una velocidad y precisión extraordinarias. Se espera que la IA no solo mejore las defensas existentes, sino que también cree nuevas formas de protección, adaptándose dinámicamente a las tácticas cambiantes de los ciberdelincuentes.

La implementación de estas IAs avanzadas en la ciberseguridad plantea un futuro donde la detección proactiva, la respuesta automatizada y la comprensión profunda de las amenazas serán la norma. Esto podría significar una reducción significativa en el impacto de los ciberataques, protegiendo tanto a individuos como a organizaciones en un mundo cada vez más digitalizado y vulnerable.

Fuente Original: https://news.google.com/rss/articles/CBMif0FVX3lxTE1JSFZBR3I1eXh1NVBMMXVFcy1BRGVaQldMN1R6Q19sWEJrZjA0MWpEdWo2Qm1zWlI4ajl4ZmJKYVlXM3QtUG5HWE94M2h4ckNteHlleXBZdzI1bzIyZDJlSjU1SDFucTlsalB4UzhQRmNWeDVIMkpQb zQtNTliV1k?oc=5

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

SAP Unveils Agentic AI for Resilient Manufacturing at Hannover Messe

SAP is gearing up for Hannover Messe 2026 with a clear vision: to revolutionise manufacturing through the practical application of agentic AI. The company aims to empower businesses to build more resilient and end-to-end manufacturing processes by leveraging the power of intelligent, self-governing AI agents. This move signifies a significant step towards operationalising AI beyond theoretical concepts and integrating it directly into the core of industrial operations.

SAP Unveils Agentic AI for Resilient Manufacturing at Hannover Messe

The focus is on enabling AI agents to understand complex manufacturing environments, make autonomous decisions, and adapt to dynamic conditions. This will allow for greater efficiency, faster response times to disruptions, and ultimately, more robust supply chains. SAP's approach at Hannover Messe will likely showcase how these agentic AI solutions can address critical industry challenges, from optimising production lines and managing inventory to enhancing quality control and predictive maintenance. By making AI work *for* the manufacturing floor, SAP is positioning itself as a key enabler of the future of industrial production, driving innovation and competitive advantage for its clients.

SAP's presentation will highlight the tangible benefits of this technology, demonstrating how businesses can transition from manual or semi-automated processes to a more intelligent and self-optimising manufacturing paradigm. The emphasis on 'operationalising' suggests a practical, ready-to-implement strategy for businesses looking to harness the full potential of AI in their manufacturing operations. Expect to see demonstrations and discussions on how agentic AI can lead to significant improvements in productivity, cost reduction, and the overall agility of manufacturing enterprises.

Fuente Original: https://news.google.com/rss/articles/CBMilgFBVV95cUxOdGdxVlhEX0JzaTItRWlIMzRsdnlnVmNycXVoRVhwNzJqbWo2MmtVNHRGV3d1bXZuVFpUeDZidGRsQzlhSVQtWWJMeVd2dDlrWS1ZQzhhN2dhb0hQSUNFQmNWYTc4OU5BOXNjcThyRVZuOUpRSGZkOHdENTVITHVCMzZRWWFGZlprcmJ1Y1F0NkZySWR1RkE?oc=5

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Meta despide miles la IA redefine el futuro laboral

Meta está a punto de llevar a cabo una reestructuración masiva, con despidos programados para el 20 de mayo que afectarán a aproximadamente 8.000 empleados, lo que representa el 10% de su fuerza laboral total. Esta medida, que se suma a rondas anteriores de recortes que ya han superado los 25.000 puestos desde 2022, marca un cambio estratégico significativo en la compañía. El foco ahora está puesto en la inteligencia artificial, con la empresa redirigiendo miles de millones de dólares hacia la infraestructura de IA.

Meta despide miles: la IA redefine el futuro laboral

Esta ambiciosa inversión, estimada entre 115.000 y 135.000 millones de dólares para 2026, tiene como objetivo potenciar el desarrollo de modelos como Llama y los sistemas de recomendación. Para lograrlo, los equipo s se están reorganizando en "pods" centrados en IA, bajo la dirección del nuevo Director de IA, Alexandr Wang, y su división Superintelligence Labs. Los despidos, que ya han afectado a áreas como Reality Labs, la división de Facebook, reclutamiento, ventas y operaciones globales, son una consecuencia directa de esta reorientación. La empresa ha implementado un nuevo sistema de rendimiento para alinear a los empleados con las nuevas prioridades, recompensando la "producción" y el "impacto empresarial claro".

La compañía, que reportó ingresos récord y sólidos beneficios en 2025, no está despidiendo por motivos financieros inmediatos, sino para financiar esta monumental apuesta en IA, buscando mantener los márgenes operativos esperados por Wall Street. Esta tendencia de despidos masivos en favor de inversiones en IA no es exclusiva de Meta; la industria tecnológica en su conjunto está experimentando un patrón similar, con miles de empleos eliminados y recursos de sviados hacia la infraestructura de inteligencia artificial. El resultado de esta estrategia, sin duda, definirá el futuro de Meta y del sector en los próximos años.

Fuente Original: https://thenextweb.com/news/meta-layoffs-may-2026-ai-restructuring-thousands

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Google Negocia con Marvell para Chips de IA

Google está en conversaciones con Marvell Technology para desarrollar dos nuevos chips de inteligencia artificial, marcando una estrategia de diversificación en su cadena de suministro de silicio personalizado. El gigante tecnológico busca crear una unidad de procesamiento de memoria y un TPU optimizado específicamente para inferencia, sumando a Marvell como tercer socio de diseño junto a Broadcom y MediaTek. Estas negociaciones, que aún no han resultado en un contrato firmado, llegan días después de que Broadcom asegurara un acuerdo para suministrar TPUs hasta 2031, lo que indica que Google no busca reemplazar socios sino ampliar su red de proveedores.

Google Negocia con Marvell para Chips de IA

La inferencia de IA se ha convertido en el foco estratégico de Google. A diferencia del entrenamiento de modelos, que es un evento único y costoso, la inferencia opera continuamente sirviendo cada consulta de cada usuario. Con productos de IA alcanzando cientos de millones de usuarios, la inferencia se ha transformado en el gasto dominante. El TPU Ironwood de séptima generación, presentado este mes, ofrece diez veces el rendimiento del TPU v5p y puede escalar hasta 9,216 chips refrigerados por líquido. Google planea fabricar millones de unidades Ironwood este año, y los chips diseñados por Marvell complementarían esta infraestructura atacando diferentes perfiles de carga de trabajo.

La relación entre Google y Marvell tiene historia. En 2023 se reportó que Google trabajaba en un chip llamado "Granite Redux" que usaría a Marvell en lugar de Broadcom, esperando ahorrar miles de millones anuales. Sin embargo, la estrategia evolucionó: en lugar de abandonar a Broadcom completamente, Google construye una arquitectura multi-proveedor donde cada socio maneja diferentes segmentos del programa TPU. Este enfoque elimina la dependencia de un solo proveedor y reduce el riesgo de precios y suministro.

Marvell trae capacidades significativas a la mesa. Su negocio de silicio personalizado genera $1.5 mil millones anuales, con clientes como Amazon, Microsoft y Meta. La empresa alcanzó ingresos récord de $8.2 mil millones en su último año fiscal, un incremento del 42%. Nvidia invirtió $2 mil millones en Marvell en marzo, y la compañía adquirió Celestial AI por hasta $5.5 mil millones para ganar tecnología de interconexión fotónica. Las acciones de Marvell subieron aproximadamente 50% en lo que va del año, con un 30% solo en abril tras el anuncio de la asociación con Nvidia y las conversaciones con Google.

El mercado de chips ASIC personalizados crece más rápido que el de GPUs. Se proyecta un crecimiento del 45% en 2026 para chips personalizados versus 16% para GPUs, con expectativas de alcanzar $118 mil millones para 2033. Broadcom mantiene más del 70% del mercado de aceleradores de IA personalizados, pero la estrategia de Google de múltiples proveedores refleja una realidad crítica: ningún hiperescalador puede permitirse construir su negocio sobre el silicio de un solo proveedor. Para Google, que sirve miles de millones de consultas de búsqueda aumentadas por IA, conversaciones con Gemini y llamadas a APIs de Cloud AI diariamente, reducir incluso un pequeño porcentaje del costo por inferencia se traduce en ahorros de miles de millones anuales.

Fuente Original: https://thenextweb.com/news/google-marvell-ai-chips-inference-tpu-broadcom

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

China Closes AI Gap Despite 23x Less Spending

Stanford University's 2026 AI Index Report has revealed a remarkable shift in the global artificial intelligence landscape. The performance gap between America's best AI models and China's has shrunk to a mere 2.7%, down dramatically from between 17.5 and 31.6 percentage points in May 2023. This convergence is particularly striking given that the United States invested $285.9 billion in private AI capital last year, whilst China spent just $12.4 billion—a 23-to-1 spending advantage that appears increasingly disconnected from actual results.

China Closes AI Gap Despite 23x Less Spending

The 423-page report paints a complex picture of two superpowers leading in different domains. Whilst America dominates private investment and hosts over 5,400 data centres, China has established commanding leads in volume-based metrics. Chinese researchers produced 23.2% of global AI publications and an astonishing 69.7% of worldwide AI patent filings. China installed 295,000 industrial robots in the most recent period—nearly nine times America's 34,200. Perhaps most significantly, China's electricity infrastructure maintains reserve margins above 80%, double the necessary capacity, whilst the US power grid struggles with decades of underinvestment that could bottleneck future AI expansion.

The talent migration data may prove most consequential for long-term competitiveness. AI scholar migration to the United States has plummeted 89% since 2017, with 80% of that decline occurring in just the past year. Switzerland now ranks first globally for AI researchers per capita. This precipitous drop suggests America's spending advantage purchases hardware and infrastructure but not necessarily the intellectual capital that transforms computational power into breakthrough capabilities. DeepSeek's demonstration in January 2025 that a Chinese laboratory could match Silicon Valley's finest with fractional resources exemplifies this shift.

The report also documents AI's jagged frontier of capabilities. Whilst models now solve graduate-level science questions with 93% accuracy and achieved near-perfect scores on coding benchmarks, they correctly read analogue clocks only 50.1% of the time. Robotic systems succeed 89.4% in simulation but merely 12% at real household tasks. Generative AI adoption reached 53% of populations within three years, faster than personal computers or the internet, yet public trust remains fragile. Only 31% of Americans trust their government to regulate AI—the lowest figure globally and well below the 54% international average.

The environmental costs are equally sobering. Training xAI's Grok 4 alone produced 72,816 tonnes of CO2 equivalent, roughly matching the annual emissions of 17,000 cars. Global AI data centre power capacity reached 29.6 gigawatts, sufficient to power New York State at peak demand. The report presents these figures without policy prescriptions, but the implications are clear: America leads on investment and narrowly on model performance, whilst China leads on talent pipeline, patents, publications, robotics, and energy infrastructure. One nation spends 23 times more yet leads by less than three percentage points. The question isn't which country is ahead today, but which approach proves sustainable tomorrow.

Fuente Original: https://thenextweb.com/news/stanford-ai-index-2026-china-us-performance-gap

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

domingo, 19 de abril de 2026

FSF AGPL no Permite Restricciones Adicionales

La Fundación del Software Libre (FSF) ha respondido contundentemente a OnlyOffice, aclarando que la licencia GNU AGPLv3 no permite imponer restricciones adicionales que limiten la libertad del software. La controversia surgió cuando OnlyOffice suspendió su colaboración con Nextcloud tras la creación del proyecto Euro-Office, alegando que Nextcloud no había cumplido con los términos de la licencia al retirar las referencias a su marca. OnlyOffice, a través de su CEO Lev Bannov, argumentó que habían incluido disposiciones adicionales a la AGPLv3, y que si el equipo de Euro-Office creía que esto entraba en conflicto con la licencia, debían solicitar una revisión a la FSF.

FSF: AGPL no Permite Restricciones Adicionales

Sin embargo, la FSF, como custodio de las licencias GNU, ha criticado duramente el intento de OnlyOffice de imponer estas restricciones extra. Según la FSF, si bien es posible modificar la AGPLv3 con términos adicionales, estos deben adherirse a la propia licencia. La AGPLv3 permite explícitamente a los licenciatarios eliminar cualquier término que constituya una "restricción adicional" respecto a la licencia principal. Por lo tanto, la FSF insta a OnlyOffice a aclarar su posición, confirmando que su software está licenciado bajo la AGPLv3 y que los usuarios tienen derecho a eliminar cualquier restricción impuesta. De lo contrario, si OnlyOffice desea continuar utilizando la AGPLv3 en futuras versiones, debe asegurarse de eliminar cualquier restricción adicional de su documentación y código fuente.

La FSF enfatiza que confundir a los usuarios al adjuntar restricciones adicionales a las licencias GNU va en contra de los principios del software libre. En su momento, el CEO de OnlyOffice había declarado que si la FSF determinaba que su proyecto se alineaba con la AGPLv3, continuarían como una iniciativa de código abierto, pero si la decisión fuera desfavorable, estarían listos para considerar otras alternativas. La intervención de la FSF busca salvaguardar la integridad y las libertades inherentes a la licencia AGPLv3.

Fuente Original: https://news.slashdot.org/story/26/04/18/0417208/fsf-to-onlyoffice-you-cant-use-the-gnu-agpl-to-take-software-freedom-away?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Salesforces AI Leap Unveiling Headless 360 Revolution

Salesforce has unveiled a significant new initiative in the Artificial Intelligence space, dubbed 'Headless 360'. This ambitious project aims to reshape how businesses interact with their customer data by moving away from traditional, monolithic systems towards a more flexible, modular, and AI-driven approach. The core idea behind 'Headless 360' is to provide a more agile and personalised customer experience by decoupling data and functionalities, allowing for greater customisation and faster deployment of AI-powered features.

Salesforce's AI Leap: Unveiling 'Headless 360' Revolution

At its heart, 'Headless 360' represents Salesforce's strategic pivot towards embracing a more composable architecture. This means that different components and data sources can be assembled and reassembled as needed, rather than being locked into a sin gle, rigid platform. The 'headless' aspect signifies the ability to access and utilise Salesforce data and functionalities through APIs, enabling developers to build bespoke applications and experiences that are not confined to Salesforce's own user interfaces. This flexibility is crucial for modern businesses that need to integrate data from various sources and deliver seamless customer journeys across multiple touchpoints.

The integration of AI is a central pillar of this new initiative. Salesforce is leveraging its extensive customer data to power advanced AI models that can provide deeper insights, automate processes, and enhance customer interactions. 'Headless 360' is designed to make these AI capabilities more accessible and adaptable, allowing businesses to embed intelligent features directly into their existing workflows or create entirely new ones. This could range from highly personalised marketing campaigns and predictive sales forecasting to proactive customer ser vice solutions. The ultimate goal is to empower organisations with the tools to understand and engage with their customers on a more profound level, fostering stronger relationships and driving business growth through intelligent, data-driven strategies.

Fuente Original: https://gizmodo.com/salesforce-announces-huge-ai-initiative-and-calls-it-h-1851165976

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

IA para el Trafico Aereo Palantir Thales Compiten

La Administración Federal de Aviación (FAA) de Estados Unidos está inmersa en un ambicioso proyecto para revolucionar la gestión del tráfico aéreo mediante inteligencia artificial. Conocido como SMART (Strategic Management of Airspace Routing Trajectories), este sistema busca extender la predicción de conflictos entre aeronaves de los actuales 15 minutos a dos horas. El objetivo es pasar de un modelo reactivo a uno predictivo, abordando las limitaciones de una infraestructura diseñada para un volumen de vuelos mucho menor y la sobrecarga de los controladores aéreos.

IA para el Tráfico Aéreo: Palantir, Thales Compiten

Tres empresas punteras compiten por desarrollar esta crucial tecnología: Palantir Technologies, Thales y la startup Air Space Intelligence (ASI). Pa lantir, con una sólida trayectoria en el sector gubernamental y una fuerte estrategia de crecimiento, aporta su experiencia en la ingesta y análisis de grandes volúmenes de datos operativos para interfaces de soporte a la decisión. Thales, con más de 85 años suministrando sistemas de gestión del tráfico aéreo a la FAA, cuenta con una ventaja significativa al tener su plataforma TopSky ya integrada en la infraestructura existente.

Por su parte, Air Space Intelligence, una startup respaldada por Andreessen Horowitz, se presenta como un competidor muy relevante. Su plataforma Flyways AI ya gestiona una porción considerable del tráfico aéreo de EE. UU. mediante modelado 4D y optimización, el mismo tipo de tecnología que requiere SMART. La urgencia de este proyecto se ha visto acentuada por incidentes recientes, como el ocurrido en LaGuardia, que expuso la necesidad de modernizar sistemas obsoletos y aliviar la carga de trabajo de los controladores. La FAA está invir tiendo miles de millones en este programa de modernización, que incluye el reemplazo de radares anticuados y la contratación de nuevos controladores. SMART representa una apuesta fundamental para asegurar la seguridad y eficiencia del espacio aéreo ante el creciente volumen de vuelos y las limitaciones tecnológicas actuales.

Fuente Original: https://thenextweb.com/news/palantir-thales-air-space-intelligence-faa-smart-ai-air-traffic

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

US Government Seeks Anthropics Powerful Mythos AI

In a striking development highlighting the complex relationship between artificial intelligence advancement and national security, Anthropic's CEO recently met with senior US officials to discuss collaboration opportunities around the company's groundbreaking Mythos AI model. This meeting comes at a particularly tense moment, as Anthropic simultaneously battles the Trump administration in court over the blacklisting of its Claude AI model, creating a paradoxical situation where the government both restricts and desperately seeks the company's technology.

US Government Seeks Anthropic's Powerful Mythos AI

The Mythos tool has captured the attention of US security agencies due to its unprecedented cybersecurity capabilities. Unlike previous AI models, Mythos can autonomously identify and exploit complex software vulnerabilities, including zero-day flaws that even expert human security researchers struggle to patch. The model can conduct end-to-end cyberattacks independently, navigate enterprise IT systems, chain together multiple exploits, and even attempt to cover its tracks during attacks. These capabilities represent a quantum leap in AI-powered cybersecurity tools, making it both an invaluable defensive asset and a potentially devastating weapon if it falls into adversarial hands.

The Office of Management and Budget is already preparing to provide federal agencies with access to Mythos, recognising that depriving the government of this technology would be irresponsible and potentially hand a strategic advantage to rivals like China. Multiple agencies, including parts of the intelligence community, the Cybersecurity and Infrastructure Security Agency, and the Treasury Department, are either testing or seeking access to the tool. The White House has indicated plans to engage with other AI companies for similar discussions, though Mythos currently stands apart in its capabilities.

Anthropic initially granted limited access to Mythos to select organisations, including JPMorgan, Amazon, and Apple, after discovering its extraordinary hacking abilities. The company's safety assessments revealed that the model could also serve as a force multiplier for research into chemical and biological weapons. European regulators have expressed alarm about Mythos and have reportedly been unable to gain access to it. Senior security researchers at Anthropic have warned that within six to 24 months, these capabilities could become broadly available worldwide, creating an urgent window for organisations to identify and patch vulnerabilities in their critical systems before malicious actors can exploit them.

Fuente Original: https://yro.slashdot.org/story/26/04/18/039221/us-government-now-wants-anthropics-mythos-preparing-for-ai-cybersecurity-threats?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT