sábado, 4 de abril de 2026

Microsoft 10B Inversion IA y Ciberdefensa en Japon

¡Atención, entusiastas de la tecnología y la seguridad! Microsoft ha anunciado una inversión monumental de 10 mil millones de dólares en Japón, programada entre 2026 y 2029. Este ambicioso plan tiene como objetivo principal expandir la infraestructura de inteligencia artificial (IA), potenciar la capacidad local de la nube y, de manera crucial, fortalecer la ciberdefensa del país.

Microsoft: $10B Inversión IA y Ciberdefensa en Japón

La iniciativa no solo se centra en la tecnología, sino también en el talento. Microsoft se compromete a formar a un millón de ingenieros y desarrolladores para el año 2030. Este esfuerzo masivo busca alinear los objetivos de crecimiento de Japón en tecnologías estratégicas con la necesidad de salvaguardar la seguridad nacional, un objetivo compartido por la Primera Ministra Sanae Takaich i. La colaboración con empresas japonesas como SoftBank y Sakura Internet será clave para aumentar la capacidad de computación de IA dentro de Japón. Esto permitirá a las empresas y agencias gubernamentales mantener datos sensibles en el país mientras aprovechan los servicios de Microsoft Azure. Además, se intensificará la cooperación con las autoridades japonesas para compartir inteligencia sobre amenazas cibernéticas y prevenir delitos. En resumen, se trata de una jugada estratégica de Microsoft para consolidar su presencia, impulsar la innovación local y reforzar la seguridad digital en una región clave.

Fuente Original: https://slashdot.org/story/26/04/03/1914243/microsoft-to-invest-10-billion-in-japan-for-ai-cyber-defense-expansion?utm_source=rss1.0mainlinkanon&a mp;utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Tencents Lobster AI Dominating Enterprise with Open-Source

Tencent is making significant inroads into the enterprise AI market with ClawPro, a new platform built upon the immensely popular open-source framework, OpenClaw. This innovative tool, developed by an Austrian programmer and now the fastest-growing project on GitHub, allows businesses to deploy AI agents in a remarkably short time, offering features like template selection, model switching, and robust security compliance. ClawPro addresses the enterprise's need for stricter data governance, a crucial aspect that the original open-source version of OpenClaw was not initially designed for.

Tencent's Lobster AI: Dominating Enterprise with Open-Source

The launch of ClawPro is part of Tencent's broader strategy to integrate OpenClaw across its vast ecosystem, particularly within WeChat, which boasts over 1.3 billion users. The company has already introduced other OpenClaw-powered tools like QClaw and WorkBuddy, signalling its ambition to position WeChat as a central hub for AI agent interactions. This rapid development highlights Tencent's aggressive approach to capitalizing on the burgeoning AI agent wave. The underlying technology itself, OpenClaw, rapidly gained global traction, becoming the most-starred repository on GitHub in a record timeframe, demonstrating its immense potential and widespread appeal.

However, the widespread adoption of OpenClaw, particularly in China, has also raised significant security concerns. Chinese authorities have issued warnings about its weak default security configurations, urging users to implement stringent security measures. Despite these concerns and a temporary curb on its use in sensitive sectors, Tencent's ClawPro aims to provide a secure and compliant enterprise solution. This move signifies a broader trend where open-source AI innovations, originating from independent developers, are being rapidly adopted, adapted, and commercialised by large tech ecosystems, with China leading the charge in enterprise adoption speed. The success of ClawPro will hinge on Tencent's ability to navigate regulatory demands and prove the robustness of its security layers in an increasingly governed AI landscape.

Fuente Original: https://thenextweb.com/news/tencent-clawpro-openclaw-enterprise-ai-agents

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Karpathy IA Autodidacta con Markdown Adios RAG

Andrej Karpathy, figura clave en el desarrollo de IA, ha presentado un enfoque innovador para la gestión del conocimiento en Modelos de Lenguaje Grandes (LLM) que promete superar las limitaciones de las arquitecturas actuales. Su propuesta, bautizada como 'LLM Knowledge Bases', se aleja de la complejidad de las bases de datos vectoriales y la generación aumentada por recuperación (RAG) para proponer un sistema donde el propio LLM actúa como un 'bibliotecario de investigación' incansable.

Karpathy: IA Autodidacta con Markdown, Adiós RAG

El núcleo de esta arquitectura reside en la manipulación de archivos Markdown (.md). En lugar de fragmentar y vectorizar datos, Karpathy propo ne que el LLM compile, enlace e interconecte activamente estos archivos, que son intrínsecamente legibles por humanos y fáciles de procesar para la IA. El proceso se divide en tres etapas: 'Data Ingest', donde se recopila información en bruto y se convierte a formato Markdown; 'The Compilation Step', donde el LLM genera un 'wiki' estructurado con resúmenes, conceptos clave y, crucialmente, enlaces bidireccionales entre ideas relacionadas; y 'Active Maintenance (Linting)', donde el LLM realiza 'chequeos de salud' para identificar inconsistencias y nuevas conexiones, logrando un sistema que se 'autocura' y es auditable.

Esta metodología elimina el problema de la 'caja negra' de los embeddings vectoriales, permitiendo que cada dato sea trazable hasta un archivo .md específico. Las implicaciones para las empresas son enormes: pasar de 'lagos de datos crudos' a 'activos de conocimiento compilados'. Empresas que actualmente se ahogan en datos no estructurados podrían, con est e modelo, generar una 'Biblia de la Empresa' autoactualizable. La filosofía 'file-over-app' que promueve Karpathy empodera al usuario, garantizando la soberanía de sus datos, con la IA actuando como un editor avanzado. En definitiva, Karpathy no solo comparte un script, sino una filosofía: el LLM como agente activo de su propia memoria, abriendo la puerta a un 'archivo autónomo'.

Fuente Original: https://venturebeat.com/data/karpathy-shares-llm-knowledge-base-architecture-that-bypasses-rag-with-an

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Ataques Iranies Dejan Infraestructura AWS Fuera de Servicio

Los ataques militares iraníes han dejado severamente dañadas las zonas de disponibilidad de Amazon Web Services (AWS) en Bahréin y Dubái, provocando interrupciones prolongadas en los servicios de la nube y obligando a Amazon a recomendar a sus clientes que trasladen sus operaciones a otras regiones. Según un memorando interno de comunicación de Amazon, estas dos regiones continúan experimentando problemas graves, y los servicios no deben esperar operar con niveles normales de redundancia y resiliencia.

Ataques Iraníes Dejan Infraestructura AWS Fuera de Servicio

Con el conflicto bélico acercándose a su sexta semana, Irán ha convertido la infraestructura de Amazon en el Golfo Pérsico en un objetivo económico estratégico, y ahora apunta también a otras empresas tecnológicas. Las instalaciones de Amazon en Bahréin han sido atacadas en múltiples ocasiones, incluyendo un bombardeo el miércoles que causó un incendio significativo. Las instalaciones en los Emiratos Árabes Unidos también han sufrido varios impactos directos. La Guardia Revolucionaria Islámica (IRGC) ha emitido amenazas contra otros gigantes tecnológicos estadounidenses, incluyendo Microsoft, Google y Apple.

La infraestructura de Amazon tanto en Bahréin como en Dubái cuenta con tres zonas de disponibilidad, que son grupos de servidores de cómputo diseñados para proporcionar redundancia. Según la comunicación interna, ambas regiones tienen zonas que están completamente fuera de servicio y otras que están deterioradas pero aún funcionando. Amazon está trabajando activamente para liberar y reservar la mayor capacidad posible en la región para sus clientes, y ha solicitado que los servicios se reduzcan a la huella mínima requerida para apoyar la migración de clientes.

En el memorando interno, Amazon reconoce que no tiene un cronograma establecido para el retorno a las operaciones normales en las regiones de Dubái y Bahréin. Esta situación representa un desafío significativo para las empresas que dependen de estos centros de datos para sus operaciones críticas en Medio Oriente.

Fuente Original: https://tech.slashdot.org/story/26/04/03/2238241/iran-strikes-leave-amazon-availability-zones-hard-down-in-bahrain-and-dubai?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Nvidias Agent Toolkit Wins Over 17 Enterprise Giants

Nvidia has made a strategic play to dominate the emerging enterprise AI agent market by launching its Agent Toolkit, an open-source platform that 17 major software companies—including Adobe, Salesforce, and SAP—have committed to adopting. CEO Jensen Huang unveiled the platform at GTC 2026, positioning Nvidia not merely as a hardware provider but as the foundational layer for the next generation of autonomous AI systems that will operate across virtually every industry.

Nvidia's Agent Toolkit Wins Over 17 Enterprise Giants

The Agent Toolkit addresses a critical pain point in enterprise AI deployment: the complexity of assembling disparate components from multiple vendors. Nvidia's unified platform includes Nemotron (open models optimised for agentic reasoning), AI-Q (a blueprint for enterprise knowledge processing that can reduce query costs by over 50 percent), OpenShell (a security-focused runtime with policy-based guardrails), and cuOpt (an optimisation library). Each component is open source, yet optimised specifically for Nvidia hardware—a strategic decision that ensures proliferating AI agents generate demand for Nvidia GPUs.

The breadth of adoption reveals Nvidia's ambitions. Adobe will use the toolkit as the foundation for creativity, productivity, and marketing agents, integrating Firefly models and exploring Nemotron for personalised agentic workflows. Salesforce is implementing Agent Toolkit software to enable customers to build AI agents through Agentforce, with Slack serving as the orchestration layer. SAP is incorporating the technology into Joule Studio, whilst ServiceNow's Autonomous Workforce leverages both Nemotron and its own models in a hybrid approach. Beyond horizontal platforms, specialised industries are embracing the technology: Cadence, Siemens, and Synopsys are building semiconductor design agents; IQVIA is deploying agents across 19 of the top 20 pharmaceutical companies; and CrowdStrike is embedding security protection directly into Nvidia's agent architecture.

Nvidia's open-source strategy appears paradoxical for a multi-trillion-dollar company, yet it functions as a carefully constructed competitive moat. By making the software freely available whilst optimising it for proprietary CUDA libraries, Nvidia ensures that even independently developed AI agents perform best on its hardware. The newly announced Nemotron Coalition—including Mistral AI, Cursor, LangChain, and Perplexity—will advance open frontier models trained on Nvidia infrastructure, further embedding the company's technology into the ecosystem. LangChain's integration of Agent Toolkit components into its widely adopted framework (downloaded over 1 billion times) elevates Nvidia from vendor to essential infrastructure.

However, significant risks temper the narrative. Many partner announcements use hedged language like "exploring" and "evaluating" rather than confirming production deployments. Adobe's own statements acknowledge the non-binding nature of their agreement. Competition from Microsoft's Copilot ecosystem, Google's Gemini platform, and Amazon's Bedrock presents formidable alternatives with their own advantages. OpenShell's security guardrails, whilst architecturally promising, remain unproven at enterprise scale, and autonomous agents introduce threat surfaces the industry has barely begun to map. Organisational readiness—governance structures, change management, regulatory frameworks—often lags years behind technological capability.

The Agent Toolkit announcement arrived alongside a comprehensive product portfolio refresh, including the Vera Rubin platform with seven new chips, the Dynamo 1.0 inference operating system adopted by major cloud providers, and autonomous vehicle programmes with BYD, Geely, and Nissan. Roche announced deployment of over 3,500 Blackwell GPUs, the largest such footprint for a pharmaceutical company. These announcements collectively demonstrate Nvidia remaking itself across every layer of the computing stack, positioning the company not merely as a hardware supplier but as the platform provider for the age of autonomous AI agents—a transition Huang believes will eclipse even the current era of AI models.

Fuente Original: https://venturebeat.com/technology/nvidia-launches-enterprise-ai-agent-platform-with-adobe-salesforce-sap-among

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

viernes, 3 de abril de 2026

Google Lanza Gemma 4 IA Abierta y Licencia Apache 20

Google ha dado un paso adelante en el mundo de la inteligencia artificial abierta con el anuncio de sus nuevos modelos Gemma 4. Estos modelos llegan en cuatro tamaños diferentes, optimizados para su uso en entornos locales, desde potentes estaciones de trabajo hasta dispositivos móviles.

Google Lanza Gemma 4: IA Abierta y Licencia Apache 2.0

Las versiones más grandes, Gemma 4 de 26B Mixture of Experts y 31B Dense, están diseñadas para funcionar sin cuantizar en hardware potente como GPUs Nvidia H100, e incluso se espera que quepan en GPUs de consumo tras ser cuantizadas. Google ha puesto especial énfasis en reducir la latencia, logrando que el modelo de 26B active solo una fracción de sus parámetros durante la inferencia, lo que se traduce en una mayor velocidad de procesamiento.

Para el ámbito móvil, se presentan l os modelos Gemma 4 Effective 2B (E2B) y Effective 4B (E4B). Estos modelos destacan por su bajo consumo de memoria y batería, y han sido optimizados en colaboración con Qualcomm y MediaTek para su uso en smartphones, Raspberry Pi y Jetson Nano, prometiendo una latencia cercana a cero. Google afirma que estos nuevos modelos superan a Gemma 3 en rendimiento y eficiencia, posicionándose como los más capaces para ejecución local.

Además de las mejoras de rendimiento, un cambio crucial es la adopción de la licencia Apache 2.0 para los modelos Gemma 4. Esta licencia, mucho más permisiva y familiar para los desarrolladores que la anterior licencia personalizada de Google, elimina las restricciones de uso y comerciales, brindando mayor libertad a los desarrolladores para construir sobre la tecnología de Gemma. Esta apertura busca fomentar una mayor adopción y expandir lo que Google denomina el "Gemmaverse".

Los modelos Gemma 4 también están preparados para la crecient e tendencia de flujos de trabajo agenticos, ofreciendo soporte nativo para llamadas a funciones, salida JSON estructurada y optimización para herramientas y APIs comunes. Se ha mejorado su capacidad para la generación de código y el procesamiento de entradas visuales, como OCR y comprensión de gráficos, incluso en entornos offline.

La familia Gemma 4 se extiende a las versiones más pequeñas que impulsarán la próxima generación de Gemini Nano para smartphones, confirmando que el futuro de la IA en dispositivos móviles se basa en estos modelos abiertos y eficientes. Los desarrolladores ya pueden acceder a estos nuevos modelos a través de AI Studio, AI Edge Gallery, Hugging Face, Kaggle y Ollama, y también están disponibles para su uso en Google Cloud.

Fuente Original: https://arstechnica.com/ai/2026/04/google-announces-gemma-4- open-ai-models-switches-to-apache-2-0-license/

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Googles Gemma 4 Open Licensing Fuels AI Innovation

Google has made a significant move in the open-weight AI model landscape with the release of its Gemma 4 family, notably switching to the standard Apache 2.0 license. This is a game-changer for enterprises that previously shied away from Google's Gemma models due to their custom, restrictive licensing terms, which often involved usage limitations and the potential for Google to unilaterally update them. The new Apache 2.0 license removes these friction points, aligning Gemma with the terms offered by other leading open-weight models like Mistral and Qwen, making it a more attractive and legally straightforward option for commercial deployment and redistribution.

Google's Gemma 4: Open Licensing Fuels AI Innovation

The Gemma 4 family comprises four models across two tiers: 'workstation' and 'edge'. The workstation tier features a 31B-parameter dense model and a 26B A4B Mixture-of-Experts (MoE) model, both capable of handling text and image inputs with substantial 256K-token context windows. The 'edge' tier includes the E2B and E4B models, compact units designed for mobile and embedded devices, offering text, image, and audio support with 128K-token context windows. The naming conventions highlight innovative parameterisation techniques: 'effective parameters' for the E-series models (like E2B, which runs like a 2B model despite having more total parameters) and 'active parameters' for the MoE model (like the 26B A4B, where only a fraction of parameters are active during inference), which significantly reduces computational costs.

Architecturally, Gemma 4 boasts native multimodality, integrating vision, audio, and function calling capabilities directly into its design, rather than treating them as add-ons. This means variable aspect-ratio image input, on-device audio processing with ASR and translation, and robust function calling are all built-in. The MoE architecture's use of 128 small experts, compared to the handful of large experts in other MoE models, is a key differentiator, promising efficient inference at a competitive performance level. Benchmarks show substantial improvements over previous Gemma versions, with the 31B model scoring impressively on reasoning and coding tasks. This release, combined with its permissive license and flexible deployment options (including serverless on Google Cloud), positions Gemma 4 as a compelling choice for organisations seeking advanced AI capabilities without licensing entanglements.

Fuente Original: https://venturebeat.com/technology/google-releases-gemma-4-under-apache-2-0-and-that-license-change-may-matter

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Gemma 4 de Google IA Potente Licencia Libre

Google ha dado un paso significativo en el mundo de la inteligencia artificial con el lanzamiento de Gemma 4, una nueva generación de modelos de IA de código abierto. Estos modelos llegan en cuatro tamaños distintos, diseñados para ofrecer un rendimiento optimizado para su uso local, brindando a los desarrolladores una mayor flexibilidad y control.

Gemma 4 de Google: IA Potente, Licencia Libre

Las variantes más grandes de Gemma 4, con 26B Mixture of Experts y 31B Dense, están pensadas para ejecutarse en hardware de gama alta como GPUs Nvidia H100. Sin embargo, Google ha puesto un gran énfasis en la reducción de la latencia, permitiendo que estos modelos funcionen eficientemente incluso cuando se cuantizan para GPUs de consumo. La arquitectura Mixture of Experts, en particular, solo activa una fracción de sus parámetros du rante la inferencia, lo que resulta en una velocidad de procesamiento de tokens considerablemente mayor en comparación con modelos de tamaño similar.

Para aquellos enfocados en dispositivos móviles y aplicaciones con recursos limitados, Gemma 4 presenta las opciones Effective 2B (E2B) y Effective 4B (E4B). Estos modelos están diseñados para un bajo consumo de memoria y batería, con un funcionamiento efectivo de 2 y 4 mil millones de parámetros respectivamente. La colaboración con Qualcomm y MediaTek ha permitido optimizar estos modelos para una amplia gama de dispositivos, desde smartphones hasta placas de desarrollo como Raspberry Pi y Jetson Nano, prometiendo una latencia cercana a cero.

Quizás uno de los anuncios más relevantes es el cambio de licencia. Google ha adoptado la licencia Apache 2.0 para Gemma 4, abandonando la licencia personalizada anterior. Esta decisión representa una mejora sustancial en términos de flexibilidad, eliminando restricciones c omerciales y otorgando a los desarrolladores el control total sobre sus datos, infraestructura y los modelos en sí. Expertos de la comunidad, como Clement Delangue de Hugging Face, han elogiado este movimiento como un hito importante que potenciará el ecosistema "Gemmaverse" de Google.

Fuente Original: https://tech.slashdot.org/story/26/04/02/1735238/google-announces-gemma-4-open-ai-models-switches-to-apache-20-license?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Google Lanza Gemma 4 Modelos Abiertos Revolucionarios

Google ha dado un paso significativo en el mundo de la inteligencia artificial con el lanzamiento de Gemma 4, su última generación de modelos de IA de pesos abiertos. Esta familia de modelos viene en cuatro tamaños diferentes, diseñados estratégicamente para cubrir desde dispositivos móviles hasta estaciones de trabajo profesionales. Lo más destacable es que estos modelos están construidos sobre la misma investigación y tecnología que respalda a Gemini 3, el modelo propietario de vanguardia de Google.

Google Lanza Gemma 4: Modelos Abiertos Revolucionarios

La nueva familia Gemma 4 incluye cuatro variantes cuidadosamente diseñadas: el modelo E2B de 2B y el E4B de 4B, optimizados para funcionar directamente en teléfonos inteligentes, Raspberry Pi y hardware Jetson Nano; y los modelos más potentes de 26B MoE (Mezcla de Expertos) y 31B Denso, orientados para uso fuera de línea en hardware de desarrolladores y GPUs de consumo. El modelo de 31B actualmente ocupa el tercer lugar entre todos los modelos abiertos en la clasificación de Arena AI, mientras que el de 26B se sitúa en sexto lugar. Google afirma que ambos modelos superan a competidores hasta 20 veces más grandes.

Una de las características más impresionantes es que todos los modelos son multimodales, procesando nativamente video e imágenes, y están entrenados en más de 140 idiomas. Los modelos E2B y E4B además soportan entrada de audio nativa para reconocimiento de voz. El cambio más significativo es la licencia Apache 2.0, mucho más permisiva que versiones anteriores de Gemma, lo que elimina restricciones que previamente impedían implementaciones comerciales y empresariales. Este movimiento ha sido descrito como un hito importante por expertos de la industria. El CEO de Google DeepMind, Demis Hassabis, los calificó como los mejores modelos abiertos del mundo para sus respectivos tamaños. Con más de 400 millones de descargas desde su primer lanzamiento, Gemma demuestra una adopción masiva por parte de la comunidad de desarrolladores.

Fuente Original: https://thenextweb.com/news/google-gemma-4-open-models-apache-2-launch

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Arcees Trinity-Large-Thinking Americas Open Source AI Champion

In the rapidly evolving landscape of artificial intelligence, a San Francisco-based startup has emerged as an unlikely champion of open source innovation. Arcee AI, a lean team of just 30 people, has released Trinity-Large-Thinking, a 399-billion parameter reasoning model that's challenging the dominance of both tech giants and Chinese AI labs. Released under the permissive Apache 2.0 licence, this model represents a strategic bet that American-made open weights can provide enterprises with a sovereign alternative to increasingly restricted frontier models.

Arcee's Trinity-Large-Thinking: America's Open Source AI Champion

What makes Trinity-Large-Thinking particularly remarkable is both its performance and its provenance. Arcee committed £20 million—nearly half their total funding—to a single 33-day training run using 2,048 NVIDIA B300 Blackwell GPUs. This "bet the company" decision demonstrates extraordinary capital efficiency, proving that a focused team can compete with organisations possessing vastly larger resources. The model's architecture is ingeniously sparse: whilst housing 400 billion total parameters, only 1.56% (approximately 13 billion) are active for any given token, allowing it to maintain the knowledge depth of a massive system whilst running two to three times faster than comparable models.

The release arrives at a critical juncture in AI development. Chinese labs like Qwen and z.ai, which previously led the open-weight movement, have begun pivoting towards proprietary platforms. Meanwhile, Meta's Llama division has retreated from the frontier following quality concerns with Llama 4. This void has created urgent demand for a powerful, truly open American alternative. Trinity-Large-Thinking fills this gap impressively, achieving a PinchBench score of 91.9—just behind the proprietary leader Claude Opus 4.6 at 93.3—whilst costing approximately 96% less at $0.90 per million output tokens compared to Opus's $25.

The model's "thinking" capability sets it apart from standard chatbots. By implementing a reasoning phase before generating responses, Trinity excels at complex, multi-step tasks—what Arcee calls "long-horizon agents." This makes it ideal for enterprises building autonomous systems that must maintain coherence across extended interactions. The model scored 96.3 on AIME25 mathematics benchmarks and 52.3 on IFBench instruction-following tests, positioning it competitively against both open and closed-source alternatives. Arcee's meticulous approach to training data—excluding copyrighted materials and utilising 20 trillion tokens of curated and synthetic data—also addresses intellectual property concerns that plague many mainstream models.

For regulated industries, Trinity's Apache 2.0 licence offers genuine ownership—a feature increasingly valued as geopolitical tensions influence technology choices. Enterprises can inspect, customise, and deploy the model without restrictions, making it particularly attractive for finance, defence, and other sectors requiring transparent, auditable AI systems. The model's success on OpenRouter, where it became the number one most-used open model in the United States, signals strong developer appetite for powerful, unrestricted tools. As Hugging Face CEO Clément Delangue noted, Arcee demonstrates that American startups can still lead in open-source AI innovation.

Fuente Original: https://venturebeat.com/technology/arcees-new-open-source-trinity-large-thinking-is-the-rare-powerful-u-s-made

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

jueves, 2 de abril de 2026

Microsoft Lanza IA Propia Desafio Directo a OpenAI y Google

Microsoft ha dado un paso audaz en el competitivo mundo de la inteligencia artificial al lanzar tres nuevos modelos fundamentales desarrollados completamente en sus laboratorios. Estos modelos abarcan transcripción de voz de última generación, generación de voz realista y creación de imágenes mejorada, marcando una clara intención de competir directamente con gigantes como OpenAI y Google en el desarrollo de modelos, no solo en su distribución.

Microsoft Lanza IA Propia: ¡Desafío Directo a OpenAI y Google!

Los nuevos modelos, bautizados como MAI-Transcribe-1, MAI-Voice-1 y MAI-Image-2, ya están disponibles a través de Microsoft Foundry y un nuevo MAI Playground. La apuesta d e Microsoft se centra en áreas de alto valor comercial para la IA empresarial: la conversión de voz a texto con una precisión sin precedentes, la síntesis de voces humanas de gran naturalidad y la generación de imágenes. Estos lanzamientos son la primera jugada del equipo de 'superinteligencia' de Microsoft, liderado por Suleyman, con el objetivo de alcanzar la 'autosuficiencia en IA'.

MAI-Transcribe-1 destaca por su excepcional precisión en 25 idiomas, superando benchmarks de la industria y modelos de la competencia como Whisper de OpenAI y Gemini de Google. MAI-Voice-1 ofrece capacidades de generación de voz rápida y personalización, mientras que MAI-Image-2 promete tiempos de generación duplicados y se está implementando en productos como Bing y PowerPoint. Estos lanzamientos no solo buscan impulsar los productos de Microsoft, sino también reducir sus costos operativos y ofrecer precios agresivos que presionan a Amazon, Google y otras startups de IA, posicionan do a Microsoft como un competidor formidable en todas las facetas de la IA.

Fuente Original: https://venturebeat.com/technology/microsoft-launches-3-new-ai-models-in-direct-shot-at-openai-and-google

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Claude Code Leak 5 Security Actions for Enterprises

A significant security incident has occurred with the accidental leak of Anthropic's Claude Code source code, exposing 512,000 lines of unobfuscated TypeScript. This leak, which occurred via a packaging error in the @anthropic-ai/claude-code npm package, has provided a detailed blueprint of the AI coding agent's architecture, including its permission model, security validators, and unreleased features. While Anthropic confirmed no customer data or model weights were compromised, the containment of the leak has proven difficult, with the code quickly spreading across various platforms.

Claude Code Leak: 5 Security Actions for Enterprises

The exposure is particularly concerning as it offers a clear roadmap for competitors and malicious actors to replicate Claude Code's fu nctionality without the need for reverse engineering. Security researchers have already identified specific attack paths that are now more exploitable due to the readily available source code. These include context poisoning through the compaction pipeline, where malicious instructions can be disguised as legitimate user directives, and sandbox bypasses exploiting differentials in shell parsing. The leaked code also highlights the inherent intellectual property risks associated with AI-generated code, as much of Claude Code's codebase is reportedly AI-generated, which may diminish its copyright protection under current US law.

The incident underscores a broader trend of AI-assisted code leaking secrets at an elevated rate. Enterprises are urged to re-evaluate their vetting processes for AI development tool vendors and to take immediate action. Key recommendations include auditing configuration files like CLAUDE.md and .claude/config.json, treating MCP servers as untrusted depe ndencies, restricting broad bash permission rules, and implementing pre-commit secret scanning. Furthermore, demanding Service Level Agreements (SLAs), uptime history, and incident response documentation from vendors is crucial. Finally, enterprises must implement commit provenance verification to address the 'Undercover Mode' which strips AI attribution from code, ensuring accountability and maintaining audit trails, especially in regulated industries. The velocity at which new AI capabilities are being released, coupled with such leaks, widens the operational surface and necessitates a proactive security posture.

Fuente Original: https://venturebeat.com/security/claude-code-512000-line-source-leak-attack-paths-audit-security-leaders

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Adios IA Sombra KiloConquista Empresas con Agentes Seguros

La rápida adopción de la inteligencia artificial generativa en el ámbito laboral ha desatado un desafío inesperado: la crisis de la 'IA sombra' o 'Bring Your Own AI' (BYOAI). Al igual que sucedió con los dispositivos personales no autorizados en el pasado, los desarrolladores y trabajadores del conocimiento están implementando agentes autónomos en infraestructuras personales para optimizar sus flujos de trabajo profesionales. En respuesta a esta tendencia, Kilo ha lanzado KiloClaw para Organizaciones y KiloClaw Chat, un conjunto de herramientas diseñado para ofrecer a las empresas un control de nivel empresarial sobre estos agentes de IA personales.

Adiós IA Sombra: KiloConquista Empresas con Agentes Seguros

El problema subyacente es la falta de visibilidad y control para las grandes empresas. Desarrolladores han sido sorprendidos utilizando agentes en instancias de servidores virtuales no supervisadas para tareas como la gestión de calendarios o la monitorización de repositorios. Esta situación genera preocupaciones significativas sobre la seguridad, la gestión de credenciales y el rastro de auditoría. Ante esta brecha, algunas organizaciones han optado por prohibir completamente los agentes autónomos hasta que se establezca una estrategia clara de implementación. KiloClaw para Organizaciones busca ser la solución, proporcionando la visibilidad y el control necesarios para integrar estos agentes de manera segura y formalizada dentro de la infraestructura corporativa.

KiloClaw para Organizaciones aborda la fragmentación de sesiones y la fiabilidad de los agentes a través de su "método queso suizo", aplicando capas de seguridad y salvaguardas deterministas para asegurar la ejecución de tareas, i ncluso si la lógica subyacente del agente falla. KiloClaw Chat, por su parte, simplifica la interacción del usuario, eliminando la necesidad de configurar canales de terceros como Telegram o Discord, lo que representa una barrera técnica para muchos. El paquete empresarial incluye características clave de gobernanza como gestión de identidad con SSO/OIDC, facturación centralizada, controles administrativos para políticas de uso y configuración segura de secretos a través de integraciones con gestores de contraseñas. La propuesta de Kilo incluye un innovador modelo de "cuentas de bot" para cada empleado, otorgando a los agentes identidades separadas con permisos estrictamente limitados y de solo lectura para garantizar la seguridad de los datos.

Fuente Original: https://venturebeat.com/orchestration/the-end-of-shadow-ai-at-enter prises-kilo-launches-kiloclaw-for-organizations

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

IA Clona Software de Codigo Abierto Instantaneamente

Dos investigadores de software han demostrado recientemente cómo las herramientas de inteligencia artificial modernas pueden reproducir proyectos completos de código abierto en cuestión de minutos, creando versiones propietarias que parecen tanto funcionales como legalmente distintas. Esta demostración, en parte satírica, revela la rapidez con la que la IA está difuminando las fronteras tradicionales entre la innovación en programación, las leyes de derechos de autor y los principios de código abierto que sustentan gran parte de Internet moderna.

IA Clona Software de Código Abierto Instantáneamente

Dylan Ayrey, fundador de Truffle Security, y Mike Nolan, arquitecto de software del Programa de Desarrollo de las Naciones Unidas, presentaron una herramienta llamada malus.sh. Por una pequeña tarifa, este servicio puede "recrear cualquier proyecto de código abierto", generando código legalmente distinto con licencias favorables para empresas, sin necesidad de atribución, sin copyleft y sin problemas aparentes. Este caso de prueba muestra cómo las leyes de propiedad intelectual, aún arraigadas en precedentes del siglo XIX, chocan con la automatización del siglo XXI.

Desde la sentencia Baker v. Selden de la Corte Suprema de Estados Unidos, los derechos de autor se han entendido como protección de la expresión, no de las ideas. Esta distinción dio origen al diseño de "sala limpia", un método mediante el cual los ingenieros pueden realizar ingeniería inversa de sistemas sin acceder al código fuente original. Phoenix Technologies utilizó famosamente esta técnica para construir su versión del BIOS de PC durante la década de 1980, un proceso que requería meses de trabajo.

El experimento de Ayrey y Nolan demuestra cómo la IA puede ejecutar un proceso de sala limpia en minutos en lugar de meses. Sin embargo, más rápido no necesariamente significa más justo. Los esfuerzos tradicionales de sala limpia requerían equipos humanos para documentar y replicar la funcionalidad, un proceso que demandaba supervisión legal y trabajo significativo. En contraste, una "sala limpia" mediada por IA puede invocarse con unos pocos comandos, planteando interrogantes sobre si tal replicación todavía cuenta como uso justo o creación independiente, y desafiando los fundamentos éticos y legales del desarrollo de software de código abierto.

Fuente Original: https://news.slashdot.org/story/26/04/01/164232/ai-can-clone-open-source-software-in-minutes?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT