jueves, 19 de marzo de 2026

IA Reduce el Impacto Climatico del Vuelo Adios Estelas Nocivas

¿Sabías que las estelas de los aviones, esas largas huellas blancas en el cielo, contribuyen al cambio climático? Google ha estado investigando cómo la inteligencia artificial (IA) puede ser nuestra aliada para mitigar este impacto, y los resultados son prometedores. En un estudio reciente, se integraron los pronósticos de IA de Google directamente en las herramientas de planificación de vuelos de American Airlines.

IA Reduce el Impacto Climático del Vuelo: ¡Adiós Estelas Nocivas!

El objetivo era simple pero ambicioso: evitar la formación de estas estelas dañinas. En un ensayo que abarcó 2,400 vuelos transatlánticos, se observó una impresionante reducción del 62% en la formación de estelas en comparación con un grupo de control. Esto significa que, al planificar los vuelos de manera inteligente, utilizando la IA para predecir dónde se formarán las estelas y ajustando las rutas para evitarlas, podemos disminuir significativamente su efecto en el clima.

Este avance es especialmente importante porque automatiza un proceso que antes requería horas de coordinación manual. Si bien un estudio piloto anterior ya había demostrado una reducción del 54% en 70 vuelos, la integración directa en el software de las aerolíneas marca un paso gigantesco hacia la escalabilidad y la rentabilidad. Google está entusiasmado por seguir colaborando con la industria aérea para hacer de la evitación de estelas una realidad común, ofreciendo una solución práctica y efectiva para volar de forma más sostenible y reducir la huella climática de nuestros viajes aéreos.

Fuente Original: https://blog.google/innovation-and-ai/models-and-research/google-research/contrail-avoidance-research/

Artículo generado mediante LaRebelionBOT

MiniMax M27 Self-Evolving AI Redefines Research Workflow

Chinese AI startup MiniMax has unveiled its latest proprietary large language model, M2.7, marking a significant leap forward in AI development. What sets M2.7 apart is its groundbreaking 'self-evolving' capability. Instead of relying solely on human intervention for fine-tuning, M2.7 is instrumental in its own creation and optimisation. This sophisticated model can independently build, monitor, and refine its reinforcement learning harnesses, performing between 30% and 50% of its own development workflow.

MiniMax M2.7: Self-Evolving AI Redefines Research Workflow

This recursive self-improvement signifies a paradigm shift in the AI industry, moving towards a future where AI models are not just products of human research but also active participants in their own advancement. M2.7 is a reasoning-only text model that delivers intelligence comparable to leading AI systems while boasting superior cost efficiency. This proprietary model follows a trend seen in other Chinese AI firms, like z.ai, moving towards more proprietary frontier models, mirroring strategies adopted by US tech giants.

Technically, M2.7's self-evolution involves autonomously triggering log reading, debugging, and metric analysis. It optimises its programming performance by analysing failure patterns and planning code modifications through iterative loops. MiniMax's Head of Engineering, Skyler Miao, highlighted the model's intentional training for enhanced planning and user requirement clarification. M2.7 has also demonstrated impressive performance in complex environments, achieving a high medal rate in machine learning competitions designed to test autonomous research skills, placing it neck-and-neck with top-tier models from Google and Anthropic.

When compared to its predecessor, M2.5, M2.7 shows substantial improvements across various benchmarks. It excels in software engineering, achieving scores that match global leaders, and demonstrates high performance in professional office tasks, particularly document processing. A notable achievement is the significant reduction in its hallucination rate, a key metric for AI reliability. While not all benchmarks show M2.7 outperforming M2.5, its overall advancements and unique self-evolving architecture position it as a significant development in AI research and application.

Fuente Original: https://venturebeat.com/technology/new-minimax-m2-7-proprietary-ai-model-is-self-evolving-and-can-perform-30-50

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

IA Empresarial Microsoft Unifica la Realidad de los Agentes

En el vertiginoso mundo de la inteligencia artificial empresarial, los agentes de IA, al construirse en distintas plataformas, a menudo operan con "versiones de la realidad" diferentes. Esto se debe a que cada agente interpreta conceptos de negocio, como clientes u órdenes, a su manera, lo que genera inconsistencias y rompe las decisiones. Microsoft ha presentado una solución para este problema con una expansión significativa de Fabric IQ, su capa de inteligencia semántica.

IA Empresarial: ¡Microsoft Unifica la Realidad de los Agentes!

Fabric IQ ahora permite que cualquier agente, de cualquier proveedor, acceda a su ontología de negocio a través del estándar MCP (Microsoft Fabric). Esto significa que todos los agentes, independientemente de quién los haya desar rollado o para qué propósito, compartirán un conocimiento y contexto común. Además, Microsoft está integrando la planificación empresarial en Fabric IQ, unificando datos históricos, señales en tiempo real y objetivos organizacionales formales en una única capa consultable. La novedad del Database Hub también centraliza varias bases de datos de Azure bajo un mismo plano de gestión, fortaleciendo la estrategia de Fabric para ser una plataforma unificada.

La clave de esta evolución es el acceso a través de MCP, que convierte Fabric IQ en una infraestructura compartida para despliegues de agentes multi-proveedor. A diferencia de las técnicas como RAG (Retrieval-Augmented Generation), que son útiles para consultar grandes volúmenes de documentos, Fabric IQ se enfoca en proporcionar el estado del negocio en tiempo real y el contexto operativo fundamental que los agentes necesitan para funcionar de manera coherente. Los analistas ven el potencial de Microsoft, pero s eñalan que la adopción dependerá de la facilidad de integración y la capacidad de las organizaciones para gestionar esta nueva capa semántica como infraestructura de producción. La carrera por la plataforma de datos se centra ahora en quién puede ofrecer el contexto compartido más confiable a la mayor cantidad de agentes.

Fuente Original: https://venturebeat.com/data/enterprise-ai-agents-keep-operating-from-different-versions-of-reality

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Xiaomi Revoluciona IA con MiMo-V2-Pro Ultraeficiente

Xiaomi ha sorprendido al mundo de la inteligencia artificial con el lanzamiento de MiMo-V2-Pro, un modelo de lenguaje de 1 billón de parámetros que alcanza niveles de rendimiento comparables a GPT-5.2 y Claude Opus 4.6, pero a una fracción del costo. Dirigido por Fuli Luo, veterano del disruptivo proyecto DeepSeek R1, este modelo representa lo que Luo describe como una "emboscada silenciosa" en la frontera global de la IA. La compañía ha anunciado planes para liberar una versión de código abierto cuando el modelo alcance la estabilidad necesaria.

Xiaomi Revoluciona IA con MiMo-V2-Pro Ultraeficiente

MiMo-V2-Pro se distingue por su arquitectura dispersa innovadora: aunque contiene 1 billón de parámetros totales, solo 42 mil millones están activos durante cada procesamiento, haciéndolo tres veces más grande que su predecesor. El modelo utiliza un mecanismo de Atención Híbrida mejorado con una proporción 7:1, permitiendo gestionar una ventana de contexto masiva de 1 millón de tokens sin la degradación de rendimiento típica. Esta arquitectura permite al modelo mantener una "memoria" profunda de tareas prolongadas mientras optimiza recursos computacionales de manera eficiente.

En benchmarks de terceros verificados por Artificial Analysis, MiMo-V2-Pro alcanzó el puesto número 10 en el Índice Global de Inteligencia con una puntuación de 49, ubicándose en el mismo nivel que GPT-5.2 Codex. En tareas de agentes del mundo real medidas por GDPval-AA, logró un Elo de 1426, superando a sus principales competidores chinos como GLM-5 y Kimi K2.5. El modelo también demostró mejoras significativas con una tasa de alucinación reducida al 30 por ciento, comparado con el 48 por ciento de su versión Flash anterior.

El aspecto más disruptivo de MiMo-V2-Pro es su estrategia de precios agresiva. Ejecutar el índice completo de Artificial Analysis costó solo 348 dólares, en comparación con 2,304 dólares para GPT-5.2 y 2,486 dólares para Claude Opus 4.6, aproximadamente una séptima parte del costo. El modelo cobra 1 dólar por millón de tokens de entrada y 3 dólares por millón de tokens de salida para contextos de hasta 256K, posicionándose como una opción extremadamente competitiva frente a los gigantes occidentales de IA.

Xiaomi, reconocida como el tercer fabricante de smartphones más grande del mundo y una potencia emergente en vehículos eléctricos, está aplicando su experiencia en ingeniería del mundo físico a la IA. MiMo-V2-Pro está diseñado para ser el "cerebro" de sistemas complejos, desde la gestión de cadenas de suministro globales hasta agentes de codificación autónomos. Al enfocarse en el "espacio de acción" de la inteligencia en lugar del paradigma conversacional, Xiaomi intenta dar un salto cualitativo en cómo se aplica la IA en entornos empresariales y de producción.

Fuente Original: https://venturebeat.com/technology/xiaomi-stuns-with-new-mimo-v2-pro-llm-nearing-gpt-5-2-opus-4-6-performance

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

CISA Alerts Critical Zimbra and SharePoint Vulnerabilities

The Cybersecurity and Infrastructure Security Agency (CISA) has issued urgent warnings regarding active exploitation of critical security vulnerabilities affecting Zimbra and Microsoft SharePoint platforms. These alerts come alongside concerning reports of a Cisco zero-day vulnerability being leveraged in recent ransomware campaigns, highlighting the escalating threat landscape facing organisations worldwide.

CISA Alerts: Critical Zimbra and SharePoint Vulnerabilities

The vulnerabilities in question pose significant risks to enterprise communications and collaboration infrastructure. Zimbra, a widely-used email and collaboration platform, has been found to contain security flaws that threat actors are actively exploiting to gain unauthorised access to corporate networks. Similarly, Microsoft SharePoint, deployed across countless organisations for document management and collaboration, has been identified as having exploitable weaknesses that could allow attackers to compromise sensitive business data.

Perhaps most alarming is the revelation that cybercriminals have incorporated a Cisco zero-day vulnerability into their ransomware attack chains. This development demonstrates the sophisticated nature of modern cyber threats, where attackers combine multiple vulnerabilities to maximise their impact and evade detection. The use of previously unknown vulnerabilities in network infrastructure devices like Cisco equipment gives attackers powerful capabilities to move laterally across networks and establish persistent access.

Security professionals are being urged to prioritise patching these vulnerabilities immediately. CISA's warnings underscore the critical need for organisations to maintain robust vulnerability management programmes and implement zero-trust network architecture principles. The modern security paradigm emphasises moving away from traditional VPN-based access models towards comprehensive Zero Trust Network Access (ZTNA) solutions that connect users directly to applications, thereby eliminating opportunities for lateral movement within networks.

Organisations should conduct immediate audits of their Zimbra and SharePoint deployments, apply all available security patches, and review their network segmentation strategies. The convergence of these threats serves as a stark reminder that cybersecurity requires constant vigilance and proactive defence measures.

Fuente Original: https://thehackernews.com/2026/03/cisa-warns-of-zimbra-sharepoint-flaw.html

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

miércoles, 18 de marzo de 2026

IA Empresarial El Problema de Autorizacion que Puede Romperla

La inteligencia artificial (IA) generativa está revolucionando el mundo empresarial, pero trae consigo un desafío de seguridad fundamental: la gestión de la identidad y autorización de los agentes de IA. A medida que estos agentes interactúan con sistemas críticos como CRMs y bases de datos, surge la pregunta crucial: ¿quién o qué está autorizando estas acciones? La falta de un marco claro para definir la identidad y los permisos de los agentes de IA podría convertirse en un obstáculo insuperable para su adopción generalizada.

IA Empresarial: El Problema de Autorización que Puede Romperla

Las empresas se enfrentan a la necesidad de ir más allá de la simple autenticación. Mientras que otorgar credenciales a un agente puede ser relativamente sencillo, determinar qué acciones específicas tiene permitidas, bajo qué autoridad y durante cuánto tiempo, es un problema mucho más complejo. La tendencia actual de los desarrolladores a pegar directamente credenciales en las indicaciones de la IA, un riesgo de seguridad conocido, subraya la urgencia de soluciones robustas. Se está experimentando con estándares como SPIFFE y SPIRE, pero la adaptación a los agentes de IA no es directa. La clave reside en aplicar el principio de mínimo privilegio a las tareas específicas que el agente debe realizar, en lugar de otorgar permisos amplios basados en roles generales.

La dificultad no radica tanto en autenticar a un agente, sino en autorizar sus acciones de manera granular y auditable. Esto implica rastrear no solo qué agente actuó, sino también bajo qué autoridad y con qué credenciales. Se están explorando extensiones de OIDC como la solución principal, mientras que las propuestas propietarias de startups son vistas con escepticismo. A escala masiva, los casos límite se convierten en problemas reales que pueden causar un daño significativo. La solución definitiva pasará por construir una infraestructura de identidad desde cero, adaptada a la naturaleza de los agentes de IA, en lugar de intentar forzar las soluciones existentes diseñadas para humanos.

Fuente Original: https://venturebeat.com/security/the-authorization-problem-that-could-break-enterprise-ai

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Open AI Companies Embrace Risk for Innovation

In the rapidly evolving landscape of artificial intelligence, companies are increasingly opting for open AI models despite the inherent risks. This strategic choice is driven by a belief that the potential benefits of widespread access and collaborative development far outweigh the challenges.

Open AI: Companies Embrace Risk for Innovation

The article highlights that while open AI models offer significant advantages, such as fostering faster innovation and broader adoption, they also present considerable dangers. These risks include the potential for misuse, the spread of misinformation, and the development of harmful applications. However, many leading technology firms are willing to navigate these complexities, viewing them as necessary hurdles in the pursuit of groundbreaking advancements.

The decision to embrace open AI s ignifies a shift in how companies approach AI development. Instead of maintaining proprietary control, there's a growing trend towards sharing technology and knowledge, which proponents argue will accelerate progress and democratise access to powerful AI tools. This open approach allows a wider community of researchers and developers to contribute, identify vulnerabilities, and build upon existing frameworks, ultimately leading to more robust and beneficial AI systems. The underlying sentiment is that the collective intelligence and shared responsibility fostered by open models are crucial for unlocking AI's full potential, even with the associated security and ethical considerations.

Fuente Original: https://news.google.com/rss/articles/CBMiqwFBVV95cUxPbms3V2d3RjdVc0hnQlBLSTBfMHh2VHRGaGV2X2xQLUx6XzVDTDh6ZnBONy1mdTUzN0xFUzMwYXF0UFlyeGdhNVBmT3ROdXNrUUE2RnhZdkw1ZjVxbGRVaTUwWnFSemV6dnd3Yjk3Rk1HaUJtYTVXNlVDV19fTnZndUZTTEo1VThHdENKV1B0RnFpa0NuV1ZmQ0s1T3RMN2Y2emI0c0JmN09MS0U?oc=5

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Nvidia Desata Poderosas Claws IA Empresariales Seguras

Nvidia está revolucionando el panorama de la inteligencia artificial empresarial con el lanzamiento de NemoClaw, una plataforma diseñada para integrar y asegurar la creciente adopción de agentes autónomos de IA, conocidos como 'claws'. Estos 'claws' representan un salto cualitativo respecto a los asistentes de IA anteriores, ya que son capaces de planificar, ejecutar tareas complejas, escribir código, navegar por internet y encadenar acciones de forma independiente durante extensos períodos de tiempo, sin intervención humana. El CEO de Nvidia, Jensen Huang, ha calificado a esta tecnología como el "sistema operativo para la IA personal", marcando un "nuevo renacimiento en el software" y posicionando a Nvidia como un actor clave en su preparación para el entorno empresarial.

Nvidia Desata Poderosas 'Claws' IA Empresariales Seguras

NemoClaw no es un competidor de plataformas como OpenClaw, sino un "envoltorio empresarial" que añade las capas de seguridad y escalabilidad necesarias para que estos agentes operen de forma fiable en entornos corporativos. Sus dos componentes principales son Nvidia Nemotron, una familia de modelos de IA de código abierto que pueden ejecutarse localmente, y Nvidia OpenShell, un runtime de seguridad de código abierto. OpenShell actúa como un entorno seguro, aislando cada 'claw' dentro de un contenedor (similar a Docker) con políticas configurables en YAML. Esto permite a los administradores definir con precisión qué archivos, conexiones de red y servicios en la nube puede utilizar un agente, bloqueando cualquier acceso no autorizado y mitigando así la superficie de ataque que de otro modo sería considerable.

La integración de NemoClaw aborda directamente la preocupación gener alizada sobre la seguridad y la gobernanza de los agentes autónomos. Harrison Chase, fundador de LangChain, subraya la demanda existente de una versión segura de estas tecnologías en las empresas, siendo la falta de una capa de seguridad y gobernanza creíble el principal obstáculo. Nvidia responde a este desafío con NemoClaw, que no solo facilita la ejecución local de modelos de IA avanzados, sino que también incluye un "router de privacidad" que dirige consultas a modelos más potentes en la nube cuando es necesario, sin exponer datos sensibles. La plataforma se complementa con el Nvidia Agent Toolkit y cuenta con el respaldo de importantes socios como Box y Cisco, quienes ya están demostrando el potencial de los 'claws' en flujos de trabajo como la gestión de documentos empresariales o la respuesta automatizada a vulnerabilidades de seguridad, demostrando un compromiso integral de Nvidia para hacer que la IA autónoma sea segura, escalable y accesible para el mundo empre sarial.

Fuente Original: https://venturebeat.com/technology/nvidia-lets-its-claws-out-nemoclaw-brings-security-scale-to-the-agent

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Mistral AI Lanza Forge para Entrenar Modelos Propios

Mistral AI ha lanzado Forge, una plataforma empresarial de entrenamiento de modelos que permite a las organizaciones construir, personalizar y mejorar continuamente modelos de IA utilizando sus propios datos propietarios. Este movimiento posiciona al laboratorio francés de IA en competencia directa con los gigantes de la nube en uno de los mercados más importantes de la tecnología empresarial.

Mistral AI Lanza Forge para Entrenar Modelos Propios

Forge va significativamente más allá de las APIs de ajuste fino que Mistral y sus competidores han ofrecido durante el último año. La plataforma soporta el ciclo completo de entrenamiento de modelos: pre-entrenamiento con grandes conjuntos de datos internos, post-entrenamiento mediante ajuste fino supervisado, y lo más crítico, pipelines de aprendizaje por refuerzo diseñados para alinear modelos con políticas internas y objetivos operacionales a lo largo del tiempo. Según Elisa Salamanca, jefa de producto en Mistral AI, Forge permite a empresas y gobiernos personalizar modelos de IA para sus necesidades específicas utilizando metodologías que los científicos de IA de Mistral emplean internamente.

La distinción que Mistral está estableciendo entre el ajuste fino ligero y el entrenamiento completo de modelos es fundamental. Durante los últimos dos años, la mayoría de la adopción empresarial de IA ha seguido un patrón conocido: las empresas seleccionan un modelo de propósito general y aplican ajustes a través de una API en la nube. Sin embargo, Salamanca argumenta que este enfoque se estanca cuando las organizaciones intentan resolver sus problemas más difíciles. Los ejemplos de clientes incluyen una institución pública que trabajaba con manuscritos antiguos con texto faltante, Ericsson traduciendo código heredado a moderno, y fondos de cobertura desarrollando modelos para lenguajes cuantitativos propietarios que nunca exponen a servicios de IA alojados en la nube.

El modelo de negocio de Forge opera a través de varias fuentes de ingresos. Para clientes que ejecutan trabajos de entrenamiento en sus propios clusters de GPU, Mistral no cobra por el cómputo sino que cobra una tarifa de licencia por la plataforma Forge, junto con tarifas opcionales por servicios de pipeline de datos y científicos integrados que trabajan junto al equipo del cliente. La infraestructura es flexible: el entrenamiento puede ocurrir en los clusters de Mistral, en Mistral Compute, o completamente on-premise dentro de los centros de datos del cliente. Cuando los clientes entrenan en su propia infraestructura, Mistral nunca ve los datos, manteniéndolos completamente bajo control del cliente.

El lanzamiento de Forge llega junto con otros anuncios importantes de Mistral: el modelo Mistral Small 4, Leanstral (un agente de código open-source para verificación formal), y su unión a la Coalición Nemotron de Nvidia como co-desarrollador del primer modelo base abierto de frontera de la coalición. Estos movimientos pintan el cuadro de una compañía que ya no se contenta con competir solo en benchmarks de modelos, sino que corre para convertirse en la columna vertebral de infraestructura para organizaciones que quieren poseer su IA en lugar de rentarla. Forge representa una apuesta de que las empresas que posean sus modelos de IA serán las que ganen, especialmente aquellas sentadas sobre décadas de conocimiento propietario en dominios altamente especializados donde los modelos genéricos son menos suficientes.

Fuente Original: https://venturebeat.com/infrastructure/mistral-ai-launches-forge-to-help-companies-build-proprietary-ai-models

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Mamba 3 Revolutionises AI With Superior Efficiency

The artificial intelligence landscape has been dominated by Transformer architecture since Google's groundbreaking 2017 paper, but a new challenger has emerged that promises to reshape how we think about AI efficiency. Mamba 3, the latest iteration of the State Space Model architecture, has been released under an open-source Apache 2.0 licence, offering developers and enterprises a compelling alternative that delivers nearly 4% improved language modelling performance whilst significantly reducing computational costs and latency.

Mamba 3 Revolutionises AI With Superior Efficiency

Developed by researchers led by Albert Gu of Carnegie Mellon and Tri Dao of Princeton, Mamba 3 represents a fundamental shift from training efficiency to an "inference-first" design philosophy. Unlike Transformers, which require massive computational resources and suffer from quadratic compute demands, Mamba 3 functions as a high-speed "summary machine" that maintains a compact internal state rather than re-examining every piece of previously processed data. This State Space Model approach allows AI to process vast amounts of information with incredible speed and drastically lower memory requirements.

The breakthrough centres on three key technological innovations. First, exponential-trapezoidal discretisation provides more accurate mathematical approximations of the system. Second, complex-valued SSMs employing the "RoPE trick" enable the model to solve reasoning tasks that were impossible for previous versions, finally bridging the "logic gap" that plagued efficient Transformer alternatives. Third, the Multi-Input, Multi-Output formulation transforms how the model interacts with hardware, performing up to four times more mathematical operations in parallel without increasing user wait times.

At the 1.5-billion-parameter scale, Mamba 3's most advanced variant achieved 57.6% average accuracy across benchmarks, representing a 2.2-percentage-point improvement over industry-standard Transformers. Perhaps most impressively, it matches its predecessor's predictive quality whilst using only half the internal state size, effectively delivering the same intelligence with significantly less memory overhead. This efficiency translates directly into reduced costs for enterprises deploying AI at scale.

For businesses, Mamba 3 offers a strategic advantage in total cost of ownership for AI deployments. By matching performance with half the state size, it effectively doubles inference throughput for the same hardware footprint. This makes it particularly valuable for agentic workflows like automated coding or real-time customer service, where low-latency generation is critical. The researchers predict the future lies in hybrid models that combine Mamba 3's efficient memory with Transformers' precise storage capabilities, offering organisations the best of both approaches.

Fuente Original: https://venturebeat.com/technology/open-source-mamba-3-arrives-to-surpass-transformer-architecture-with-nearly

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

martes, 17 de marzo de 2026

Microsoft y Nscale Campus IA con GPUs NVIDIA en Virginia

Nscale ha anunciado un acuerdo histórico con Microsoft para desarrollar un campus masivo de inteligencia artificial en Mason County, West Virginia. Este ambicioso proyecto se centrará en la implementación de la próxima generación de GPUs de NVIDIA, las Vera Rubin NVL72, desplegando aproximadamente 430,000 de estas potentes unidades.

Microsoft y Nscale: Campus IA con GPUs NVIDIA en Virginia

El acuerdo, formalizado como una carta de intención (LOI), es un hito significativo para Nscale y el desarrollo de su Monarch Compute Campus. Este campus, de más de 2,250 acres, se presenta como la primera microred de IA certificada a nivel estatal en Estados U nidos, con una capacidad energética potencial escalable a más de ocho gigawatts. La adquisición de este sitio se realizó a través de la compra de American Intelligence & Power Corporation (AIPCorp).

Un desafío clave para un campus de esta magnitud es el suministro eléctrico. Nscale ha optado por una solución independiente de la red eléctrica tradicional, colaborando con Caterpillar para desplegar generadores de gas natural que proporcionarán dos gigawatts de energía para mediados de 2028. Esta independencia energética busca eliminar la carga sobre los clientes de la red local y proteger sus facturas. Además, Nscale está explorando la captura de carbono para compensar las emisiones de los generadores, aprovechando la capacidad de secuestro en West Virginia.

La ubicación del campus no es casual. Se encuentra estratégicamente cerca de importantes centros de IA y la nube, como Ashburn, Virginia, lo que permite una baja latencia para cargas de trabajo de I A que requieren conexiones rápidas a infraestructura adyacente. Este acuerdo con Microsoft profundiza una relación comercial existente, donde Microsoft ya es cliente de Nscale en Noruega. El proyecto Monarch posiciona a Nscale como uno de los despliegues de computación de IA más grandes anunciados en el mercado estadounidense, sujeto a su ejecución.

Fuente Original: https://thenextweb.com/news/nscale-west-virginia-monarch-microsoft-vera-rubin

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

2026s Top First Class Suites Airline Luxury Revealed

Get ready for an elevated travel experience! As we look ahead to 2026, the world of aviation is set to unveil some truly astonishing First Class suites, pushing the boundaries of luxury and comfort in the sky. Simple Flying has compiled a list of the airlines that are leading the charge, promising passengers an unparalleled journey that rivals any five-star hotel.

2026's Top First Class Suites: Airline Luxury Revealed!

These aren't just seats; they're private sanctuaries designed for the discerning traveller. Expect features like spacious living areas, lie-flat beds that are more like king-sized mattresses, and integrated entertainment systems that would make any home cinema envious. Beyond the physical space, airlines are focusing on personalised service, gourmet dining options curated by top chefs, and amenities that cater to eve ry need, from designer amenity kits to on-demand cabin crew attention. The emphasis is on creating a bespoke experience, making long-haul flights feel less like a necessity and more like a destination in themselves. This new generation of First Class is all about exclusivity, cutting-edge technology, and an unwavering commitment to passenger well-being.

The article highlights the innovative designs and technologies being implemented by various airlines. These advancements aim not only to provide supreme comfort but also to enhance the overall travel experience through smart features and sophisticated aesthetics. As airlines compete to offer the ultimate in premium travel, passengers can anticipate a future where flying First Class is an experience of pure indulgence and sophisticated convenience.

Fuente Original: https://news.google.com/rss/articles/CBMihwFBVV95cUxQTGREWjlVd3JoZmlCdzFUTWlmVjhweTlMa1V6RFFrNlk3eHpsZ2drV3d1VDRIVW9YLTJkSUQzS2RlS0FEaU1FdHg2TUphcGljLTJELUVsTENpY0c1SlloUEpPV21ROUFVTHRHNmFHTWdWcXM5MEc0VGwyY3hISzBLT2hPMlVjTGs?oc=5

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Britannica demanda a OpenAI por plagio y marca registrada

¡Atención, amantes de la información! La venerable Encyclopedia Britannica ha decidido tomar cartas en el asunto y ha presentado una demanda contra OpenAI, la compañía detrás de herramientas de inteligencia artificial como ChatGPT. El motivo principal es la presunta utilización masiva de casi 100,000 artículos con derechos de autor para entrenar los modelos de IA de OpenAI.

Britannica demanda a OpenAI por plagio y marca registrada

La querella no solo acusa a OpenAI de infracción de derechos de autor por el uso no autorizado de su contenido, sino que también señala que las respuestas generadas por ChatGPT a veces reproducen, de forma literal o parcial, pasajes de los artículos de Britannica. Esto representa un uso indebido a gran escala del material protegido.

Pero la cosa no termina ahí. Britannica también alega infracción de marca registrada, argumentando que ChatGPT crea contenido falso o inventado, conocido como 'alucinaciones', y lo atribuye erróneamente a la Encyclopedia Britannica. Además, la demanda sugiere que herramientas como ChatGPT desvían tráfico valioso de los sitios web de Britannica y Merriam-Webster. Aunque no se especifica una cantidad de daños monetarios, Britannica busca una orden judicial para detener estas prácticas, protegiendo así su valioso legado intelectual y su modelo de negocio. Un capítulo crucial en la batalla por los derechos de autor en la era de la inteligencia artificial.

Fuente Original: https://yro.slashdot.org/story/26/03/16/182217/encyclopedia-britannica-sues-openai-for-copyright-trademark-infringement?utm_source=rss1.0mainlinkanon&amp ;utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Ciberespionaje Chino Ataca Telecomunicaciones en Sudamerica

Una sofisticada campaña de ciberespionaje vinculada a China ha puesto en jaque a los proveedores de telecomunicaciones en Sudamérica. El grupo identificado como UAT-9244 ha desplegado una operación multinivel utilizando malware especializado capaz de comprometer sistemas Windows, Linux y dispositivos de red críticos. Esta amenaza representa un riesgo significativo para la infraestructura de comunicaciones de la región, destacando el interés estratégico de actores estatales en sectores sensibles.

Ciberespionaje Chino Ataca Telecomunicaciones en Sudamérica

Según la investigación de Cisco Talos, la actividad de UAT-9244 se ha detectado desde 2024 y muestra conexiones operativas con FamousSparrow, otro clúster de amenazas asociado a intereses chinos. Los atacantes han desplegado tres herramientas principales: TernDoor para comprometer sistemas Windows, PeerTime orientado a servidores Linux corporativos, y BruteEntry diseñado para explotar dispositivos de borde como routers y firewalls. Esta arquitectura multiplataforma permite a los atacantes adaptarse a diferentes componentes de la infraestructura tecnológica objetivo.

La estrategia de ataque revela un enfoque meticuloso centrado en el espionaje prolongado. Una vez que logran el acceso inicial mediante BruteEntry, los atacantes establecen persistencia a través de TernDoor y PeerTime, lo que les permite ejecutar comandos remotos y realizar movimientos laterales dentro de las redes comprometidas. A diferencia de campañas de ransomware o sabotaje directo, el objetivo principal es la recopilación continua de inteligencia y el monitoreo silencioso de las comunicaciones.

El sector de telecomunicaciones resulta particularmente atractivo para operaciones de espionaje debido a que gestiona volúmenes masivos de datos sensibles y proporciona servicios críticos de comunicación. Una intrusión exitosa puede derivar en filtración de información confidencial, espionaje industrial o incluso interrupciones estratégicas en infraestructuras esenciales. La naturaleza multiplataforma del malware utilizado incrementa significativamente la complejidad para detectar y responder a estos incidentes.

Los expertos recomiendan implementar medidas de seguridad robustas que incluyan el refuerzo de defensas perimetrales, segmentación efectiva de redes y restricción de servicios innecesarios en dispositivos críticos. Además, resulta fundamental mantener todos los sistemas actualizados con los últimos parches de seguridad y desplegar soluciones avanzadas de detección de intrusiones como EDR y XDR. Esta campaña demuestra que las organizaciones de infraestructura crítica deben adoptar estrategias de defensa en profundidad y vigilancia continua para enfrentar amenazas persistentes avanzadas patrocinadas por estados.

Fuente Original: https://unaaldia.hispasec.com/2026/03/uat-9244-ciberespionaje-chino-apunta-a-telecomunicaciones-en-sudamerica-con-backdoors-multiplataforma.html?utm_source=rss&utm_medium=rss&utm_campaign=uat-9244-ciberespionaje-chino-apunta-a-telecomunicaciones-en-sudamerica-con-backdoors-multiplataforma

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT