7 minutos de lectura
28/10/2025
Llega la consolidación de la IA: los últimos informes de Gartner validan que pasamos de desarrollos de LLMs a flujos de trabajo agénticos
La investigación de Gartner sobre IA empresarial confirma lo que veníamos diciendo sobre el futuro de los modelos de negocio de IA: la verdadera oportunidad reside en los flujos de trabajo agénticos multilingües.
El panorama de la inteligencia artificial se encuentra en un punto de inflexión que recuerda notablemente a los albores de la generación eléctrica. Al igual que innumerables pequeñas compañías eléctricas acabaron dando paso a redes estandarizadas y modelos de servicio público, la última investigación de Gartner confirma que nos dirigimos hacia una consolidación significativa en la IA. Una consolidación que está a punto de reconfigurar quién gana y quién pierde fundamentalmente en este espacio, ya que actores inesperados de diversas regiones surgirán como líderes regionales y culturalmente relevantes.
La gran consolidación de la IA: la predicción del 75% de Gartner
Según el informe "Critical Insights" de Gartner, se espera que para 2029 el panorama tecnológico de la GenAI se consolide, reduciéndose el número de actores en un 75%, a medida que los hiperescaladores y los proveedores de plataformas SaaS se expandan y absorban a los proveedores de nube híbrida. No es especulación de mercado: es la consecuencia inevitable de las fuerzas económicas que ya están reconfigurando la industria.
Las similitudes con el desarrollo histórico de las infraestructuras son notables. Gartner identifica que estamos pasando de un período de "fragmentación de proveedores" a una consolidación mediante adquisiciones y quiebras de mercado. Al igual que la industria eléctrica evolucionó desde miles de generadores locales hasta unas pocas grandes compañías eléctricas, la IA está siguiendo el mismo camino.
Por qué desarrollar LLM es una apuesta perdedora (para la mayoría)
La investigación de Gartner valida lo que hemos observado: el enfoque actual en construir modelos de lenguaje cada vez más grandes es económicamente insostenible para la mayoría de los actores. Algunos gobiernos (la UE con su EuroLLM y OpenEuroLLM, España con los recientes modelos Salamandra del Barcelona Supercomputing Center, Arabia Saudí con su ALLaM-2-7B, e incluso en África con el pequeño modelo de lenguaje InkubaLM entrenado para cinco lenguas africanas: isizulu, yoruba, hausa, suajili e isixhosa) se están poniendo al día, pero no están apostando por los mega-modelos que consumen ingentes cantidades de energía. El énfasis se pone en modelos más pequeños y portables que destacan en la GenAI, específicamente en la GenAI privada, y que generan lenguaje o realizan tareas lingüísticas con un alto grado de fiabilidad. Mozilla ha llevado a cabo un análisis muy exhaustivo de LLM locales sin personalizar (7B, 12B, hasta 33B) que la mayoría de las empresas pueden permitirse ejecutar localmente. He aquí un análisis de tareas de traducción, una comparación entre Gemma3:12B y DeepSeek R1:14B.
Según el análisis de Mozilla, los modelos evaluados en el artículo WMT24++ obtuvieron puntuaciones BLEU en el rango de 27 a 32. En cuanto a las puntuaciones COMET, el panel de Opus-MT indica un rango de 48 a 76 para la traducción de inglés a alemán, el cual varía según el conjunto de datos. Los LLM locales que Mozilla exploró eran modelos cuantizados a 4 bits, lo que también podría explicar la reducción en el rendimiento. Si bien los LLM locales ciertamente tenían margen de mejora, marcaron el camino a seguir. Mozilla señaló que, para ciertos casos de uso, los beneficios de la privacidad de los datos y el uso sin conexión pueden compensar las pequeñas concesiones en materia de rendimiento.
El informe "Current State of AI Agents" (Estado Actual de los Agentes de IA) de Gartner revela una conclusión fundamental: los agentes de IA actuales basados en LLM tienen "bajos niveles de agencia". En esencia, son "formas avanzadas de asistentes de IA con características adicionales como el uso de herramientas, pero no realmente agentes de IA".
Esto explica por qué incluso las inversiones multimillonarias en el desarrollo de LLM tienen dificultades para demostrar retornos sostenibles. Los modelos en sí se están convirtiendo en una infraestructura comoditizada, fuertemente subvencionada y que quema efectivo. Incluso desarrollos impresionantes, como DeepSeek de China o los proyectos universitarios europeos impulsados desde Bruselas, están siguiendo este mismo patrón de alta intensidad de capital y bajos márgenes.
La verdadera oportunidad: resultados automatizados, no herramientas
El informe "Rise of the Machines" (El auge de las máquinas) de Gartner identifica el cambio fundamental que ya está en marcha: para 2028, el 30 % de lo que las herramientas de software B2B ofrecen actualmente será reemplazado por proveedores que ofrezcan resultados empresariales integrales en forma de servicios automatizados por IA.
Esta transformación supone un replanteamiento total de la forma en que la IA crea valor. Las herramientas SaaS tradicionales son, en esencia, navajas suizas digitales: ofrecen capacidades, pero requieren una considerable experiencia humana, tiempo y una gestión continua para generar resultados empresariales reales. Uno compra una herramienta de CRM, pero sigue necesitando equipos para configurarla, formar a los usuarios, mantener la calidad de los datos e interpretar los resultados para impulsar la toma de decisiones.
Los servicios de resultados automatizados dan un vuelco total a este modelo. En lugar de venderle un software de traducción, imagine un servicio que simplemente garantiza que sus comunicaciones globales con los clientes estén perfectamente localizadas, gestionando todo, desde el análisis inicial del contenido hasta la adaptación cultural, el control de calidad y la entrega, todo en tiempo real. Usted no gestiona el proceso; simplemente recibe el resultado.
Esta es la estrategia de infraestructura que veníamos anticipando. En lugar de vender «herramientas» de IA que requieren una implementación y un mantenimiento exhaustivos, los ganadores proporcionarán servicios automatizados y basados en resultados a los que las empresas puedan conectarse, igual que conectarse a la red eléctrica.
La economía de los resultados frente a las herramientas
El informe destaca que las principales empresas de IA están alcanzando los 5 millones de dólares en ingresos recurrentes anualizados (ARR) 13 meses más rápido que sus homólogas de SaaS, precisamente porque se centran en ofrecer resultados en lugar de herramientas. Esta aceleración proviene de varias ventajas económicas:
- Reducción de la fricción en la implementación: Las herramientas de IA tradicionales requieren meses de integración, formación y ajuste fino. Los servicios basados en resultados pueden implementarse de inmediato porque la complejidad la gestiona el proveedor, no el cliente.
- Precios basados en el valor: En lugar de pagar por licencias de software, se usen o no con eficacia, los servicios basados en resultados alinean los precios con el valor empresarial real aportado. Gartner señala que "la facturación basada en el uso y los resultados reduce aún más el riesgo de adopción, ya que las empresas solo pagan por lo que necesitan, cuando lo necesitan".
- Escalabilidad sin complejidad: Cuando una empresa se expande a nivel global, las herramientas tradicionales requieren licencias adicionales, formación y gastos generales de gestión. Los servicios basados en resultados escalan automáticamente: si necesita asistencia al cliente en 15 nuevos idiomas de la noche a la mañana, el servicio simplemente se amplía para satisfacer esa necesidad.
La jugada estratégica de la infraestructura
Esta es la estrategia de infraestructura que veníamos anticipando. En lugar de vender «herramientas» de IA que requieren una implementación y un mantenimiento exhaustivos, los ganadores proporcionarán servicios automatizados y basados en resultados a los que las empresas puedan conectarse, igual que conectarse a la red eléctrica.
Cuando uno pulsa un interruptor de la luz, no piensa en la generación de energía, la infraestructura de transmisión o la gestión de la red. Simplemente espera que haya luz. Del mismo modo, cuando las empresas necesitan comunicarse con sus clientes en 47 idiomas, no deberían tener que pensar en modelos de traducción, gestión de flujos de trabajo o protocolos de control de calidad. Simplemente deberían recibir comunicaciones perfectamente localizadas.
Este cambio crea enormes ventajas competitivas para los pioneros (early movers), ya que transforma fundamentalmente la relación con el cliente. Los proveedores de herramientas compiten en características y precios. Los proveedores de resultados se convierten en una infraestructura esencial difícil de reemplazar.
El papel de los LLM en este nuevo paradigma
¿Es este el fin de los LLM tal como los conocemos? No lo creo, pero su papel está cambiando radicalmente. Estos modelos tendrán un lugar como componentes dentro de sistemas automatizados más amplios, en lugar de ser productos independientes. Se están convirtiendo en herramientas especializadas dentro de infraestructuras de entrega de resultados; como los motores en los electrodomésticos, en lugar de productos que se compran por separado.
Los LLM destacan como asistentes para redactar informes, correos electrónicos y realizar investigaciones. Pero somos cada vez más conscientes de sus limitaciones: su naturaleza generativa siempre conllevará el riesgo de producir alucinaciones que, en campos como el derecho, pueden tener consecuencias bochornosas (como citar legislación inexistente, tal y como hemos visto en varios casos de gran repercusión).
Es precisamente por esto que el modelo basado en resultados es superior: nvuelve a los LLM dentro de sistemas que incluyen comprobación de hechos, verificación, supervisión humana y control de calidad. Cuando un servicio de investigación jurídica ofrece un análisis de caso, no se limita a ejecutar consultas en GPT-4; está utilizando los LLM como un componente dentro de un proceso integral que incluye la verificación de bases de datos jurídicas, la comprobación de jurisprudencia y la revisión por parte de expertos.
Flujos de trabajo agénticos: Donde el lenguaje se encuentra con la automatización
Aquí es donde la convergencia se vuelve evidente. Gartner predice que, para 2028, al menos el 15 % de las decisiones laborales diarias se tomarán de forma autónoma mediante IA agéntica, frente al 0 % actual. Pero su investigación también revela que las soluciones actuales de "AI Agent 1.0" tienen dificultades con la "toma de decisiones contextualizada en el ámbito empresarial".
El gran avance vendrá de la mano de agentes de IA multisistema que puedan operar en entornos empresariales diversos, y aquí es donde la infraestructura lingüística se vuelve fundamental. Estos agentes necesitan:
- Acceder a datos empresariales fragmentados en múltiples idiomas y formatos
- Mantener el contexto y el significado a través de las barreras lingüísticas y culturales
- Operar en tiempo real en flujos de trabajo globales y multilingües
- Integrarse con los sistemas empresariales existentes, independientemente de su idioma o configuración regional
La ventaja multilingüe: el idioma como infraestructura
Lo que los informes de Gartner no abordan en profundidad —pero que nuestra experiencia en operaciones lingüísticas pone de manifiesto— es que la diversidad lingüística será un factor diferenciador clave en los flujos de trabajo agénticos. A medida que las empresas se globalizan y los agentes ganan autonomía, la capacidad de operar sin fricciones entre idiomas ya no es solo una característica: se ha convertido en una infraestructura fundacional.
Pensemos en la conclusión de Gartner de que las empresas necesitan "interoperabilidad de los datos" y "colaboración en la nube híbrida" para que los agentes de IA sean eficaces. En una economía global, estos datos existen en docenas de idiomas, con contextos culturales que los actuales modelos grandes de lenguaje (LLM) tienen dificultades para navegar. Las empresas que resuelvan este desafío de automatización multilingüe poseerán una pieza crucial del nuevo stack de infraestructura de IA.
Del hype a los modelos de negocio sostenibles
La investigación de Gartner confirma lo que hemos observado en nuestras propias implementaciones empresariales: el mercado está pasando de la experimentación con IA a exigir resultados claros y un ROI (retorno de la inversión) definido. Sus encuestas muestran que el 59 % de los compradores espera aumentar su gasto en servicios de IA en casi un 20 %, pero quieren soluciones que «reduzcan costes y plantilla, mitiguen riesgos, reduzcan la complejidad e impulsen el crecimiento empresarial».
No se trata de tener el último LLM o el mayor número de parámetros, sino de ofrecer un valor empresarial fiable y medible. En una economía global, ese valor depende cada vez más de operaciones multilingües y fluidas.
La oportunidad de LangOps
A medida que la industria de la IA se consolida en torno a la infraestructura y los resultados, en lugar de en el desarrollo de modelos, las Operaciones Lingüísticas (LangOps) emergen como una capa crítica en el nuevo stack tecnológico. Así como DevOps se volvió esencial para el despliegue de software, LangOps será esencial para el despliegue global de la IA.
Las empresas que sobrevivan a la próxima consolidación no serán las que tengan los modelos más grandes o la mayor financiación de capital riesgo. Serán aquellas que resuelvan problemas de negocio reales con modelos económicos sostenibles; y en nuestro mundo interconectado, eso significa, cada vez más, resolverlos en todos los idiomas que importan para su negocio.
La investigación de Gartner apunta a un futuro en el que la IA será tan ubicua y fiable como la electricidad. Cuando eso ocurra, el valor no estará en generar la energía, sino en habilitar todo lo que esa energía hace posible. Para las empresas globales, esto significa flujos de trabajo ágiles y multilingües que puedan automatizar procesos a través de idiomas, culturas y contextos.
La cuestión no es si la IA se consolidará (la investigación de Gartner muestra que ya está sucediendo). La cuestión es si su organización estará posicionada para prosperar en la capa de infraestructura emergente, o si será parte del 75 % que no superará la transición.
Pangeanic lleva más de dos décadas construyendo infraestructuras y soluciones de IA multilingüe, mucho antes de que se pusiera de moda. Mientras la industria se consolida en torno a modelos de negocio sostenibles y flujos de trabajo agénticos, estamos posicionados para ayudar a las empresas a navegar la transición de la experimentación con IA a la automatización multilingüe a escala.

