PangeaMT ECOChat
PangeaMT ECOChat
Featured Image

6 minute gelesen

08/06/2025

Die KI-Konsolidierung steht bevor: Aktuelle Berichte von Gartner bestätigen die Verlagerung vom LLM-Building hin zu agentenbasierten Workflows.

Gartners Forschung im Bereich Unternehmens-KI bestätigt, was wir schon seit Längerem über die Zukunft von KI-Geschäftsmodellen sagen: Die wahren Chancen liegen in multilingualen, agentenbasierten Workflows.

Die KI-Landschaft befindet sich an einem Wendepunkt, der bemerkenswert stark an die Anfänge der Stromerzeugung erinnert. Genauso wie unzählige kleine Energieunternehmen schließlich standardisierten Netzen und Versorgermodellen wichen, bestätigen die neuesten Untersuchungen von Gartner, dass wir auf eine signifikante Konsolidierung im KI-Bereich zusteuern. Diese Entwicklung wird von Grund auf neu definieren, wer in diesem Sektor gewinnt und verliert, da unerwartete Akteure aus verschiedenen Regionen als regionale, kulturell relevante Champions hervorgehen werden.

Die große KI-Konsolidierung: Gartners 75-%-Prognose

Laut Gartners „Critical Insights“-Bericht wird erwartet, dass sich die GenAI-Technologielandschaft bis 2029 auf 75 % weniger Akteure konsolidieren wird, da Hyperscaler und SaaS-Plattformanbieter expandieren und Hybrid-Cloud-Anbieter absorbieren werden. Das ist keine Marktspekulation – es ist die unausweichliche Konsequenz wirtschaftlicher Kräfte, die die Branche bereits jetzt neu formen.

Die Parallelen zu historischen Infrastrukturentwicklungen sind frappierend. Gartner stellt fest, dass wir uns von einer Phase der „Anbieterfragmentierung“ (vendor fragmentation) hin zu einer Konsolidierung durch Übernahmen und Marktversagen bewegen. So wie sich die Strombranche von Tausenden lokaler Erzeuger zu einer Handvoll großer Versorgungsunternehmen entwickelt hat, schlägt die KI nun denselben Weg ein.

Warum das Entwickeln von LLMs (für die meisten) ein verlorenes Spiel ist

Die Forschung von Gartner bestätigt, was wir beobachtet haben: Der derzeitige Fokus auf die Entwicklung immer größerer Sprachmodelle ist für die meisten Akteure wirtschaftlich nicht tragfähig. Einige Regierungen (die EU mit ihren EuroLLM und OpenEuroLLM, Spanien mit den neuesten Salamandra-Modellen des Barcelona Supercomputing Center, Saudi-Arabien mit seinem ALLaM-2-7B, sogar Afrika mit dem kleinen Sprachmodell InkubaLM, das für die fünf afrikanischen Sprachen IsiZulu, Yoruba, Hausa, Swahili und IsiXhosa trainiert wurde) holen auf – aber sie setzen nicht auf die energiehungrigen Mega-Modelle. Der Schwerpunkt liegt auf kleineren, portablen Modellen, die sich im Bereich GenAI, insbesondere privater GenAI, auszeichnen und die Sprache generieren oder Sprachaufgaben mit einem hohen Maß an Zuverlässigkeit übernehmen. Mozilla hat eine Analyse von nicht angepassten lokalen LLMs (7B, 12B, bis zu 33B) durchgeführt, die sich die meisten Unternehmen leisten können, lokal zu betreiben. Hier ist eine Analyse von Übersetzungsaufgaben, ein Vergleich zwischen Gemma3:12B und DeepSeek R1:14B.


Mozilla evaluation Gemma DeepSeek on TranslationIn der Analyse von Mozilla zeigten die im WMT24++ Paper evaluierten Modelle BLEU-Scores im Bereich von 27 bis 32. Was die COMET-Scores betrifft, so weist das Opus-MT-Dashboard einen Bereich von 48 bis 76 für die Übersetzung vom Englischen ins Deutsche auf, der je nach Datensatz variiert. Die von Mozilla untersuchten lokalen LLMs waren 4-Bit-quantisierte Modelle, was möglicherweise auch die geringere Leistung erklärt. Obwohl die lokalen LLMs sicherlich Raum für Verbesserungen ließen, wiesen sie den Weg, und Mozilla stellte fest, dass bei bestimmten Anwendungsfällen die Vorteile des Datenschutzes und der Offline-Nutzung die geringen Leistungseinbußen überwiegen könnten.

Gartners Bericht „Current State of AI Agents“ (Aktueller Stand der KI-Agenten) offenbart eine entscheidende Erkenntnis: Aktuelle LLM-basierte KI-Agenten verfügen über ein „geringes Maß an Handlungsfähigkeit“ (low levels of agency). Sie sind im Wesentlichen „fortgeschrittene Formen von KI-Assistenten mit zusätzlichen Funktionen wie der Werkzeugnutzung, aber nicht wirklich KI-Agenten.“

Dies erklärt, warum selbst milliardenschwerek Investitionen in die LLM-Entwicklung Schwierigkeiten haben, nachhaltige Erträge zu erzielen. Die Modelle selbst werden zur kommoditisierten Infrastruktur, die stark subventioniert wird und Geld verbrennt. Selbst beeindruckende Entwicklungen wie Chinas DeepSeek oder Europas von Brüssel geförderte Universitätsprojekte folgen demselben kapitalintensiven, margenschwachen Muster.

Die wahre Chance: Automatisierte Ergebnisse, nicht Tools

Gartners Bericht „Rise of the Machines“ identifiziert den fundamentalen Wandel, der bereits im Gange ist: Bis 2028 werden 30 % dessen, was B2B-Software-Tools heute bieten, durch Anbieter ersetzt, die durchgängige Geschäftsergebnisse (end-to-end business outcomes) in Form von KI-automatisierten Diensten liefern.

Diese Transformation stellt eine völlige Neukonzeption dessen dar, wie KI Werte schafft. Herkömmliche SaaS-Tools sind im Grunde digitale Schweizer Taschenmesser – sie bieten Funktionen, erfordern aber erhebliches menschliches Fachwissen, Zeit und laufendes Management, um tatsächliche Geschäftsergebnisse zu erzielen. Sie kaufen ein CRM-Tool, benötigen aber dennoch Teams, um es zu konfigurieren, Benutzer zu schulen, die Datenqualität zu sichern und die Ergebnisse zu interpretieren, um Entscheidungen zu treffen.

Automatisierte ergebnisorientierte Dienste (Automated outcome services) drehen dieses Modell komplett um. Stellen Sie sich vor, statt Ihnen Übersetzungssoftware zu verkaufen, sorgt ein Dienst einfach dafür, dass Ihre globale Kundenkommunikation perfekt lokalisiert ist – der alles abwickelt, von der ersten Inhaltsanalyse über die kulturelle Anpassung und Qualitätssicherung bis hin zur Auslieferung, alles in Echtzeit. Sie verwalten nicht den Prozess; Sie erhalten einfach das Ergebnis.

Das ist der Infrastruktur-Ansatz, den wir erwartet haben. Anstatt KI-„Tools“ zu verkaufen, die eine umfangreiche Implementierung und Wartung erfordern, werden die Gewinner automatisierte, ergebnisbasierte Dienste anbieten, in die sich Unternehmen einklinken können – genau wie beim Anschluss an das Stromnetz.

Die Ökonomie von Ergebnissen vs. Tools

Der Bericht hebt hervor, dass Top-KI-Unternehmen 13 Monate schneller 5 Millionen US-Dollar an jährlich wiederkehrendem Umsatz (ARR) erreichen als ihre SaaS-Pendants, genau deshalb, weil sie sich auf die Bereitstellung von Ergebnissen statt auf Tools konzentrieren. Diese Beschleunigung resultiert aus mehreren wirtschaftlichen Vorteilen:

  1. Reduzierte Implementierungsreibung:: Herkömmliche KI-Tools erfordern Monate der Integration, Schulung und Feinabstimmung. Ergebnisbasierte Dienste können sofort eingesetzt werden, da die Komplexität vom Anbieter und nicht vom Kunden gehandhabt wird.
  2. Bezahlung nach Wert (Pay-for-Value): Anstatt für Softwarelizenzen zu bezahlen, unabhängig davon, ob man sie effektiv nutzt oder nicht, richten ergebnisbasierte Dienste die Preisgestaltung am tatsächlich gelieferten Geschäftswert aus. Gartner stellt fest, dass „die nutzungs- und ergebnisbasierte Abrechnung das Einführungsrisiko weiter reduziert, da Unternehmen nur für das bezahlen, was sie benötigen, wenn sie es benötigen.“
  3. Skalierbarkeit ohne Komplexität: Wenn ein Unternehmen global wächst, erfordern herkömmliche Tools zusätzliche Lizenzen, Schulungen und Verwaltungsaufwand. Ergebnisbasierte Dienste skalieren automatisch – wenn Sie über Nacht Kundensupport in 15 neuen Sprachen benötigen, erweitert sich der Dienst einfach, um diesen Bedarf zu decken.

Der strategische Infrastruktur-Ansatz

Das ist der Infrastruktur-Ansatz (infrastructure play), den wir erwartet haben. Anstatt KI-„Tools“ zu verkaufen, die eine umfangreiche Implementierung und Wartung erfordern, werden die Gewinner automatisierte, ergebnisbasierte Dienste anbieten, in die sich Unternehmen einklinken können – genau wie beim Anschluss an das Stromnetz.

Wenn Sie einen Lichtschalter umlegen, denken Sie nicht über Stromerzeugung, Übertragungsinfrastruktur oder Netzmanagement nach. Sie erwarten einfach Licht. Genauso sollten Unternehmen, die Kundenkommunikation in 47 Sprachen benötigen, nicht über Übersetzungsmodelle, Workflow-Management oder Qualitätssicherungsprotokolle nachdenken müssen. Sie sollten einfach perfekt lokalisierte Kommunikation erhalten.

Dieser Wandel schafft massive Wettbewerbsvorteile für „Early Movers“, da er die Kundenbeziehungen grundlegend verändert. Tool-Anbieter konkurrieren über Funktionen und Preise. Ergebnis-Anbieter (Outcome providers) werden zur essenziellen Infrastruktur, die schwer zu ersetzen ist.

Die Rolle von LLMs in diesem neuen Paradigma

Ist das das Ende der LLMs, wie wir sie kennen? Ich glaube nicht, aber ihre Rolle ändert sich grundlegend. Diese Modelle werden ihren Platz als Komponenten innerhalb größerer automatisierter Systeme haben, anstatt als eigenständige Produkte. Sie werden zu spezialisierten Werkzeugen innerhalb von Infrastrukturen zur Ergebnislieferung – wie Motoren in Haushaltsgeräten, statt Produkte, die man separat kauft.

LLMs eignen sich hervorragend als Assistenten zum Entwerfen von Berichten, E-Mails und zur Recherche. Aber wir werden uns ihrer Grenzen immer bewusster: Ihre generative Natur wird immer das Risiko von Halluzinationen bergen, die in Bereichen wie der Justiz peinliche Konsequenzen haben können (wie das Zitieren nicht existierender Gesetze, wie wir in mehreren aufsehenerregenden Fällen gesehen haben).

Genau deshalb ist das ergebnisbasierte Modell überlegen: Es bettet LLMs in Systeme ein, die Faktenprüfung, Verifizierung, menschliche Aufsicht und Qualitätssicherung umfassen. Wenn ein juristischer Recherchedienst Fallanalysen liefert, jagt er nicht einfach Anfragen durch GPT-4 – er nutzt LLMs als eine Komponente in einem umfassenden Prozess, der die Überprüfung juristischer Datenbanken, die Präzedenzfallprüfung und die Begutachtung durch Experten einschließt.

Agenten-gesteuerte (Agentic) Workflows: Wo Sprache auf Automatisierung trifft

Hier wird die Konvergenz deutlich. Gartner prognostiziert, dass bis 2028 mindestens 15 % der täglichen Arbeitsentscheidungen autonom durch „Agentic AI“ (agenten-gesteuerte KI) getroffen werden, verglichen mit 0 % heute. Ihre Forschung zeigt jedoch auch, dass aktuelle „AI Agent 1.0“-Lösungen Schwierigkeiten mit der „im Unternehmenskontext stehenden Entscheidungsfindung“ (enterprise-contextualized decision making) haben.

Der Durchbruch wird durch Multisystem-KI-Agenten gelingen, die in unterschiedlichen Unternehmensumgebungen operieren können, und hier wird die Sprachinfrastruktur entscheidend. Diese Agenten müssen:

  • auf fragmentierte Unternehmensdaten in verschiedenen Sprachen und Formaten zugreifen
  • Kontext und Bedeutung über sprachliche und kulturelle Grenzen hinweg wahren
  • in Echtzeit in globalen, mehrsprachigen Arbeitsabläufen operieren
  • sich in bestehende Geschäftssysteme integrieren, unabhängig von deren Sprache oder regionaler Konfiguration

Der mehrsprachige Vorteil: Sprache als Infrastruktur

Was die Berichte von Gartner nicht vollständig behandeln – was aber unsere Erfahrung im Bereich Language Operations (Sprachbetrieb) verdeutlicht – ist, dass die Sprachenvielfalt ein entscheidender Differenzierungsfaktor bei agenten-gesteuerten (agentic) Workflows sein wird. Da Unternehmen globaler und Agenten autonomer werden, ist die Fähigkeit, nahtlos über Sprachen hinweg zu operieren, nicht länger nur eine Funktion – sie ist zur grundlegenden Infrastruktur geworden.

Betrachten Sie Gartners Erkenntnis, dass Unternehmen „Dateninteroperabilität“ und „Hybrid-Cloud-Kollaboration“ für effektive KI-Agenten benötigen. In einer globalen Wirtschaft existieren diese Daten in Dutzenden von Sprachen, mit kulturellen Kontexten, mit denen aktuelle große Sprachmodelle (LLMs) nur schwer umgehen können. Die Unternehmen, die diese mehrsprachige Automatisierungsherausforderung lösen, werden einen entscheidenden Teil des neuen KI-Infrastruktur-Stacks besitzen.

Vom Hype zu nachhaltigen Geschäftsmodellen

Die Forschung von Gartner bestätigt, was wir bei unseren eigenen Unternehmenseinsätzen beobachtet haben: Der Markt verlagert sich vom KI-Experimentieren hin zur Forderung nach klaren Ergebnissen und definierten ROIs. Ihre Umfragen zeigen, dass 59 % der Käufer erwarten, ihre Ausgaben für KI-Dienste um fast 20 % zu erhöhen, aber sie wollen Lösungen, die „Kosten und Personalbestand reduzieren, Risiken mindern, Komplexität reduzieren und das Geschäftswachstum vorantreiben.“

Hier geht es nicht darum, das neueste LLM oder die meisten Parameter zu haben – es geht darum, zuverlässigen, messbaren Geschäftswert zu liefern. In einer globalen Wirtschaft hängt dieser Wert zunehmend von nahtlosen, mehrsprachigen Abläufen ab.

Die Chance für LangOps

Während sich die KI-Branche eher auf Infrastruktur und Ergebnisse als auf die Modellerstellung konsolidiert, kristallisieren sich Language Operations (LangOps) als eine kritische Schicht im neuen Stack heraus. So wie DevOps für die Softwarebereitstellung unerlässlich wurde, wird LangOps für die globale KI-Bereitstellung unerlässlich sein.

Die Unternehmen, die die kommende Konsolidierung überleben, werden nicht diejenigen mit den größten Modellen oder der höchsten Risikokapitalfinanzierung sein. Es werden diejenigen sein, die echte Geschäftsprobleme mit nachhaltigen Wirtschaftsmodellen gelöst haben – und in unserer vernetzten Welt bedeutet das zunehmend, sie in jeder Sprache zu lösen, die für Ihr Unternehmen von Bedeutung ist.

Gartners Forschung weist auf eine Zukunft hin, in der KI so allgegenwärtig und zuverlässig wie Elektrizität wird. Wenn das passiert, wird der Wert nicht in der Erzeugung der Energie liegen, sondern darin, alles zu ermöglichen, was diese Energie möglich macht. Für globale Unternehmen bedeutet dies mehrsprachige, agile Arbeitsabläufe, die Prozesse über Sprachen, Kulturen und Kontexte hinweg automatisieren können.

Die Frage ist nicht, ob sich die KI konsolidieren wird – Gartners Forschung zeigt, dass dies bereits geschieht. Die Frage ist, ob Ihre Organisation so positioniert sein wird, dass sie in der entstehenden Infrastrukturschicht florieren kann, oder ob Sie zu den 75 % gehören werden, die den Übergang nicht schaffen.


Pangeanic entwickelt seit über zwei Jahrzehnten mehrsprachige KI-Infrastrukturen und -Lösungen, lange bevor dies in Mode kam. Während sich die Branche auf nachhaltige Geschäftsmodelle und agenten-gesteuerte Workflows konsolidiert, sind wir positioniert, um Unternehmen dabei zu helfen, den Übergang vom KI-Experimentieren zur mehrsprachigen Automatisierung im großen Maßstab zu meistern.