Sergey Nivens - stock.adobe.com

Swarm AI auf Basis kleiner KI-Modelle nutzen

Sind Unternehmen bereit, KI selbst zu hosten, zu trainieren und aktuell zu halten? Mit LLMs dürfte das schwierig sein. Da kommt eine Kombination kleiner Modelle ins Spiel.

Es ist ein bekanntes Szenario. Beim Aufkommen neuer Lösungen und Technologien dominieren zunächst von oben die großen Player. Automatisch findet dann in der Regel eine Gegenbewegung von unten mit vielen, kleinen Anbietern statt. Die Konsolidierung des Marktes erfolgt dann schließlich in der Mitte. Dieselbe Entwicklung ist derzeit im Bereich KI anzutreffen: Kleinere Modelle, die einen definierten Anwendungsbereich adressieren, leiten die nächste Phase der KI ein. Beispiele dafür wären einfache Anwendungen wie die Suche, Chatbots oder die Inhaltszusammenfassung, für die kleinere Modelle ausreichend und auch am kostengünstigsten sind.

Dieser Trend wird durch die Begrenztheit von Big AI und der großen Sprachmodelle (LLM, Large Language Models) verursacht. Sie sind universell ausgelegt und verfügen über Basiswissen, sodass sie keine fachspezifischen Antworten liefern können. Auch das Problem möglicher Halluzinationen ist schwer in den Griff zu bekommen.

Die Ära der kleinen Modelle

Eine Alternative zu den LLMs bietet der Swarm-AI-Ansatz, der auf der Nutzung vieler kleiner Modelle für spezifische Aufgaben basiert. Es können selbst entwickelte oder auch auf dem Markt verfügbare Modelle sein, die in Kombination verwendet werden. Vereinfacht ausgedrückt sind sie in einer Metaebene als gemeinsame Abfrageeinheit miteinander verbunden. Wird der Metaebene eine Frage gestellt, trifft sie die Entscheidung, welches Modell beziehungsweise welche Modelle die Antwort liefern.

Im Vergleich zu LLMs bietet die Nutzung kleinerer Modelle zahlreiche Vorteile. Sie unterstützen eine dynamische Anpassung und kontinuierliche Integration neuer Daten. Das heißt, mit ihnen sind auch Trainingsläufe deutlich schneller durchführbar. Kleine Modelle tragen auch zu einer erheblichen Kosteneinsparung bei, schließlich erfordern große LLMs mit Milliarden von Parametern erhebliche Investitionen.

Zudem verringert die Nutzung kleiner Modelle mit domänenspezifischen Daten auch die Abhängigkeit der Unternehmen von großen LLM-Anbietern, deren Lösungen vielfach eine Blackbox hinsichtlich Algorithmen, Trainingsdaten oder Modellen sind. Kleine Modelle hingegen stehen für Transparenz, Nachvollziehbarkeit und Zuverlässigkeit. Gerade Europa setzt hier bei der Regulatorik oft Maßstäbe, die zunehmend auf globaler Ebene Beachtung finden. Die Datenschutz-Grundverordnung (DSGVO/GDPR) ist hierfür ein gutes Beispiel aus der Vergangenheit und der AI Act (KI-Verordnung) der EU kann künftig durchaus Zeichen setzen.

Nicht zuletzt kann Swarm AI auch eine Antwort auf den KI-Fachkräftemangel in der Branche und die Komplexität der Inbetriebnahme von LLMs sein. Kleine Modelle sind einfacher zu trainieren, zu optimieren und zu implementieren, sodass schnellere Entwicklungszyklen und Experimente möglich werden.

Von den Daten über die Plattform bis zum Ökosystem

Zentrale Voraussetzung für ein gut funktionierendes KI-Modell sind strukturierte, qualitativ hochwertige und spezifische Daten. Große Unternehmen können dabei in der Regel auf eigene Datenbanken und Data Lakes zugreifen. Aber selbst bei Behörden sind oft strukturierte Daten vorhanden, die für fachspezifische KI-Lösungen nutzbar sind. Ein kleines Beispiel wäre die optimale Streckenplanung für Müllfahrzeuge aufgrund verfügbarer historischer Daten.

Jan Wildeboer, Red Hat

„Eine Alternative zu den LLMs bietet der Swarm-AI-Ansatz, der auf der Nutzung vieler kleiner Modelle für spezifische Aufgaben basiert. Es können selbst entwickelte oder auch auf dem Markt verfügbare Modelle sein, die in Kombination verwendet werden.“

Jan Wildeboer, Red Hat

Ein wichtiger Bestandteil einer KI-Umgebung ist außerdem immer die genutzte Architekturbasis und Infrastruktur. Will ein Unternehmen einen Vendor Lock-in vermeiden, mit neuen KI-Innovationen Schritt halten und beliebige Anwendungsfälle umsetzen, empfiehlt sich eine flexible und hybride Plattform, die auf Open Source basiert. Eine solche Plattform bietet auch Flexibilität für das Training und Feintuning sowie die Bereitstellung und Überwachung von KI-Modellen in der Cloud, am Edge oder On-Premises. So kann ein Training beispielsweise auf GPU-Farmen mit klarer Mandantentrennung in der Cloud erfolgen und anschließend das Modell On-Premises im Produktivbetrieb eingesetzt werden. Der Aufbau einer kostenintensiven eigenen GPU-Infrastruktur ist für Unternehmen in der Regel nicht zielführend, zumal die GPU-Auslastung typischerweise bei weniger als 25 Prozent liegt.

Darüber hinaus können offene Hybrid-Cloud-Plattformen einen Zugang zu zertifizierten KI/ML-Partnern im Rahmen eines Ökosystem-Konzepts bieten. Unternehmen können so Komplettlösungen zum Entwickeln, Bereitstellen und Verwalten von Modellen für KI-gestützte, intelligente Anwendungen relativ einfach und schnell nutzen. Ein Ökosystem als ein Katalysator für mehr Wettbewerb und Innovation ist im KI-Kontext ohnehin ein wichtiger Punkt. Schließlich kann nur ein funktionierendes Ökosystem die Basis sein, um relevante KI-Modelle zu entwickeln, Trainingsdaten einer breiten Nutzergruppe zur Verfügung zu stellen und zentrale ethische Fragen zu beantworten.

Der Hype um generative KI ist abgeflacht und große Versprechen weichen einer realistischeren Erwartungshaltung. Dies soll aber kein Abgesang auf KI sein, sondern vielmehr die Notwendigkeit einer Neujustierung unterstreichen. Swarm AI auf der Basis domänenspezifischer kleiner Modelle wird ein neues erfolgreiches Kapitel der KI-Nutzung aufschlagen. Und gerade europäische Anbieter sollten diesen Trend als neue Marktchance aufgreifen, schließlich ist KI – zumindest momentan – die Schlüsseltechnologie schlechthin.

Über den Autor:
Jan Wildeboer ist EMEA Evangelist bei Red Hat.

Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.

Erfahren Sie mehr über Künstliche Intelligenz (KI) und Machine Learning (ML)