Chaiyawat - stock.adobe.com
KI-Tools: Gamechanger für Handelsunternehmen
Die Integration von KI-Tools und Large Language Models (LLM) in Handelsstrategien ist nicht frei von Problemen. Doch mögliche Vorteile wiegen diese auf.
In der schnelllebigen Welt des Handels ist es unerlässlich, mit den neuesten Trends und Technologien Schritt zu halten. Künstliche Intelligenz (KI) heißt das neue Zauberwort, denn sie verspricht Lösungen für nahezu alle Herausforderungen, mit denen der Handel heute konfrontiert ist: Steigende Kundenerwartungen, verschwimmende Grenzen zwischen physischem und digitalem Einkauf und ein harter Wettbewerb, in dem Schnelligkeit und Effizienz zu entscheidenden Erfolgsfaktoren werden.
Im Bereich der künstlichen Intelligenz und des maschinellen Lernens sind Large Language Models (LLMs) eine bahnbrechende Entwicklung, die den Zugang zu den fortschrittlichsten KI-Anwendungen einfacher denn je macht.
KI im Retail: Verbesserung der Customer Experience
LLMs werden zunehmend im Retail eingesetzt, da ihre Anwendungen in verschiedenen Bereichen erhebliche Vorteile bieten:
Zum einen sind LLMs die treibende Kraft hinter leistungsfähigen Chatbots und virtuellen Assistenten, die rund um die Uhr sofortigen Kunden-Support bieten. Diese Systeme können ein breites Spektrum von Anfragen bearbeiten, von Produktempfehlungen bis hin zur Fehlerbehebung, und so die Customer Experience verbessern. Auf der Grundlage von Kundendaten können LLMs hochgradig personalisierte Produktempfehlungen abgeben sowie die Tonalität der Kommunikation an das Profil des Kunden anpassen und so die Kundenbindung und Markentreue verbessern. Durch die Analyse des Kunden-Feedbacks verfeinern LLMs kontinuierlich ihr Verständnis der Kundenpräferenzen, was zu einer immer genaueren Personalisierung führt.
Auf der anderen Seite können KI-Tools Retailern das Leben erleichtern, indem sie interne Prozesse und Arbeitsabläufe optimieren. Beispiele hierfür sind LLM-Plug-ins zur schnelleren Erstellung von Produktbeschreibungen und SEO-Texten, Image-to-Text-Funktionen zur Automatisierung von Alt-Texten oder die automatische Generierung von Content-Vorschlägen. LLMs können Verkaufsdaten analysieren, um erfolgreiche Produkte und Strategien zu identifizieren, die zur Optimierung von Vertriebskonzepten und zur Entwicklung effektiver Werbekampagnen beitragen. Aufgaben wie die Beantwortung von E-Mails und routinemäßige Kundenanfragen können mit LLMs umfassend unterstützt werden, wodurch Personalressourcen für komplexere Aufgaben frei werden.
LLMs ermöglichen zudem ein effizienteres und reaktionsschnelleres Bestandsmanagement. Durch die Analyse umfangreicher Datensätze kann die zukünftige Produktnachfrage vorhergesagt und das Risiko von Über- oder Fehlbeständen reduziert werden. Die Integration mit Supply-Chain-Systemen ermöglicht automatisierte Nachbestellprozesse, die jederzeit einen optimalen Lagerbestand gewährleisten.
Durch die Verarbeitung und Analyse von Kunden-Feedback, Marktberichten und Social-Media-Daten, unterstützen LLMs dabei, aufkommende Trends zu erkennen und ermöglichen es Retailern, proaktive Unternehmensentscheidungen zu treffen. LLMs können auch genutzt werden, um Strategien, Preisgestaltung und Kunden-Feedback von Wettbewerbern zu analysieren und wertvolle Erkenntnisse für die eigene strategische Planung zu gewinnen.
Fast täglich kommen neue Use Cases hinzu, und es besteht kein Zweifel daran, dass die strategische Integration von LLMs Retailer in einem sich ständig weiterentwickelnden Markt für nachhaltiges Wachstum und Wettbewerbsvorteile positioniert.
Large Language Models: Open Source versus Proprietär
Bei der Auswahl eines LLMs stellt sich für Retailer zwangsläufig die Frage: Open Source oder proprietäres Modell?
Große proprietäre LLMs werden mit einer so umfangreichen Daten- und Wissensbasis trainiert, dass sie hervorragende Generalisten und damit für viele Anwendungsfälle gut genug sind. Aber ihnen fehlt das Wissen über das spezifische Unternehmen und seine Anforderungen. In diesem Fall können mit Prompt Engineering und Few-Shot-Learning brauchbare Ergebnisse erzielt werden. Unter Few-Shot-Learning versteht man die Möglichkeit, das Modell mit einer kleinen Menge von Trainingsdaten schnell an neue Aufgaben anzupassen. Beim Prompt Engineering geht es darum, den Output des Modells besser an die eigenen Erwartungen anzupassen, indem der Input, das heißt der Prompt, so formuliert wird, dass alle Erwartungen explizit kommuniziert werden. Jeder Prompt hat ein Context Window. Dieses Context Window bezeichnet die Menge an Tokens, die ein Prompt inklusive Antwort maximal enthalten darf und ist je nach Modell unterschiedlich groß. Es sollte so groß wie möglich sein, um zum Beispiel einen Chatbot auf einer Website sinnvoll nutzen zu können.
Wenn jedoch die Wissensbasis erweitert werden soll, kann das Context Window zu klein sein. In diesem Fall ist Finetuning eine Alternative. Allerdings unterstützen große, proprietäre Modelle wie GPT-4 kein Finetuning, so dass man abwägen muss, ob ein großes Modell mit Unterstützung von Prompt Engineering die besten Ergebnisse liefern kann oder ob es besser ist, ein kleineres, frei verfügbares Modell zu trainieren, um den Output genauer an die eigenen Anforderungen anzupassen. Hierfür eignen sich Open-Source-Modelle, die gezielt für eigene Anwendungsfälle und mit eigenen Daten trainiert werden können.
Da aber die großen proprietären Modelle ihr Context Window immer weiter ausdehnen, wird das Finetuning beim derzeitigen Entwicklungstempo vielleicht bald gar nicht mehr nötig sein, weil so viele Daten in Echtzeit eingespeist werden können, dass es überflüssig wird, kleinere Modelle dediziert an eigenen Daten zu trainieren oder zu finetunen.
Wie sehen also die Szenarien für Unternehmen aus, speziell im Retail-Bereich?
Echtzeitdaten und Context Framing: Die Evolution generativer KI-Modelle
Gerade in komplexeren Anwendungsbereichen, wie zum Beispiel im B2B Manufacturing, wo sich Preise täglich ändern können, je nachdem wie sich die Rohstoffpreise entwickeln, müssen Daten zur Laufzeit abgerufen werden. Da ein proprietäres LLM keine Möglichkeit zum Feintuning oder Training bietet, muss in vielen Fällen ohnehin mit Echtzeitdaten gearbeitet werden. Je mehr sich die Integration von Echtzeitdaten in proprietäre generative KI-Modelle zum neuen Standard entwickelt, desto spannender wird es für Retailer oder Marken, damit zu arbeiten.
Das Trainieren oder Feintuning von lokalen Open-Source-Modellen bietet keinen wirklichen Vorteil mehr. Die großen LLMs werden ständig um neue Funktionen erweitert, die den Anwendern mehr Flexibilität und Möglichkeiten zur individuellen Anpassung geben sollen. Die Custom Instructions von ChatGPT bieten beispielsweise bereits die Möglichkeit, ChatGPT spezifische Anweisungen oder Voreinstellungen zu geben, die als Richtlinien dienen, die dem Tool helfen, Output im gewünschten Stil, Ton oder Format zu liefern. Man erlaubt also als Unternehmen den Zugriff auf die eigenen Daten und gibt damit ein gewisses Framing vor. Einziges Problem: der Datenschutz.
Datenschutzerwägungen bei der Nutzung von KI-Modellen
Auf die meisten Modelle kann nur über eine Schnittstelle (API) zugegriffen werden. Wenn auf die API von OpenAI zugegriffen wird und unternehmensinterne Daten geteilt werden, besteht immer ein Datenschutzproblem, es sei denn, Unternehmen verwenden ChatGPT for Enterprise und haben ihre eigene Cloud-Instanz bei OpenAI. Das verspricht mehr Datenschutz, ist aber auch kostenintensiv.
Das bedeutet im Moment, dass ein Unternehmen, das Wert auf Datenschutz legt, nicht wirklich die Möglichkeit hat, ChatGPT über die API zu nutzen, wenn die eigenen Daten zur Laufzeit verwendet werden sollen. Das heißt, man muss ein Modell haben, das man in seiner eigenen Cloud-Umgebung oder On-Premises hosten kann. So kann man die eigenen Daten intern nutzen und muss sie nicht nach außen geben, damit sie im schlimmsten Fall von anderen Modellen weiterverwendet werden. Unternehmen haben mehr Einfluss darauf, wie das Framing aussieht, worauf das System Zugriff hat oder welche anderen Schnittstellen genutzt werden, damit das Modell gegen lokale Datenbanken arbeiten kann. Das ist zwar mit ChatGPT auch möglich, doch dann fließen die Daten zu OpenAI. Auch wenn die Nutzungsbedingungen derzeit besagen, dass die übermittelten Daten nicht für Trainingszwecke verwendet werden, zeigen die laufenden Verfahren unter anderem der NY Times, dass es hier noch an Transparenz mangelt.
Entweder können große Closed-Source-Modelle eingesetzt werden, wenn keine sensiblen Daten zur Verfügung gestellt werden müssen. Oder es kann sich lohnen, auf Open-Source-Modelle zu setzen, die lokal implementiert und besser an die eigenen Bedürfnisse angepasst werden können. Das kann entweder durch ein Pre-Prompting im Hintergrund geschehen, weil das Context Window groß ist, oder durch das Füttern mit eigenen Daten zur Laufzeit und mit mehr Sicherheit, weil man die volle Kontrolle über das Modell hat und damit Datenschutzaspekte leichter berücksichtigen kann.
Fazit und Ausblick
Von der Verbesserung der Customer Experience bis hin zur datengestützten Entscheidungsfindung definieren LLMs die Commerce-Welt neu. Sie spielen eine entscheidende Rolle bei der Förderung von Innovationen und der Fähigkeit von Handelsunternehmen, sich schnell an Marktveränderungen anzupassen.
„Im Jahr 2024 wird der Wettbewerb zwischen angepassten Open-Source-Modellen und proprietären Modellen zunehmen, da beide Seiten innovative Funktionen vorantreiben.“
Kai Ebert, Valtech
Mit der Weiterentwicklung der Technologie werden auch die Anwendungsbereiche zunehmen, was sich in den kommenden Jahren noch stärker auf den Handelssektor auswirken dürfte. Im Jahr 2024 wird der Wettbewerb zwischen angepassten Open-Source-Modellen und proprietären Modellen zunehmen, da beide Seiten innovative Funktionen vorantreiben.
Die Großen wie OpenAI und die Open-Source-Community arbeiten daran, Modelle zu schaffen, die den spezifischen Anforderungen verschiedener Unternehmen gerecht werden. Diese Entwicklung ermöglicht es, dass Funktionen, die heute nur in Open-Source-Modellen verfügbar sind, auch in großen proprietären Modellen implementiert werden können.
Um die richtige Entscheidung zu treffen, müssen die Grenzen und Schwächen der Modelle verstanden werden. So können zum Beispiel KI-Halluzinationen, das heißt die Generierung falscher Informationen durch LLMs, in jedem Szenario auftreten, sowohl bei Open Source als auch bei Closed Source. Auch hier dürfte die Weiterentwicklung in diesem Bereich 2024 zu einer größeren Anwendungsreife führen, beispielsweise durch die Verifizierung des Outputs mit einer zweiten Instanz eines LLM.
Die Frage, welches Modell für Handelsunternehmen am besten geeignet ist, kann nicht pauschal beantwortet werden. Die Entscheidung zwischen proprietären und Open-Source-Modellen ist eine Abwägungsfrage und hängt letztlich von den individuellen Anforderungen des Unternehmens ab.
Die Integration von LLMs in Handelsstrategien ist nicht frei von Herausforderungen, aber die potenziellen Vorteile machen es zu einem lohnenden Unterfangen, sich diesen Herausforderungen zu stellen. Durch den Einsatz von LLMs können sich Handelsunternehmen für nachhaltiges Wachstum positionieren und sich einen entscheidenden Wettbewerbsvorteil in einem zunehmend digitalen und dynamischen Markt sichern.
Über den Autor:
Seit Januar 2022 ist Kai Ebert General Manager von Valtech Deutschland für das strategische Marketing der DACH-Region verantwortlich. Er steht für ein breites Themenspektrum von digitalem Marketing und E-Commerce bis hin zu Digitaler Transformation und KI.
Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.