NicoElNino - Fotolia
Vertrauen ist gut, Kontrolle ist besser: KI braucht klare Rahmen
Firmen, die KI verantwortungsvoll einsetzen wollen, müssen dies in Einklang mit ihren Zielen und Werten tun. Zudem müssen sie ihre Sicherheits- und Datenschutzrichtlinien überprüfen.
Bei der Einführung von KI stehen Unternehmen aller Branchen vor einer Richtungsentscheidung. Die Richtlinien, die wir einführen, die Strategien, die wir entwickeln, und die Art und Weise, wie wir unsere Arbeitsabläufe umstellen, um KI zu integrieren, werden unser Business in der Zukunft prägen.
Um KI verantwortungsvoll einzusetzen, müssen Unternehmen sie mit ihren Zielen in Einklang bringen und sich darüber klar werden, welche Aktualisierungen der Sicherheits- und Datenschutzrichtlinien erforderlich sein könnten. Strategisch eingesetzt hat KI das Potenzial, unterschiedliche Bereiche des Unternehmens mit wichtigen Funktionen zu erweitern. Das reicht von der Softwareentwicklung über das Marketing bis hin zum Finanzwesen und darüber hinaus.
Viele Unternehmen überstürzen allerdings die Integration von KI in ihre Arbeitsabläufe. Den größten Erfolg werden daher diejenigen Unternehmen haben, die maßvoll, mit einer klaren Strategie die KI einführen. Wie können sich Unternehmen für einen solchen erfolgreichen Weg fit machen?
Datenschutz hat oberste Priorität
KI erfordert gewisse Rahmenbedingungen, damit sie verantwortungsvoll und nachhaltig zum Einsatz kommen kann – sowohl für Unternehmen als auch für deren Kunden.
GitLab führte kürzlich eine Umfrage durch. 48 Prozent der Befragten befürchten, dass durch KI erzeugter Code nicht demselben Urheberrechtsschutz unterliegt wie von Menschen erzeugter Code; 42 Prozent befürchten, dass Sicherheitslücken durch die KI entstehen könnten.
Organisationen, die nicht gewissenhaft und sorgfältig abwägen, wie KI-Tools unternehmenseigene Daten sowie die von Kunden und Partnern speichern und schützen, gehen somit potenziell Sicherheitsrisiken ein, die in der Folge zu Geldstrafen, Kundenverlusten und Rufschädigungen führen können. Dies ist besonders wichtig für Organisationen in stark regulierten Bereichen, wie dem öffentlichen Sektor, dem Finanzsektor oder dem Gesundheitswesen, die strenge externe regulatorische und Compliance-Verpflichtungen einhalten müssen.
Um das geistige Eigentum zu schützen, müssen Unternehmen strenge Richtlinien aufstellen, die festlegen, wann die Verwendung von KI-generiertem Code zulässig ist. Wenn Unternehmen KI-Plattformen von Drittanbietern einbeziehen wollen, sollten sie eine gründliche Due-Diligence-Prüfung durchführen. Sie müssen sicherstellen, dass ihre Daten, sowohl der Modellprompt als auch der Output, nicht für das Training und die Optimierung von KI/ML-Modellen verwendet werden. Denn dadurch könnte das geistige Eigentum versehentlich anderen Unternehmen zugänglich gemacht werden.
Unternehmen, die hinter vielen der heute erhältlichen KI-Tools stehen, machen die Quellen ihrer Modell-Trainingsdaten wenig transparent. Dabei wird Transparenz für die Langlebigkeit der KI von grundlegender Bedeutung sein. Wenn Modelle, Trainingsdaten und Richtlinien für die zulässige Nutzung unklar und nicht einsehbar sind, ist es für Unternehmen schwieriger, diese Modelle sicher und verantwortungsvoll zu nutzen.
Klein anfangen
Um sicher und strategisch von den Effizienzgewinnen der KI zu profitieren, müssen Unternehmen Fallstricke wie Datenlecks und Sicherheitsschwachstellen vermeiden. Dazu müssen sie zunächst ermitteln, wo das Risiko in ihrem Unternehmen am geringsten ist. Sie können zunächst Best Practices in einem Bereich mit geringem Risiko entwickeln, bevor sie weiteren Teams die Einführung von KI gestatten. Danach können sie sicher Skaleneffekte nutzen.
„Organisationen, die nicht gewissenhaft und sorgfältig abwägen, wie KI-Tools unternehmenseigene Daten sowie die von Kunden und Partnern speichern und schützen, gehen somit potenziell Sicherheitsrisiken ein, die in der Folge zu Geldstrafen, Kundenverlusten und Rufschädigungen führen können.“
David DeSanto, GitLab
Unternehmensleiter sollten als erstes Gespräche zwischen ihren technischen Teams, der Rechtsabteilung und KI-Dienstleistern organisieren. Hier geht es darum, sich auf gemeinsame Ziele zu verständigen. Auf dieser Basis gelingt die Entscheidung darüber, worauf man sich konzentrieren und wie man das Risiko, das durch KI entstehen kann, minimieren will.
Von dort aus können Unternehmen damit beginnen, Rahmenbedingungen und Richtlinien für die KI-Implementierung festzulegen. Das kann sich zum Beispiel um die Nutzung durch Mitarbeiter, die Bereinigung von Daten, die Offenlegung von Daten in Produkten oder um Möglichkeiten der Moderation handeln. Unternehmen müssen auch bereit sein, sich an gut getesteten Programmen zur Erkennung und Behebung von Schwachstellen zu beteiligen.
Die Suche nach den richtigen Partnern
Unternehmen können sich an Partner wenden, die sie unterstützen. Diese können bei der sicheren Einführung von KI sowie bei der Implementierung von bewährten Verfahren für Sicherheit und Datenschutz unterstützen. So führen sie KI erfolgreich ein, ohne die Einhaltung von Compliance-Standards zu gefährden oder die Beziehungen zu ihren Kunden und Stakeholdern zu riskieren.
Die Bedenken von Unternehmen in Bezug auf KI und Datenschutz lassen sich in der Regel in drei Kategorien einteilen: Welche Datensätze werden zum Trainieren von KI/ML-Modellen verwendet, wie werden unternehmenseigene Daten verwendet und – einschließlich der Modellausgabe – aufbewahrt? Je transparenter ein Partner oder Anbieter ist, desto besser kann ein Unternehmen die Geschäftsbeziehung beurteilen.
Proaktive Notfallpläne entwickeln
Schließlich können Führungskräfte Sicherheitsrichtlinien und Notfallpläne für den Einsatz von KI erstellen – und überprüfen, wie KI-Dienste mit firmeneigenen und Kundendaten umgehen. Dazu sollten auch die Anfragen, die an ihre KI-Modelle gesendet werden, und die Ergebnisse, die die KI-Dienste erhalten, gespeichert werden.
Werden diese Rahmenbedingungen nicht beachtet, können die Folgen die zukünftige Einführung von KI in Unternehmen ernsthaft beeinträchtigen. Die KI hat zwar das Potenzial, Unternehmen zu verändern, sie birgt aber auch echte Risiken – und IT-Mitarbeiter und Führungskräfte sind gleichermaßen dafür verantwortlich, diese Risiken verantwortungsvoll zu handhaben.
Die Art und Weise, wie wir heute KI-Technologien einsetzen, wird sich darauf auswirken, welche Rolle die KI in Zukunft spielen wird. Unternehmen sollten die Prioritäten für die Integration von KI durchdacht und strategisch festlegen. Denn dann können sie die Vorteile von KI nutzen, ohne Schwachstellen zu schaffen, die Einhaltung von Compliance-Standards zu riskieren oder die Beziehungen zu Kunden, Partnern, Investoren und anderen Stakeholdern zu gefährden.
Über den Autor:
Als Chief Product Officer leitet David deSanto die Produktabteilung von GitLab (Produktmanagement, Produktmonetarisierung und -betrieb, Benutzererfahrung), um die Produktvision und die Roadmap von GitLab zu definieren und auszuführen. Er ist dafür verantwortlich, eine enge Zusammenarbeit zwischen Produkt, Technik, dem CEO und anderen Führungskräften zu fördern. David hat einen M.S. in Cybersicherheit von der New York University und einen B.S. in Computerwissenschaften von der Millersville University of Pennsylvania.
Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.