phonlamaiphoto - stock.adobe.com

Open- vs. Closed-Source-KI: Risiken und Auswirkungen

Geht es um eine sichere und verantwortungsvolle KI-Entwicklung gibt es sowohl Befürworter von Open Source als auch Closed Source. Wie kann eine sichere Entwicklung aussehen?

Die Welt der KI-Entwicklung ist derzeit Schauplatz einer hitzigen Debatte, die teils ideologisch geprägt ist. Im Zentrum steht die Frage, ob Open Source oder Closed Source mehr Sicherheit bietet. Zwei Lager stehen sich fast unversöhnlich gegenüber. In beiden Lagern befinden sich hochkarätige Fürsprecher, die eine Diskussion um den ihrer Meinung nach korrekten Kurs für sichere KI-Entwicklung führen.

In der linken Ringecke steht das Open-Source-Lager. Ein prominenter Vertreter der Open-Source-Fraktion ist Yann LeCun, Chief AI Scientist bei Meta. LeCun, der zusammen mit Geoffrey Hinton und Yoshua Bengio den Turing Award gewonnen hat, argumentiert, dass keine existenziellen Risiken von zukünftigen KI-Modellen ausgehen, „weil wir sie schließlich selbst erschaffen“. LeCun glaubt, dass Transparenz und gemeinschaftliche Weiterentwicklung die besten Mittel sind, um sichere und ethische KI-Systeme zu gewährleisten. Open-Source-Modelle fördern darüber hinaus auch Innovation durch Zusammenarbeit und bieten eine Plattform für die kollektive Überprüfung und Verbesserung von Modellen.

Ihnen gegenüber, also demnach in der rechten Ringecke, befindet sich das Closed-Source-Lager. Auf dieser Seite der Debatte stehen KI-Koryphäen wie Geoffrey Hinton und Yoshua Bengio sowie Philosophen, Ethiker und Naturwissenschaftler wie Nick Bostrom und Max Tegmark. Diese Experten sehen ein großes Risiko in der KI-Spitzenforschung und argumentieren, dass Closed Source die einzige Möglichkeit sei, wirksame Kontrolle und Sicherheit bei der Entwicklung immer intelligenterer KI-Modelle zu gewährleisten. Sie warnen vor den potenziellen Gefahren leistungsstarker KI-Systeme und betonen, dass die Offenlegung solcher Technologien in die falschen Hände geraten und missbraucht werden könnte.

KI und klassische Software sind grundlegend verschieden

So ist auch der Transparenzeffekt einer Open-Source-Strategie für die IT-Sicherheit konventioneller Software nicht mit der KI-Entwicklung vergleichbar. Bei klassischer Software bedeutet die Offenlegung des Quellcodes eine potenziell absolute Transparenz. Sicherheitslücken, Bugs und Hintertüren können von jedem fachkundigen Betrachtenden identifiziert, veröffentlicht und anschließend auch wieder geschlossen werden. Diese Transparenz hat sich als Vorteil für die IT-Sicherheit erwiesen, da die gemeinschaftliche Überprüfung und Fehlerbehebung dadurch schneller und effizienter erfolgen kann.

KI hingegen – angefangen beim Training der Modelle, bis hin zu ihrer Verwendung (sogenannte. Inferenz) – ist ganz anders gestrickt. Denn der Quellcode eines Deep-Learning-Algorithmus wird maßgeblich für das Training und später auch bei der Inferenz verwendet und ist somit nicht identisch mit dem gesamten KI-Modell. Ein fertig trainiertes KI-Modell besteht hauptsächlich aus den gelernten Gewichten (sogenannte Weights) und nicht mehr primär aus dem Quellcode. Der Quellcode ist notwendig für das Training und die Anwendung des Modells, aber die eigentliche „Intelligenz“ des Modells, also das Wissen, das es während des Trainingsprozesses erwirbt, ist in den Gewichten gespeichert.

Dementsprechend gelten auch in der Open- vs Closed-Source-Debatte bei der Entwicklung und Verbreitung von KI-Modellen – insbesondere bei leistungsstarken Modellen wie Large Language Models (LLMs) wie ChatGPT – andere Regeln.

Je leistungsstärker ein KI-Modell ist, desto mehr Schaden kann man damit anrichten

Die primäre Gefahr geht bei der KI-Entwicklung nicht von Sicherheitslücken im Quellcode aus, sondern von den grundlegenden Fähigkeiten der Modelle (Wissen, Logik, Sprachgewandtheit, Kreativität, Planung etc.) und deren potenziellen Missbrauchsmöglichkeiten. Schon die nächste Generation der Frontier-Modelle, könnte von menschlichen Nutzern – oder bald sogar in Eigenregie und zu hundert Prozent autonom – eingesetzt werden, um Ziele wie Desinformation oder Cyberangriffe gegen geopolitische Gegner voranzutreiben. Eine blitzschnell agierende, niemals ermüdende und für die Betriebskosten einer Klimaanlage arbeitende Trollarmee ist wohl der Traum eines jeden Autokraten.

Die Offenlegung des Quellcodes bedeutet darüber hinaus nicht automatisch, dass man ein belastbares Verständnis der internen Prozesse des Modells erhält. Die Interpretierbarkeit der Modelle ist ein aktives Forschungsgebiet und bisher sind die Fortschritte nur schleichend langsam, vergleicht man sie mit den Fortschritten bei den Fähigkeiten der KI-Modelle. Wie genau ein Modell zu einem bestimmten Output gelangt, ist oft nicht vollständig nachvollziehbar. Wer sich dem Thema Interpretierbarkeit von KI-Modellen leicht verständlich und durchaus unterhaltsam annähern möchte, der soll gerne mal nach „Golden Gate Claude“ im Internet suchen.

Das größte Risiko der offenen KI-Entwicklung: Mangelnde Kontrolle

Open Source ermöglicht es auch Gegnern der freiheitlichen Demokratie, diese Modelle zu nutzen. Sie könnten sie für orchestrierte Propagandakampagnen einsetzen oder auf der ressourcenintensiven Vorarbeit aufbauen, um eigene, möglicherweise gefährliche Modelle zu entwickeln.

Ein besonderes Missbrauchsrisiko stellt der Einsatz von Open-Source-Modellen für Betrug und Desinformation dar. Solche Modelle können genutzt werden, um täuschend echte Phishing-E-Mails zu erstellen, die Benutzer zur Preisgabe sensibler Informationen verleiten. Darüber hinaus können sie für die Verbreitung von Fake News und manipulativer Inhalte in sozialen Medien eingesetzt werden, was das Vertrauen in öffentliche Institutionen und die Gesellschaft untergräbt. Beispielsweise könnten automatisierte Systeme gefälschte Nachrichtenartikel generieren, die politische Unruhen schüren oder falsche Gesundheitsinformationen verbreiten. Die Möglichkeit, dass böswillige Akteure diese Technologien in großem Maßstab und mit hoher Effizienz einsetzen können, stellt eine erhebliche Bedrohung dar. Zwar ist ein Missbrauch von Closed-Source-Modellen auch nicht per se ausgeschlossen. Allerdings besteht hier zumindest die Möglichkeit, für die KI-Betreiber, maßregelnd einzugreifen und die entsprechenden API-Zugänge zu sperren.

Die Risiken von Closed-Source-KI

Die bisherige Darstellung soll aber keineswegs so missverstanden werden, dass sich alle Probleme und Gefahren der Entwicklung immer intelligenterer KI-Modelle in Luft auflösen, wenn man die Modelle nur hinter Schloss und Riegel belassen würde. Es kommt schlussendlich immer darauf an, wer die Kontrolle über die KI hat und wie diese Kontrolle ausgeübt wird. Das ist im Grunde die Krux der gesamten Geschichte, und gleichzeitig das Hauptargument der Open-Source-Fürsprecher. Die Wahrscheinlichkeit, dass die alleinige Kontrolle über ein mächtiges KI-Modell in den Händen eines Autokraten landet, ist nämlich sehr hoch. Daher argumentiert die Open-Source-Community auch, dass nur eine größtmögliche Verbreitung von KI gegen deren Missbrauch von Einzelnen wappnet. Wem das amerikanische Mantra „Das Einzige, was einen bösen Kerl mit einer Waffe stoppen kann, ist ein guter Kerl mit einer Waffe“ bekannt vorkommt, der kann sich vorstellen, dass die gleichen Gegenargumente auch für gefährliche KI gelten. Mit dem „kleinen“ Unterschied, dass die Waffe im Fall von KI keine Schuss- sondern höchstwahrscheinlich eine biochemische Waffe sein würde, die im schlimmsten Fall den Fortbestand der Menschheit bedrohen oder den gesamten Planeten unbewohnbar machen könnte. In diesem Szenario reicht ein Wahnsinniger aus, der keine Hemmungen verspürt, auf den „roten Knopf“ zu drücken und das Schicksal unserer Spezies zu besiegeln. Da hilft es dann auch nichts, dass acht Milliarden Menschen die gleiche KI zur Verfügung haben – in der biologischen Kriegsführung ist die Angreifer nämlich immer im Vorteil.

Global-Demokratisch überwachte Closed-Source-Entwicklung

Das alles, und noch viel mehr…ja, König der Welt für einen Tag müsste man sein, wollte man diesen Kraftakt vollbringen, eine globale Behörde zur KI-Regulierung aus dem Boden zu stampfen. Und doch gibt es eine Erfolgsgeschichte aus unserer Vergangenheit, die genau diesen Mammutakt erfolgreich gestemmt hat: Die „Internationale Atomenergie-Organisation“, kurz IAEA. Sie war und ist bis heute der Garant dafür, dass Atomwaffen keine weite Verbreitung finden konnten. Natürlich reichten auch schon die Atomraketen einer einzigen Nation aus, um die Menschheit zu dezimieren. Und doch schläft es sich deutlich besser, wenn ein solcher roter Knopf nur zweimal und nicht zweihundertmal existiert – das ist reine Stochastik.

Frank Heisel, Risk Ident

„Die Diskussion um Open- vs. Closed-Source-KI ist komplex und von vielen Faktoren beeinflusst. Eine sorgfältige Abwägung der Argumente ist entscheidend, um eine sichere und verantwortungsvolle Entwicklung von KI-Systemen zu gewährleisten.“

Frank Heisel, Risk Ident

Wenn also die „Godfathers of AI“ sich mit dem Who is Who der KI-Szene zusammentun, um für eine Pause bei der KI-Entwicklung einzutreten, so wollen sie den Fortschritt nicht im Keim ersticken, uns nicht der Früchte einer möglichen KI-Utopie berauben. Sie wollen nur das aktuell beobachtbare Wettrennen in den Abgrund unterbinden; zumindest so lange, bis wir mit der Sicherheits- und Interpretierbarkeitsforschung aufgeholt haben. Mit Sicherheit befinden sich unter den Mahnern auch einige Profiteure, die durch apokalyptische Warnungen den KI-Hype befeuern, oder durch maßgeschneiderte Gesetzestexte einen „Regulatory Capture“, also eine Benachteiligung der Konkurrenz, erreichen wollen. Doch in einer Sache stimmen sie alle überein: Die aufgewendeten Ressourcen zur Leistungssteigerung neuer KI-Modelle stehen aktuell in keinem Verhältnis zu den Krümeln, mit denen sich die Sicherheitsforschende begnügen müssen.

Um die halsbrecherische Dynamik der KI-Spitzenentwicklung, sowohl zwischen Privatunternehmen als auch zwischen ambitionierten Nationalstaaten zu unterbinden, benötigen wir (eher früher als später) eine globale Kommission nach dem Vorbild der IAEA.

Fazit

Die Diskussion um Open- vs. Closed-Source-KI ist komplex und von vielen Faktoren beeinflusst. Während Open Source durch Transparenz und Zusammenarbeit Vorteile für die Sicherheit und Innovation bietet, warnt das Closed-Source-Lager vor den erheblichen Risiken, die mit der unkontrollierten Verbreitung mächtiger KI-Modelle verbunden sind. Eine sorgfältige Abwägung dieser Argumente ist entscheidend, um eine sichere und verantwortungsvolle Entwicklung von KI-Systemen zu gewährleisten. Die Weltgemeinschaft muss sich zusammensetzen und eine neue globale Behörde nach dem Vorbild der IAEA ins Leben rufen.

Über den Autor:
Frank Heisel ist Co-CEO von Risk Ident.

Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.

Erfahren Sie mehr über Bedrohungen