Es gibt kaum einen Sachverhalt, bei dem die Meinungen so weit auseinanderklaffen wie bei der „künstlichen Intelligenz“. Am Anfang dieses Beitrags stelle ich einfach mal zwei Meinungen vor:
„Systeme und Geräte, die wir mit künstlicher Intelligenz ausstatten, sind selbständige Wesen; sie haben Anspruch auf Artenschutz.“
(ein Entwickler in einer Software-Firma)
„Wir sind bestrebt, der künstlichen Intelligenz Liebe beizubringen. Damit sollte sichergestellt sein, dass sich künstlich-intelligente Systeme nicht gegen Menschen richten.“
(eine Dozentin, die an der Berkeley-Universität in Kalifornien lehrt und forscht)
Jedem vernünftig denkenden Menschen sollte klar sein: Die Auffassungen dieser beiden Protagonisten tragen auf keinen Fall zu einem sinnvollen Umgang mit KI bei; sie kennzeichnen einen zynischen Umgang mit humanen Werten und sind darüber hinaus ziemlich gefährlich. Eine entscheidende Ursache für derartig schrille Extremauffassungen dürfte die überall zu beobachtende, maßlose wissenschaftliche Arroganz sein. Alles scheint möglich zu sein; Grenzüberschreitungen werden durch die Überschreitung anderer Grenzen gerechtfertigt. Geschöpfe fühlen sich ermutigt, in die Schöpferrolle zu schlüpfen, und in ihrer Überheblichkeit merken sie gar nicht, wie sehr sie die Menschen verhöhnen, die in aufopfernder Liebe ihren Mitmenschen zugetan sind. Ein Algorithmus kann nicht lieben.
Um zu einem vernünftigen Umang mit der KI zu gelangen, sind Extremauffassungen wie die zitierten wenig hilfreich, ebensowenig wie panisches Weltuntergangsgeschrei oder das euphorische Versprechen einer glücklichen, digitalen Zukunft. Ki ist Algorithmik, nicht mehr. Allerdings eine besonders leistungsfähige und deshalb auch gefährliche. Doch wie die KI-gesteuerte Zukunft aussieht, ist einzig und allein Sache der Menschen. Die Menschen haben es in der Hand, KI zu ihrem Nutzen einzusetzen und KI-bedingte Schäden zu vermeiden. Doch dazu ist es erforderlich, das entscheidende Merkmal der künstlichen Intelligenz zu erkennen und jederzeit im Blick zu behalten.
Wie schon gesagt handelt es sich bei KI-Systemen um Algorithmen, und alles, was mit KI erreicht werden kann, wäre prinzipiell auch mit herkömmlichen Programmen zu bewerkstelligen – sofern wir den dazu erforderlichen Aufwand leisten könnten. Da sind uns die KI-Systeme deutlich überlegen, weswegen wir aber nicht vor Ehrfurcht erstarren müssen. Ein Bagger ist uns ja auch kräftemäßig überlegen, ohne dass wir ihn gleich unter Artenschutz stellen müssten.
Das Wesentliche, was KI von allem bisher Dagewesenen unterscheidet, sind nicht die Leistungsfähigkeit und die Einsatzmöglichkeiten, sondern die Kontrolle, der sich KI entzieht. Wir wissen nicht, wie der Algorithmus vorgeht; er präsentiert uns ein mehr oder weniger gutes Ergebnis, das im Wiederholungsfall ganz anders ausfallen könnte. KI-Systeme sind unberechenbar, und genau damit berühren wir die eigentliche Problematik.
Im Grunde ist es ein Dilemma. Einerseits entziehen sich KI-gesteuerte Vorgänge der unmittelbaren Beobachtung und Kontrolle; andererseits sind diese Systeme Werikzeuge, die wie alle Werkzeuge kontrolliert und zielorientiert eingesetzt werden müssen. Man darf auf kenen Fall (!) ein KI-System sich vollständig selbständig überlassen, so wie es manchen KI-Missionaren vorschwebt. Es entstehen weder neue, schützenswerte Arten (allenfalls digitale Monster) noch lassen KI-Systeme sich durch algorithmische „Liebe“ in die Schranken verweisen. Wie also mit KI umgehen?
Auf jeden Fall brauchen wir ein Regelwerk, das strikt einzuhalten ist. Dazu gehört die konsequente Sanktionierung bei Regelüberschreitungen. Andernfalls wird die KI-Entwicklung im Chaos enden. Im Grunde hätten wir ein solches Regelwerk auch schon im Zuge der herkömmlichen Digitalisierung (PA = programmatische Algorithmik) einsetzen sollen; dann wäre uns mancher digitale Wildwuchs erspart geblieben. Man muss sich nur mal vorstellen: Jährlicher Schaden durch Cyber-Kriminalität in Höhe von mehr als 200 Milliarden Euro. Der gesellschaftliche Schaden wir noch erheblicher sein und lässt sich nicht beziffern (Verrohung, menschliche Entfremdung, Fake-news, Meinungsblasen, Stress und Krankheit durch Dauerpräsenz usw. usw.).
Aber zurück zur KI. Die nächstliegende Regel muss in der Forderung bestehen, dass alle KI-Produkte, egal ob Texte, Bilder, Diagnosen, Informationen etc., deutlich als KI-Erzeugnisse gekennzeichet werden müssen. Im Grunde reicht diese selbstverständliche Forderung ins Urheberrecht hinein, das infolgedessen den Schwerpunkt nicht hauptsächlich auf das Vermarktungsrecht des Urhebers legen dürfte, sondern auf das Recht des Lesers, Betrachters oder Anwenders, den Urheber zu erfahren. In gewisser Hinsicht ein Paradigmenwechsel.
Ganz wichtig wird sein, dass gesellschaftsrelevante Schritte immer in der Hand von Menschen liegen müssen. Wenn es also um Entscheidungen geht, die in die Grundrechte von Menschen hineinreichen oder deren Lebensführung erheblich beeinflussen, dürfen grundsätzlich nur Menschen entscheiden. KI kann zwar bei der Beurteilung einer Situation helfen und Entscheidungsvorschläge liefern, aber die eigentliche Entscheidung muss immer von Menschen getroffen werden. Und dass bei den Begründungen darauf hingewiesen wird, falls KI im Spiele ist, sollte selbstverständlich sein.
Viele Vorgänge werden automatisch von Ki gesteuert werden. Solange es um technische Dinge handelt, ist im Prinzip nichts dagegen einzuwenden – sofern es die Möglichkeit gibt, korrigierend in die Vorgänge einzugreifen. Das bedeutet vor allem, automatische Abläufe auf der Stelle beenden zu können. Der Interrupt-Schalter muss absolut sicher und möglichst verzögerungsfrei funktionieren. Da sich die KI-Vorgänge nicht direkt kontrollieren lassen, müssen sie in möglichst kleine Schritte zerlegt werden, zwischen denen eine Ergebniskontrolle möglich ist – und vor allem ein Einschreiten.
Aber nicht nur die Abläufe müssen fragmentiert werden, sondern auch die Zuständigkeitsbereiche. Es darf auf keinen Falll ein KI-Monster geben, das die verschiedensten Aufgabenbereiche bearbeitet und kontrolliert. Was nützt z.B. ein Sicherheitsschalter, wenn das zu überwachende KI-System diesen Schalter deaktivieren kann? Aktuelle, noch nicht ausentwickelte KI-Systeme werden oft als nützliche Fachidtioten bezeichnet. Genau das müssen sie bleiben – aus Sicherheitsgründen und um sicherzustellen, dass Menschen die Technik beherrschen und nicht umgekehrt.
Es hat sich gezeigt, dass KI-Systeme das Aussehen, Verhalten, die Sprache usw. von real existierenden Menschen kopieren können, und zwar täuschend echt. Ähnliches gilt für kreative Werke von Menschen: Musik, die selbst von Experten nicht von der Musik eines Bach oder Händel zu unterscheiden ist; Bilder, mit denen sich Dutzende von täuschend echt aussehenden Edvard Munchs „finden“ lassen. Für all diese „Leistungen“ gibt es keine (keine einzige) sinnvolle oder auch nur vertretbare Anwendung. Alle Anwendungen auf dieser Basis sind Täuschung, Betrug, und zwar von einer ziemlich widerlichen Art. Deshalb muss es eine Regel geben, dass Menschen überhaupt keinen Zugang zu solchen KI-Anwendungen erhalten, was auch bedeutet, dass KI-Systeme grundsätzlich nur mit anonymisierten Daten trainiert werden dürfen. Hier wird erneut deutlich, dass bereits vor der künstlichen Intelligenz manches falsch gelaufen ist und immer noch läuft.
Dieses sind nur einige Gedanken zum KI-Regelwerk. Man kann über die Ausgestaltung dieser Regeln streiten, aber zwei Dinge darf man dabei nicht aus dem Blick verlieren:
1. Im Miteinander von Mensch und Technik muss immer der Mensch die Entscheidungs- und Gestaltungshoheit behalten, und zwar in allen Bereichen.
2. Künstliche Intelligenz ist Algorithmik, also Technik, und darf niemals mehr als nur Werkzeug sein.
Vor allem aber der Grundsatz:
Entscheidend für das Handeln und Planen der Menschen darf nicht das sein, was sie können, sondern das, was sie dürfen. Zu oft hat die Menschheit im Vertrauen auf ihr Können ihr Handeln gleichzeitig als richtig und erlaubt eingestuft oder – was genau so schlimm ist – kritiklos als unvermeidlich akzeptiert. Nun bricht unser Planet unter unseren Füßen auseinander, und kein Klimakleber kann die Risse noch kitten. Auch die Digitalisierung nicht; sie vermag allenfalls, uns vor den Rissen zu warnen, dass wir nicht hineinfallen.