Noch einmal – „künstliche Intelligenz“

Eigentlich gibt es von mir aus nichts mehr zu dem Thema zu sagen, denn in einem vorangegangenen Beitrag habe ich das, was aus meiner Sicht relevant ist, ausfürlich erörtert. Doch vor kurzem hörte ich von einem angesehenen Wissenschaftler, Prof. Jürgen Schmidhuber, der an vorderster Front rund um KI aktiv ist und Forschung betreibt. Ich wurde neugierig und schaute mir auf Youtube einen Beitrag an, in dem Schmidhuber von einem Freund zu dem Thema interviewt wurde.

Es war ein Déjà-vu-Erlebnis, denn ich wurde ganz intensiv an einen Vortrag des Zukunftsforschers Lars Thomsen erinnert, zu dem ich in dem Blogbeitrag „Future Matters“ ausführlich Stellung nahm. Mein Artikel ist nicht mehr verfügbar (zumindest nicht im Blog), weil er schon 4 Jahre zurückliegt. Jedenfalls konnte der Thomsen hervorragend reden, und was er darlegte, klang beim erstmaligen Zuhören außerordentlich überzeugend. So überzeugend, dass ich zunächst unsicher wurde und meine gesamte Kritik an der Digitalisierung überdachte. Beim zweiten oder dritten Anhören des Vortrags wurde dann allerdings deutlich, dass Thomsens Argumentationskette zwar schlüssig schien, dass aber die Bausteine, aus denen er sein Zukunftsgerüst zurechtbastelte, etliche Fragen hinterließen, ebenso das Ziel, das er mit seinen Zukunftsanliegen verfolgte. Besser gesagt, es gab kein echtes Ziel, sondern nur Voraussagen und Vermutungen.

Nun also Jürgen Schmidhuber. Auch dieser Forscher, der sich ja ebenfalls mit der Zukunft beschäftigt, kann sehr gut reden und überzeugend argumentieren. Er vertritt – natürlich – vehement die Sache der KI und sieht darin die Lösung vieler zukünftiger Probleme. Wie bei Thomsen kam es zunächst so überzeugend rüber, dass ich erneut unsicher wurde. Sollte „künstliche Intelligenz“ wirklich positiver sein als ich bisher dachte? Sollte alles Negative, was ich bis jetzt damit verband, aus der Luft gegriffen sein oder gar auf eine verbohrte Position hinweisen?

Jedenfalls legte Schmidhuber die Vorteile der KI sehr nachdrücklich auseinander. Zum Beispiel die Auswertung von Röntgen- und CT-Bildern. Keine Frage, hier können die Algorithmen der KI etwas leisten, wozu selbst erfahrene Ärzte kaum imstande sind. Auf der anderen Seite werden dazu Milliarden von sensiblen Datensätzen benötigt, die zwar anonymisiert werden sollen, wie man beteuert, ohne aber die Anonymisierung nachprüfbar sicherstellen zu können. Damit ist auch der Missbrauch von persönlichsten Daten nicht auszuschließen, mit kaum abschätzbaren Folgen. Darüber sprechen die KI-Forscher jedoch nicht, und es wird erneut das Kernproblem von Forschungsarbeit aktuell: Sind Forscher auch für die etwaigen Folgen ihrer Forschungsergebnisse verantwortlich, oder dürfen sie sich davon frei machen und sich ausschließlich auf ihre wissenschaftliche Arbeit konzentrieren? Letzteres ist der bequemere Ansatz – und der von Wissenschaftlern bevorzugte.

So wie eine Reihe anderer KI-Forscher unterschied Schmidhuber zwischen der derzeit möglichen „schwachen KI“ und der angestrebten, aber zu Zeit noch utopischen „starken KI“, bei der die damit ausgestatteten Maschinen zu eigenständig denkenden „Wesen“ werden. Schmidhuber machte keinen Hehl daraus, dass die „starke KI“ das große Ziel der KI-Forschung sei. Er erwähnte nicht, dass für alle von ihm genannten Leistungen der KI, einschließlich der medizinischen Diagnostik, die schwache Version ausreicht, also das, was mit Hilfe von künstlich neuronalen Netzen bereits möglich ist, was ich persönlich aber nicht als „Intelligenz“ bezeichne. Es ist mehr oder weniger eine neue, spezielle Form von Algorithmik.

Dann kam seitens des Interwievers die entscheidende Frage, ob er, Schmidhuber, sich vorstellen könne, dass von „starker KI“ Gerfahren ausgehen könnten. Schmidhuber besann sich nicht lange: „Nein, alles wird prächtig.“ Es klang wie eine vorgezogene Zusammenfassung, und so wartete man auf Begründungen und Erläuterungen. Auch der Interviewer sah Schmidhuber gespannt an, und nach 5 oder 6 Sekunden Stille fragte er nach: „Kommt da noch was?“ „Nein, da kommt nichts mehr“, meinte Schmidhuber schlicht.

Abgesehen von der peinlichen Nichtbeantwortung einer ganz wichtigen Frage war die Äußerung Schmidhubers ziemlich aufschlussreich. Genau das geschieht zur Zeit im Zuge der gesamten Digitalisierung: Man stellt einige Vorteile heraus, macht aber einen großen Bogen um die Einordnung etwaiger Nachteile. Die könnten ja die Entwicklungsdynamik hemmen, was im weltweiten Wettlauf fatal ist, denkt man.

Der Interviewer brachte nach dem Alles-prächtig-Statement eine neue Frage ins Spiel, ob nämlich überhaupt so etwas wie emotionale Intelligenz erreichbar sei, denn die sei ja ein wesentlicher Bestandteil der „starken KI“. Schmidhuber bejahte und erläuterte seine Annahme auch gleich an einem konkreten Beispei. Wenn ein kleiner Roboter (man hörte ihm an, wie lieb er die mit Chips und Schrittmotoren vollgestopften Hightechpuppen hat) von einem Menschen angegriffen wird, dann kann er auf Grund seiner Sensorik und der ihm eingepflanzten Selbstschutz-Variablen erkennen, dass es besser ist, diesen Menschen zu meiden. Er wird sich angstvoll zurückziehen, kann also durchaus Angstgefühle entwickeln.

Was soll man dazu sagen: flennende Roboter als Problemlöser der Zukunft? Ich dachte, auf sowas könnten nur Japaner kommen. Es mag ja sein, dass man Maschinen bauen kann, die in einer Art Lernprozess Selbstschutzmaßnahmen entwickeln können. Aber in die Ecke kriechen und heulen? Genau so gut oder wahrscheinlicher noch wird es zu der Erfahrung kommen, dass man mit einem blitzschnellen Hieb mit einem scharfen Edelstahlfinger die Halsschlagader des Angreifers durchtrennen kann und dann wirklich Ruhe hat.

Wieder fällt mir eine Parallele ein, und zwar die Bestrebungen an einer kalifornischen Uni, Robotern sowas wie Liebe beizubringen (ich erwähnte den Fall in dem oben verlinkten Erstbeitrag zur KI). Auf der gleichen Ebene liegt das Angstbeispiel von Schmidhuber:  Emotionen werden auf Symptome reduziert. Doch Angst ist mehr als das Erkennen von Gefahren und der zwanghafte Versuch, sich in Sicherheit zu bringen. Angst beeinflusst das gesamte Lebensgefühl negativ. Angst lähmt, blockiert, demotiviert. Sehr treffend der Titel eines Fassbinder-Films: „Angst essen Seele auf.“

Und dann ist da ja noch der Mut als eine Möglichkeit, Angst zu überwinden. Mut ist nicht programmierbar, ebensowenig wie Angst. Mut erfordert Unterstützung, kräftigende Impulse, personale Stärke, Vorbilder usw. Und das alles soll proglrammierbar sein bzw. automatisch in Robotern entstehen, wenn man sie nur entsprechend ausstattet und ihnen etwas Zeit zum Lernen gibt? Die Menschen brauchten Jahrmillionen, um sich zu dem zu entwickeln, was ihre neuzeitliche Existenz ausmacht. Na, dann viel Geduld.

Nein, was die KI-Forscher als starke KI im Sinn haben, kann nicht mehr sein als ein lächerlich oberflächlicher Abklatsch, Lichtjahre von dem entfernt, was den Namen „Intelligenz“ verdient. Und den Forschern sollte es peinlich sein, ihre Produkte als intelligente „Wesen“ zu verkaufen. In der Tat, ein vor Angst heulender Roboter, der sich in einer Ecke verkriecht, ist an Lächerlichkeit kaum noch zu überbieten. Hoffentlich denken die KI-Euphoriker immer daran, den Tränentank ihres Roboters zu füllen, sonst kann der Hampelmann nicht mal heulen. Und natürlich den Frostschutz nicht vergessen, wenn süß Robbilein im Winter draußen arbeiten muss.

Egal, wie sagte Jürgen Schmidhuber: „Alles wird prächtig.“