PDF DOWNLOAD

Aber schnell erkannte man auch, dass es bezüglich des Denkens Unterschiede gibt. Und zwar nicht nur qualitative wie zwischen Mensch und Tier und dem Rest der Natur, sondern auch quantitative untereinander. Um diese offensichtlichen Differenzen messbar zu machen, wurden aus heutiger Sicht betrachtet naiv anmutende Verfahren entwickelt. So dachten (!) Paul Broca und Sir Francis Galton noch vor 1900, man bräuchte einfach nur den Schädel zu vermessen, um daraus auf die Leistungsfähigkeit zu schließen. Ein aus heutiger Sicht geradezu abenteuerlicher Ansatz, den man nicht mal ansatzweise in Betracht ziehen dürfte! Trotzdem haben ernsthafte Untersuchungen eine positive Korrelation feststellen können ...

Um 1900 entstand dann auch der Begriff der „Intelligenz“ (von lateinisch „intellegere“, eigentlich „wählen zwischen ...“, aber eher „verstehen, erkennen oder erfassen“). Bei Wilhelm Wundt hieß das Introspektion, womit etwas verschwurbelt die Reflexion über die eigenen Gedanken gemeint war. Erst Alfred Binet und Théodore Simon entwickelten 1904 den ersten „IQ-Test“, wobei das „Q“ für Quotient stand, weil man noch durch das Lebensalter teilte. Das wäre für mich selbst heute eine Vorgehensweise mit niederschmetterndem Ergebnis! Allerdings war der Test eher für Schulkinder gedacht und heute wird nicht mehr durch das Alter dividiert, sondern der Vergleich mit dem Durchschnitt der Bevölkerung hergestellt.

Die Aspekte von Intelligenz sind sehr vielfältig und ihre genaue Definition letztendlich nicht so einfach. Dazu braucht es intelligente Psychologen, die auf eine recht allgemein gehaltene Fähigkeit verweisen, Probleme zu lösen, komplexe Sachverhalte zu verstehen, lernfähig zu sein und überhaupt abstrakt denken zu können. Wo die Intelligenz im Kopf genau beheimatet ist, bleibt anscheinend so unklar wie die Lokalisierung von Atlantis. Klar scheint jedenfalls, dass 50 bis 60 Prozent vererbt sind, hälftig von Mutter und Vater.

Nun geben sich die Menschen mit der reinen Analyse des Denkens natürlich nicht zufrieden. Sie möchten alles auch nachbauen oder zumindest simulieren können. Und das Gehirn ist da die ideale Herausforderung. Schon 1936 konstruierte der Mathematiker Alan Turing die nach ihm benannte Maschine. Diese wäre in der Lage, kognitive Prozesse auszuführen, wenn man einen schrittweisen Rechenalgorithmus hinterlegen kann. Er begründete damit eigentlich das, was wir heute unter künstlicher Intelligenz (KI, AI) verstehen. Turing war übrigens auch maßgeblich an der Entschlüsselung der deutschen Rotor-Chiffriermaschine ENIGMA im Zweiten Weltkrieg beteiligt. Seinen Test nannte er selbst „Imitation Game“, wie auch der Oscar-prämierte Film (2014) über ihn heißt.

Konkreter wurde 1953 der geniale Mathematiker John von Neumann mit seinen selbstreproduzierenden Automaten. Man stelle sich das als Maschine vor, die sich selbst nachbauen kann. So gibt es auch eine nach ihm benannte Sonde, die sich für überlange Raumflüge selbst replizieren können sollte. Ein interessantes Konzept, das in der Automobilbranche noch nicht richtig angekommen ist. Man müsste dann nur beim eigenständigen Neubau jeweils einen Qualitätssprung mit einbauen, sonst würde ich beispielsweise noch mit meinem Käfer mit der Technik von vor 50 Jahren herumfahren, allerdings nagelneu.

Aber genau das soll ja die KI besser machen, denn sie sollte lernen können und sich dadurch ständig optimieren. Der Begriff KI wurde 1956 auf einer Konferenz von Wissenschaftlern am Dartmouth College (New Hampshire) von dem Programmierer John McCarthy geprägt. Während der Konferenz wurde auch das erste KI-Programm „Logic Theorist“ geschrieben (zum Beweis von mehreren mathematischen Sätzen).

Zehn Jahre später wird die Sache insbesondere in Bezug auf die aktuellen Hypes zum Thema Sprachkontakte interessant. Denn da erblickte der Chatbot (Chat robot) das binäre Licht der Welt. Der Informatiker Joseph Weizenbaum vom MIT (Massachusetts) schrieb mit ELIZA das erste über Sprache kommunikationsfähige Computerprogramm. Dabei wurden computerseitig verschiedene Gesprächspartner simuliert, so auch ein (oberflächlich simulierter) Psychotherapeut, wodurch das Programm bekannt wurde.

Der Name des Programms ist nicht, wie sonst üblich, ein Akronym, sondern der Vorname einer Hauptperson des Schauspiels „Pygmalion“ von George Bernhard Shaw, nämlich der armen Blumenhändlerin Eliza Doolittle. Bekannt wurde die Geschichte nicht zuletzt durch den Musicalfilm „My Fair Lady“. Hintergrund für die Wahl des Deutsch-Amerikaners Weizenbaum war die (anscheinende) Veränderung einer Person durch Anpassung ihrer Sprache, hier von einer auf der Straße lebenden Blumenverkäuferin zu einer Herzogin, nur durch Sprachunterricht. Pygmalion selbst ist der griechischen Mythologie entlehnt und lebte aufgrund schlechter Erfahrungen als Frauenfeind auf Zypern. „Versehentlich“ erschuf er eine elfenbeinerne Frauenstatue, die dann zu allem Überfluss auch noch zum Leben erwachte und einen Sohn von ihm gebar (nachdem er sich in sie verliebt hatte). Wie immer in diesen Geschichten ist alles nicht ganz einfach.

Die Frage, ob man mit einer Maschine oder einem Menschen redet, ist gerade heute nicht mehr so einfach zu beantworten. Alan Turing hatte dafür einen speziellen Test vorgeschlagen (Turing-Test), bei dem ein Mensch gleichzeitig Fragen an einen anderen Menschen und eine Maschine stellt. Dabei besteht weder Bild- noch Hörkontakt und die Identitäten sind natürlich nicht bekannt. Ist dann selbst nach intensiver Befragung kein Unterschied bei den Antworten festzustellen, so hat die Maschine den Test bestanden. ELIZA hätte dabei keine Chance gehabt.

Weitere 20 Jahre später (1986) lernt der Computer mit dem neuronalen Netz „NETtalk“ von Terrence J. Sejnowski und Charles Rosenberg hörbar zu sprechen. Jetzt konnte man sich also Geschriebenes vorlesen lassen, heute absoluter Standard aufgrund von barrierefreiem Zugang. Die Meldungen über weitere Erfolge kamen danach in gewissen Abständen beim Schach, in der Medizin, in Quizsendungen oder einfach bei Telefonaten.

Doch nun sind wir in eine Phase eingetreten, die sich zunehmend der starken KI zumindest nähert, die menschliches Verhalten auf „Augenhöhe“ simulieren können soll. Die als „Artificial General Intelligence“ (AGI) bezeichnete Stufe haben wir aber noch lange nicht erreicht. Wir bewegen uns noch auf dem Level der schwachen KI („Artificial Narrow Intelligence“, ANI). Regelrecht Angst haben viele Menschen vor der eher theoretischen dritten Stufe „Artificial Super Intelligence“ (ASI), die unsere mentalen Möglichkeiten nicht nur um ein Vielfaches in den Schatten stellt, sondern auch über Emotionen und Beziehungen verfügen soll. Das Akronym allerdings lässt noch viel Schlimmeres befürchten ...

Das autonome oder auch nur automatisierte Fahren ist ja genau der Versuch, dies in einem speziellen Bereich umzusetzen. Es ist aber auch nur der schwachen KI zuzuordnen. Trotzdem haben sich spezialisierte Programme beim Lösen vorgegebener Aufgaben außerordentlich bewährt. Man denke nur an Bildanalysen, die von Menschen aufgrund der Menge an Daten gar nicht mehr durchgeführt werden könnten. Ein Beispiel sind die täglichen Satellitenbilder der Erde mit verschiedenen Filtern, um Veränderungen festzustellen. Diese umfassen mehrere Terabyte jeden Tag.

„Normale“ Sprachassistenten begleiten uns mittlerweile allerorten. Nicht nur Alexa, Siri, Google Assistent und Co. gehören dazu, sondern auch die Sprachsteuerung in Fahrzeugen neuerer Bauart, die inzwischen Standard ist. Doch bei den kleinen Sprechblasen kam schnell Langeweile auf bei Nutzern. Eine andere Bevölkerungsgruppe lehnt sie dagegen schlichtweg ab. Es blieb auch in der Tat eine ganze Weile ruhig im KI-Universum, bis aus der Tiefe des Alls wie mit einem Knall ChatGPT an die kommunikative Türe klopfte und uns förmlich ein Gespräch aufzwang. Ein ähnliches Programm gab es schon ein Jahr früher, doch nun wurde es öffentlich zugänglich.

Der eigentliche Hit war, dass jetzt Algorithmen nicht nur vorhandene Daten analysieren konnten, sondern daraus etwas Neues in Form von Texten oder Bildern zu generieren in der Lage sind. Dabei handelt es sich also um generative KI (ChatGPT heißt „Chatbot Generative Pre-trained Transformer“). Aus einem immensen Datensumpf heraus wird das Modell in mehreren Stufen trainiert und optimiert. Momentan endet der Datensatz allerdings 2021, sodass über die WM 2022 nur Spekulationen zu erhalten sind. ChatGPT antwortet dann, dass es „keinen Zugang zu Informationen aus der Zukunft“ hat. Ehrlich währt am längsten, aber die nächste Stufe GPT-4 steht unmittelbar bevor ...

Der Qualitätssprung ist tatsächlich erheblich, kommen doch im Gegensatz zu früheren Versuchen wie Microsofts Chatbot Tay oder Galactica von Meta vernünftige Sätze und Inhalte bei einer Antwort auf eine Frage zustande. Vernünftig heißt hier insbesondere, dass es keine rassistischen oder überhaupt sinnlose Aussagen liefert. Allerdings sind die Antworten immer etwas allgemein gehalten und gehen nicht ins Detail. Es werden auf Nachfrage auch nur generelle Hinweise auf Quellen und Veröffentlichungen gegeben.

Die Konkurrenz versucht zu kontern und schnell nach der Veröffentlichung von ChatGPT sprießen die Alternativen aus dem frühlinghaften KI-Beet. Google geht hoch gegriffen mit „Bard“ (benannt nach William Shakespeare als „Bard of Avon“) an den Start, und kürzlich meldete sich Meta mit LLaMA (Large Language Model Meta AI) sprichwörtlich zu Wort, einem Programm, das auf 65 Milliarden Parameter zurückgreifen soll, allerdings nur für die Wissenschaft. Und Microsoft legt selbst noch einen oben drauf mit „Microsoft Designer“. Das ist ein Programm, das aus Texten Bilder macht, basierend auf der Software Dall-E 2 von OpenAI („Kofferwort“ aus dem kleinen Roboter beziehungsweise gleichnamigen Film Wall-E und dem Maler Dali). Bisher kann man sich allerdings nur auf eine Warteliste setzen lassen. Fazit: Im Kampf der Hightechunternehmen versucht Microsoft, insbesondere im Wettstreit mit Google, die Internethoheit zu erobern.

Da steht uns noch eine Menge bevor, wovon vieles bestimmt gut ist. Aber es tun sich auch wahre Abgründe auf. Damit sind nicht (nur) die schulischen, universitären oder sonstigen schriftlichen Arbeiten gemeint, die sich solcher Software bedienen und für die Bewerter ein immenses Problem darstellen. Da gibt es beispielsweise „Deepfake“ (aus Deep Learning und Fake), womit KI-Software autonom (automatisiert?) Bilder, Filme und Audios für die Medien erstellt. Dem informatischen Angriff auf die individuelle Freiheit kann man sich heutzutage kaum noch erwehren.

Die Gefahr besteht eben aufgrund „realistischer“ Antworten, dass die Menschen im Laufe der Zeit immer mehr der Meinung sind, dass eine menschliche Person als Gesprächspartner am anderen Ende der Leitung sitzt. Die spannende Diskussion dreht sich jetzt um die Frage, ob solche Systeme ein „Bewusstsein“ entwickeln können. Google entließ einen Mitarbeiter umgehend, der dieses behauptete.

 

AUTOR

PROFESSOR DR. MICHAEL SCHRECKENBERG, geboren 1956 in Düsseldorf, studierte Theoretische Physik an der Universität zu Köln, an der er 1985 in Statistischer Physik promovierte. 1994 wechselte er zur Universität Duisburg-Essen, wo er 1997 die erste deutsche Professur für Physik von Transport und Verkehr erhielt. Seit mehr als 20 Jahren arbeitet er an der Modellierung, Simulation und Optimierung von Transportsystemen in großen Netzwerken, besonders im Straßenverkehr, und dem Einfluss von menschlichem Verhalten darauf.

Seine aktuellen Aktivitäten umfassen Onlineverkehrsprognosen für das Autobahnnetzwerk von Nordrhein-Westfalen, die Reaktion von Autofahrern auf Verkehrsinformationen und die Analyse von Menschenmengen bei Evakuierungen.