GESELLSCHAFT | 39 Und wie können Sie darauf schließen, wann die KI und das menschliche Gehirn ähnlich arbeiten? Die Aktivitätsmuster im Gehirn sind ja physisch beobachtbar, die der KI nicht? Sie können also nicht beide „nebeneinanderlegen“ und schauen, ob sie gleich ticken. Da haben wir das natürliche Vorbild als Referenz genommen. Um beim Bildbeispiel zu bleiben, wurde sowohl der KI als auch einem menschlichen Probanden der gleiche Input gegeben und die KI musste prognostizieren, welche Hirnareale beim Anblick des Bildes welche Aktivitätsmuster entwickeln werden. Wenn wir die Ähnlichkeit von Modellen für Sprache testen, lesen wir den Probanden Text vor und zeichnen die Hirnaktivitäten auf – anschließend zeigen wir Sprachmodellen den gleichen Text und testen ob die Prognose des Modells ähnlich zur Hirnaktivität ist. Und das stimmte überein? Wir haben 43 verschiedene KI-Modelle getestet, bei den meisten ergaben sich nur mäßige Übereinstimmungen. Aber für das ChatGPT zugrundeliegende KIModell (zum Zeitpunkt der Untersuchung war es das GPT2-Modell) stimmte das teilweise 100-prozentig mit Mustern im menschlichen Sprachsystem überein. Wie weit reicht denn die Ähnlichkeit? Gilt das für ein Wort, einen Satz oder einen größeren Text? Für einzelne Sätze sind die Übereinstimmungen in unserer Studie so gut wie identisch – hier können wir mit den aktuellen Daten keine Unterschiede mehr erkennen. Wenn wir allerdings längere Texte nehmen, also beispielsweise vier oder fünf Minuten lange Kindergeschichten erzählen, dann nehmen die Unterschiede zu. Wenn KI immer menschenähnlicher wird, entsteht zweifellos die Frage, ob wir es hier demnächst tatsächlich mit künstlich geschaffenen Subjekten zu tun haben? Legt man den Turing-Test zugrunde, liegt das Unterscheidungskriterium beim Menschen selbst. Wenn die Kommunikation der Maschine nicht mehr von der des Menschen zu unterscheiden ist, haben wir es mit Intelligenz zu tun. Und viele Interaktionen mit ChatGPT sind definitiv nicht von menschlicher Kommunikation zu unterscheiden. Eine große Gruppe um den Open-AIMitinitiator Elon Musk hat kürzlich eine Pause von sechs Monaten beim Training großer KI-Modelle gefordert. Bevor damit weitergemacht wird, sollen Regeln für die Forschung und Nutzung solcher KI-Modelle aufgestellt werden, weil die Risiken der Technologie sonst zu groß werden. Sind die Gefahren tatsächlich so groß und sollte Ihrer Meinung nach staatlich reguliert werden? Jede Technologie kann natürlich potenziell auch Schaden erzeugen. Angesichts der riesigen Potenziale, die die Künstliche Intelligenz bietet, sollte auf jeden Fall ein informierter Dialog stattfinden. Hier muss die Gesellschaft definieren, was die KI tun darf und was nicht, sonst besteht tatsächlich die Gefahr, dass die ganze Technologie in Verruf gerät. Eine Regulierung wäre vor allem auch deshalb wichtig, um die Potenziale der KI für die unzähligen positiven Anwendungsgebiete zu erschließen, bei denen der Nutzen für den Menschen im Vordergrund steht. Im Hinblick auf die Initiative der Gruppe um Musk denke ich, dass eine pauschale Pause nicht zielführend ist. Viel mehr hoffe ich wieder auf eine Demokratisierung dieser Modelle, die selbst ja auf öffentlichen Texten trainiert wurden, wie zum Beispiel Wikipedia-Artikeln und Forenbeiträgen. Das würde die Evaluierung der Modelle wieder für alle Forscher zugänglich machen und uns insbesondere in der Hirnforschung einen sehr vielversprechenden Kandidaten für das menschliche Sprachsystem liefern. Das Gespräch führte Benn Roolf. zm113 Nr. 08, 16.04.2023, (633) Abb. 1: Während ältere KI-Modelle wie „GloVe“ (oben) die Aktivität im menschlichen Sprachzentrum nicht erklären (rot), ist die Aktivität in GPT2-xl (unten) sehr ähnlich zum Gehirn (gelb). Foto: [Schrimpf et al., 2021]
RkJQdWJsaXNoZXIy MjMxMzg=