Sich selbst zu überschätzen ist eine gute Tradition in der AI. Elon Musk und das automatische Fahren der Teslas, das seit zehn Jahren “bald verfügbar” ist ist zwar ein berühmtes, aber sicher nicht das einzige Beispiel. So findet sich unter https://www.youtube.com/watch?v=aygSMgK3BEM ein Interview mit einem Forscher, der in den 1960er-Jahren versprach, dass man in fünf Jahren den ganzen schriftlichen Output der Sowietunion in nur ein paar Stunden Rechenzeit auf einem Computer ins Englische übersetzen können würde.
Gemeinhin wird eine spezifische Form der Selbstüberschätzung – wissenschaftlich aber nicht korrekt – dem Dunning-Kruger-Effekt zugeschrieben. Die populärwissenschaftliche Interpretation des Begriffs besagt, dass Menschen, die sich bei einer Kompetenz oder einem Thema nicht auskennen, sich mehr zutrauen als Menschen, die sich in die Materie schon etwas eingearbeitet haben; mutmaßlich, weil sie nicht mal eine Vorstellung davon haben, was an dem Thema kompliziert ist oder wo die spezifischen Herausforderungen liegen.
Diesen Effekt kann man fast in Reinform in vielerlei unterstellten Anwendungsgebieten von AI sehen – wie die eingangs aufgeführten Beispiele schon zeigen. Aber auch in vielen anderen Themen, in denen AI die Arbeit und das Leben vereinfachen und Aufgaben von Menschen übernehmen soll kann man den Eindruck gewinnen, dass eine Rückbindung mit Expert*innen auf dem Gebiet nicht stattgefunden hat, bevor die vollmundigen Versprechungen gemacht wurden.
Natürlich sprechen AI-Forscher und insbesondere AI-Unternehmer gerne darüber, was ihre Systeme nicht alles tolles können. Und wenn es um AI selbst geht, dann sind ihre Auskünfte sicher auch spannend. Wenn sie aber beginnen, über Anwendungen und Fachgebiete zu sprechen beginnen, die nicht die ihren sind, sollte man ihnen wohl eher mit Skepsis begegnen. Dass viele Anwendungen, die wir heute sehen, insbesondere davon leben, dass es keine hohe Präzision braucht und ein Großteil der kognitiven Leistung bei den menschlichen Rezipienten stattfindet, das ist sicher kein Zufall. So, wie die Erklärungen von AI-Unternehmen gut genug sind, um plausibel zu klingen, so sind auch die Texte, die z.B. ChatGPT generiert plausibel – aber Korrektheit ist keine Kategorie, die in der aktuellen Generation von generativen Systemen eine Rolle spielen – denn diese Ebene der semantischen Darstellung ist in den Systemen bislang nicht vorgesehen.
Also: Skepsis bleibt angesagt. Natürlich werden sie dazulernen – die AI-Systeme werden besser; die AI-Hersteller werden ihre Kommunikationsstrategien anpassen. Und vielleicht lernt auch die Öffentlichkeit, nicht vor allem die technischen Leistungen zu sehen und sich von den vollmundigen Versprechungen blenden zu lassen, sondern die Menschen hinter den Systemen zu sehen und ihre Motivationen genauer zu hinterfragen. Den das kann man sicher noch lange nicht an Generative AI auslagern.
Schreibe einen Kommentar