AI und MI

Sich selbst zu über­schät­zen ist eine gute Tra­di­ti­on in der AI. Elon Musk und das auto­ma­ti­sche Fah­ren der Tes­las, das seit zehn Jah­ren “bald ver­füg­bar” ist ist zwar ein berühm­tes, aber sicher nicht das ein­zi­ge Bei­spiel. So fin­det sich unter https://www.youtube.com/watch?v=aygSMgK3BEM ein Inter­view mit einem For­scher, der in den 1960er-Jah­ren ver­sprach, dass man in fünf Jah­ren den gan­zen schrift­li­chen Out­put der Sowiet­uni­on in nur ein paar Stun­den Rechen­zeit auf einem Com­pu­ter ins Eng­li­sche über­set­zen kön­nen würde.

Gemein­hin wird eine spe­zi­fi­sche Form der Selbst­über­schät­zung – wis­sen­schaft­lich aber nicht kor­rekt – dem Dun­ning-Kru­ger-Effekt zuge­schrie­ben. Die popu­lär­wis­sen­schaft­li­che Inter­pre­ta­ti­on des Begriffs besagt, dass Men­schen, die sich bei einer Kom­pe­tenz oder einem The­ma nicht aus­ken­nen, sich mehr zutrau­en als Men­schen, die sich in die Mate­rie schon etwas ein­ge­ar­bei­tet haben; mut­maß­lich, weil sie nicht mal eine Vor­stel­lung davon haben, was an dem The­ma kom­pli­ziert ist oder wo die spe­zi­fi­schen Her­aus­for­de­run­gen liegen.

Die­sen Effekt kann man fast in Rein­form in vie­ler­lei unter­stell­ten Anwen­dungs­ge­bie­ten von AI sehen – wie die ein­gangs auf­ge­führ­ten Bei­spie­le schon zei­gen. Aber auch in vie­len ande­ren The­men, in denen AI die Arbeit und das Leben ver­ein­fa­chen und Auf­ga­ben von Men­schen über­neh­men soll kann man den Ein­druck gewin­nen, dass eine Rück­bin­dung mit Expert*innen auf dem Gebiet nicht statt­ge­fun­den hat, bevor die voll­mun­di­gen Ver­spre­chun­gen gemacht wurden.

Natür­lich spre­chen AI-For­scher und ins­be­son­de­re AI-Unter­neh­mer ger­ne dar­über, was ihre Sys­te­me nicht alles tol­les kön­nen. Und wenn es um AI selbst geht, dann sind ihre Aus­künf­te sicher auch span­nend. Wenn sie aber begin­nen, über Anwen­dun­gen und Fach­ge­bie­te zu spre­chen begin­nen, die nicht die ihren sind, soll­te man ihnen wohl eher mit Skep­sis begeg­nen. Dass vie­le Anwen­dun­gen, die wir heu­te sehen, ins­be­son­de­re davon leben, dass es kei­ne hohe Prä­zi­si­on braucht und ein Groß­teil der kogni­ti­ven Leis­tung bei den mensch­li­chen Rezi­pi­en­ten statt­fin­det, das ist sicher kein Zufall. So, wie die Erklä­run­gen von AI-Unter­neh­men gut genug sind, um plau­si­bel zu klin­gen, so sind auch die Tex­te, die z.B. ChatGPT gene­riert plau­si­bel – aber Kor­rekt­heit ist kei­ne Kate­go­rie, die in der aktu­el­len Gene­ra­ti­on von gene­ra­ti­ven Sys­te­men eine Rol­le spie­len – denn die­se Ebe­ne der seman­ti­schen Dar­stel­lung ist in den Sys­te­men bis­lang nicht vorgesehen.

Also: Skep­sis bleibt ange­sagt. Natür­lich wer­den sie dazu­ler­nen – die AI-Sys­te­me wer­den bes­ser; die AI-Her­stel­ler wer­den ihre Kom­mu­ni­ka­ti­ons­stra­te­gien anpas­sen. Und viel­leicht lernt auch die Öffent­lich­keit, nicht vor allem die tech­ni­schen Leis­tun­gen zu sehen und sich von den voll­mun­di­gen Ver­spre­chun­gen blen­den zu las­sen, son­dern die Men­schen hin­ter den Sys­te­men zu sehen und ihre Moti­va­tio­nen genau­er zu hin­ter­fra­gen. Den das kann man sicher noch lan­ge nicht an Gene­ra­ti­ve AI auslagern.


Beitrag veröffentlicht

in

von

Schlagwörter:

Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert