Nach einem Weihnachtsabend mit der Familie und Rotwein drängte sich mir der Gedanke auf, dass LLMs wie Kinder sind, die alle bekannten Bücher der Welt gelesen, aber keines davon verstanden haben. Als Entwickler, aber vor allem als Mensch, denke ich – wie wohl viele derzeit – hin und wieder über KI nach. AGI in vielleicht 5 Jahren, und kurz danach die Singularität? Das sehe ich nicht. Trotz des immensen Ausbaus der physischen KI-Infrastruktur und der dadurch bedingten Erhöhung des US-Strombedarfs um fast 5% haben die angebotenen Systeme seit 2 Jahren keine entsprechende Verbesserung erfahren. Schneller, ja, akkurater, realistisch nein. Die niedrig hängenden Früchte wurden gepflückt. Stark optimiert wurde auch schon. Aber die inhärenten Schwächen lassen sich nicht durch mehr "Neuronen" und Layer beseitigen.
Es ist keine Frage, dass KI relevant ist und fast alle Bereiche des Lebens verändert. Aber sie hat auch sehr schnell ein Plateau erreicht, ähnlich dem Smartphone, das zwar in gewisser Weise revolutionär war, aber seit seiner Einführung keine wirklich großen oder überraschenden Sprünge mehr getan hat. KI ist digitale Mustererkennung anhand statistischer Methoden, ganz gleich ob visuell oder linguistisch. Alles, was sich informationstechnisch abbilden lässt, kann auch durch KI verarbeitet werden. Aber das war es auch schon. Manchmal liefert sie überraschende Anwendungen, die auf den ersten Blick Verständnis emulieren, aber letztlich ist es nur eine Show. Das Begreifen von Konzepten ist mit dieser Technologie nicht möglich. Es ist nur ein Trick, wenn auch ein verdammt guter.
Auf den ersten Blick wirkte es wie pure Magie – und manchmal tut es das immer noch. Für eine kurze Zeit schien es, als ob bald alles mit KI möglich wäre: Von der Apokalypse bis zum Paradies, von Terminator bis Star Trek. Ich hatte mehr auf Bladerunner spekuliert. Aber der Hype ebbt ab und die Realität ernüchtert. Diese Form von KI wird uns nicht ersetzen. Es ist einfach nur ein sehr flexibler Algorithmus, der für die meisten informationstechnischen Problemstellungen ineffizienter Overkill ist, und für Systeme, bei denen es auf Genauigkeit ankommt, schlicht unbrauchbar. Aber es gibt bestimmte Anwendungen, für die es die bislang beste und manchmal auch einzige Lösung darstellt, z.B. als Userinterface, zum Prototyping von Text, Design und Code, als Sprachübersetzer und ganz besonders als Recherchetool. Alles unter der Prämisse, dass man sich nicht auf die Korrektheit der Verarbeitung verlassen darf. Und genau das disqualifiziert KI zunächst einmal vom Einsatz in kritischen Bereichen.
KI ist ein sehr nützliches Tool, wenn man es einzusetzen weiß und seine Grenzen kennt. Aber es ist keinesfalls der autonome virtuelle Agent, als den man es uns verkaufen möchte. KI begreift nicht und trägt keine Verantwortung. Sie liefert regelmäßig inkorrekte Ergebnisse, vor allem in Bereichen mit dünnem oder einseitigem Trainingsmaterial. Sie weiß nicht einmal, ob sie etwas weiß. Sie erfindet einfach was. Und kann dabei sehr unterhaltsam sein.
Für die zunehmend schwierige wirtschaftliche Lage gibt es andere bekannte Gründe. Ironischerweise veranlasst gerade das viele Menschen dazu, KI zu nutzen, anstatt z.B. teure Anwaltsgebühren zu zahlen oder ärztlichen Rat einzuholen. Der KI-Psychotherapeut steht 24/7 zur Verfügung. Auf Zugang zum menschlichen Pendant muss man oft lange warten. Bevor ich hier in die Abgründe des sozialen Gefüges abdrifte, wünsche ich frohe Weihnachten! Wenn Sie glauben, dass ich meinen Text von einer KI überprüfen ließ, liegen Sie richtig.
0 Kommentar(e)