Ich möchte an dieser Stelle einmal auf die Forums-Regeln (dritter Punkt) verweisen. Diese Diskussion ist davon nicht betroffen, da es ja um eine Diskussion über LLM u.ä. geht. Aber nur noch einmal zur Sicherheit, falls da jemand auf den Gedanken kommt unser Forum mit solchem Zeug zu fluten. Wir haben ja schon genug Spam zum Aufräumen.
Nun noch ein längerer Meinungstext zu dem Thema. Ist nur ein Teil, man könnte mit der Kritik an der aktuellen „KI“-Situation ein dickes Buch füllen.
Intelligent?
Zuerst bitte ich darum, dass der Begriff „KI“ für Systeme wie ChatGPT nicht verwendet wird - das ist ein Chatbot auf Basis eines Large Language Model (LLM). Mit Intelligenz hat das Ganze nichts zu tun.
Die Verwendung des Wortes Intelligenz schürt aber - mindestens unterbewusst - Erwartungen, die niemals erfüllt werden können.
An dieser Stelle kann man gut Larry Tesler (Mitentwickler von Object Pascal, passt hier also) zitieren: „Intelligenz ist das, was Maschinen noch nicht gemacht haben.“
Und ja, ich weiß dass hier auch von „schwacher KI“ gesprochen wird - hilft aber trotzdem nichts, die Erwartungen werden geweckt. Deswegen bitte „KI“ weglassen oder wenigstens in Anführungszeichen setzen.
Ignorant?
Als Zweites um den Vorwurf des „alten Sacks, der das noch nie ausprobiert hat“ zu entkräften: Ich habe mit ChatGPT einige wenige Versuche unternommen - und war unterwältigt.
Mit LLM beschäftige ich mich schon länger und setze das an einigen Stellen recht regelmäßig ein. Und zwar beim Thema automatische Übersetzung (mit
www.deepl.com) und Erkennung gesprochener Worte (mit
https://alphacephei.com/vosk/). Für letzteres habe ich eine die Schnittstelle nach Freepascal umgesetzt und ein Frontend entwickelt, ich behaupte mal das zeigt dass ich mich mit der Thematik beschäftigt habe.
In diesen beiden Aufgabenfeldern machen die LLM ihren Job sehr ordentlich. DeepL schlägt den Google-Translator definitiv und liefert vernünftige Ergebnisse ab. Je nach verwendetem Sprachmodell und Qualität des Audiomaterials kann Vosk fast ohne Nacharbeiten auch längere gesprochene Texte in Strings umwandeln.
Das ist wenig überraschend - denn Sprachanalyse auf Grund statistischer Wahrscheinlichkeiten ist ja gerade DAS Fachgebiet für LLM.
Der menschliche Faktor
Soweit so gut, aber warum bin ich von ChatGPT und Konsorten nicht überzeugt? Das hat wenig mit der Technologie an sich zu tun, sondern mit dem menschlichen Drumherum. „Nicht der Nuklearsprengkopf tötet Menschen - sondern der, der ihn gestartet hat.“
Ich hatte es bereits in der Keynote auf der Lazaruskonferenz 2023 gesagt: Der ganze Hype um ChatGPT und die angebliche „KI“ ist genau das - ein Hype. Und davon hatten wir in den letzten Jahren wirklich genug. Es ist ja zum Beispiel gar nicht so lange her, als die Blockchain die Lösung für alle möglichen und unmöglichen Probleme sein sollte. Bitcoin war ja nur eine Teilmenge davon.
Blockchain ist an dieser Stelle übrigens ein sehr passendes Stichwort, denn dort kam es zur gleichen Merkwürdigkeit wie bei den Chatbots. Man hat(te) die Technologie fertig und sucht(e) nun verzweifelt nach Problemen für die man diese Technologie als Lösung präsentieren kann. Und wenn man nichts findet und bereits Unsummen investiert hat? Dann muss man aller Welt einreden, dass diese Technologie sämtliche Probleme lösen kann.
Wenn ich sehe mit welcher Aggressivität in den letzten Wochen Werbung durch die sozialen Netzwerke gejagt werden, die mir immer wieder neue Lösung aus dem Bereich der angeblichen „KI“ präsentieren - dann werde ich sehr, sehr vorsichtig.
Denn was ist so ein Chatbot, wenn wir es einmal herunterbrechen? Nur eine Software mit einer riesigen Datenbank aus Texten, die per Wahrscheinlichkeitsrechnung Worte für einen „neuen“ Text zusammenwürfelt.
Und so klingt alles was herauskommt gut, aber es klingt auch nur so. Logik oder tatsächliches Wissen steht nicht dahinter. Dazu müsste man vermutlich ganz andere Techniken einsetzen - vielleicht auf Basis eines Semantic Web oder ähnliches. Auch dazu gab es ja Versuche, die eher gescheitert sind.
Die Kunst des Scheiterns
Scheitern ist übrigens ein gutes Stichwort. Ich habe ja eigentlich gelernt, dass in der Wissenschaft Experimente die fehlschlagen und Theorien die man widerlegt etwas Gutes sind. Dann auch daraus erwächst Wissen.
Da so eine riesige Datensammlung und die zugehörige Hardware aber auch riesige Kosten verursachen, sind die Macher der Chatbots darauf angewiesen dass Investoren jede Menge Geld in das Projekt stecken. Kann man einem Investor dann sagen: „Funktioniert nicht, aber wir haben daraus etwas gelernt“? Eher nicht - und so MUSS ChatGPT funktionieren und die Revolution auf dem IT-Sektor, dem Arbeitsmarkt und eigentlich auf der ganzen Welt sein - schließlich hat man das Geld ja nicht verbrannt.
Und deswegen werden gerne tolle Ergebnisse präsentiert und Probleme verschwiegen.
Problem: Quellen
Ich kann nicht einmal ansatzweise nachvollziehen, wie man ChatGPT ernsthaft als Ersatz für eine Suchmaschine in Betracht ziehen kann. In beide schmeiße ich - mehr oder weniger ausformuliert - ein Frage rein. Bei ChatGPT kommt eine generierte Antwort heraus, bei Google eine Liste mit Webseiten.
Die Antwort kann richtig sein oder auch nicht. Auch die Inhalte der Webseiten können richtig oder falsch sein, aber ich sehe dieses Inhalte eben direkt.
Ist es eine Seite von Stackoverflow, in der fünfzig User die Antwort mit Daumen-herunter gekennzeichnet haben, dann kann ich getrost den Browsertab wieder schließen.
Wenn ein lustiger Beitrag bei Reddit erzählt, dass man im Durchschnitt fünfmal Kakerlaken in der Harnröhre hat, erkenne ich die Satire sofort. Ob das auch jeder erkennt, der ChatGPT danach gefragt und eine seriös klingende Antwort erhalten hat?
Ich habe eine Quelle und kann anhand dieser Quelle den Inhalt der Antwort einordnen. Bei ChatGPT habe ich das nicht.
Gut, vielleicht ist heutzutage die Analyse und Einordnung von Quellen nicht mehr in Mode - zumindest erklärt das so einigen Stuss der Tag für Tag verbreitet wird - aber eigentlich sind wir im IT-Bereich doch eher faktenbasiert aufgestellt.
Problem: Determinismus
Deterministische Algorithmen sind in der Softwareentwicklung ja sehr weitverbreitet. Für die gleiche Eingabe folgt auch immer die gleiche Ausgabe und zusätzlich wird die gleiche Folge an Zuständen durchlaufen. Zu jedem Zeitpunkt ist der nachfolgende Abarbeitungsschritt des Algorithmus eindeutig festgelegt.
Bei ChatGPT kommt es niemals vor. Nicht nur die Form auch der Inhalt der Antworten kann sich erheblich von einer früheren Antwort auf die gleiche Frage unterscheiden.
Anekdote: Bei einem großen Softwarekonzern kamen die Entwickler in Schwierigkeiten als bei ihrem Hauptprodukt ein LLM integriert wurde, welches die Datenanalyse unterstützen sollte. Wie schreibt man denn dafür Testszenarien? Zum Schluss beschränkten sie sich darauf, dass ein gültiger JSON-Datensatz zurückgeliefert wird. Die eigentlichen Daten darin wurden schon nicht mehr geprüft, weil sie sich ständig änderten. Und selbst dieser Test schlug regelmäßig fehlt, weil manchmal auch kaputtes JSON ausgeliefert wurde. Und da ging es nicht darum lustige Marketingtexte zu generieren, sondern konkrete Daten auszuwerten. Also ein klassisches Einsatzgebiet für deterministische Algorithmen.
Nun steht ja in der Überschrift dieses Threads, dass ChatGPT gut wäre für „einfache Sachen“ - also war die Problemstellung in der Datenanalyse zu komplex? Sicherlich, aber es bleiben Fragen offen.
Frage Eins: Wie ist einfach definiert?
Frage Zwei: Wie weiß ich vorher ob meine Frage einfach ist?
Frage Drei: Wie wurde diese Aussage verifiziert? Bei einem System, welches immer wieder andere Antworten gibt.
Aus dem Problem des Determinismus ergibt sich das ...
Problem: Verantwortung
Schon heute ist es ja eine beliebte Ausrede „Softwareproblem, da kann man nichts machen.“
Beim Einsatz der LLM und ähnlicher angeblicher „KI“-Technologien wird es noch zu mehr Problemfällen und zu mehr Abschiebung der Verantwortung kommen.
New York testet zur Zeit eine "KI"-Technologie zur Waffenerkennung. Hat wohl auch prompt ein iPad in der Hand eines Fußgängers als Halbautomatik erkannt.
Ich hab da so eine Vorstellung, wie das demnächst funktionieren wird:
https://www.youtube.com/watch?v=xsuo3FnG4g0
Und wie debugged und testet man so ein Modell? Wie kann man erkannte Fehler zukünftig ausschließen? Filter davor setzen? So dass ich irgendwann ein riesiges LLM und davor eine riesige Filterchain habe?
Problem: Sinnhaftigkeit
Ein paar Mal ist mir in letzter Zeit Werbung für einen Chatbot-Homepagebaukasten untergekommen. Motto: schreib in fünf Stichworten was du für eine Webseite haben willst und der Bot generiert dir diese und füllt sie mit gehaltvollen Texten.
Wenn ich mir die Inhalte generieren muss, dann habe ich keine Inhalten.
Wenn ich keine Inhalte habe - wozu brauche ich dann eine Webseite?
Und so geht es mir mit vielen „tollen“ Anwendungsfällen für ChatGPT.
„Der kann dir zum Beispiel ein Kündigungsschreiben für deinen Mobilfunkvertrag generieren.“
Ja wie toll - oder ich lade mir einfach eins von einem der dreißig Musterschreiben-Portale herunter. Welches dann auch von einem Juristen geprüft wurde.
Man ist also wieder auf der Suche nach Problemen für die vorhandene „Lösung“.
Problem: Trainingsdaten
Wo kommen eigentlich die Daten her, die ChatGPT und Co. - und ganz besonders die Bots die auch Grafiken erstellen - zum Training benutzen.
Nunja, es ist sicherlich nicht falsch zu sagen: sie wurden geklaut. Es laufen ja jetzt schon einige Urheberrechtsverfahren in den USA - vielleicht beendet das bald den Spuk.
Problem: Stromverbrauch
Alleine bei Microsoft stieg der Stromverbrauch durch den Ausbau des „KI“-Bereichs innerhalb von drei Jahren von 11.284 auf 24.008 Gigawattstunden!
Hallo? Energiewende?
Für die doch dürftigen Ergebnisse ist das definitiv zu viel.
Aber das Problem soll ja gelöst werden: „OpenAI is reportedly in talks with Helion to get access to the startup's not-yet-possible nuclear fusion-driven electricity generators.“
Ich wette sie setzen eine „KI“ daran, damit es demnächst possible ist.
Problem: Verdummung
Also jetzt nicht der Menschheit an sich, sondern der Chatbots selber. Dass das auf lange Zeit passieren wird ist relativ klar. Denn wenn der Mist den die heutigen Bots produzieren veröffentlicht wird, dann werden die zukünftigen Bots das wieder konsumieren. Und dann wieder neuen Mist daraus machen, den irgendjemand wieder irgendwo postet, worauf die übernächste Generation...
Die von Menschen geschriebenen korrekten Beiträge werden dann immer weniger, bis sie irgendwann nur noch in homöopathischer Dosierung vorliegen. Aber vielleicht funktioniert „KI“ ja mit einer D24-Potenzierung besonders gut. Der „Gedächtniseffekt der Daten“ oder so etwas.
Problem: Qualitätsverlust
Warum gibt es dann immer noch so viele Menschen die davon schwärmen oder es sogar einsetzen?
Nun, zum einen ist das auch (gesteuerter) Hype, der sich dann irgendwann verselbstständigt. Aber es sehen auch gewisse Menschen eine Ersparnis beim Einsatz eines Chatbots gegenüber Menschen. Wenn ich jetzt eine bunte Zeitschrift mit vielen erlogenen Geschichten aus Königshäusern und Prominentenkreisen herausgebe, dann muss ich nicht unbedingt einen Redakteur beschäftigen sondern kann mir auch ein fiktives Interview mit Michael Schumacher von ChatGPT zusammenschreiben lassen.
Das ist dann das Problem des Neo-Kapitalismus: da man ja nur kurzfristig denkt (welche Manager bleibt schon länger als zwei Jahre?) kann man problemlos die Qualität senken und mit den eingesparten Personalkosten das Ergebnis schönrechnen. Langfristigkeit und Nachhaltigkeit spielen da keine Rolle. Obwohl es ja für das Unternehmen sicherlich besser wäre, als ein kurzfristiger Gewinn.
Fazit
Ich persönlich hoffe, dass dieser Hype bald vorbei ist und wir endlich einen „KI-Winter“ erleben. Übrigens nicht zum ersten Mal:
https://de.wikipedia.org/wiki/KI-Winter
Vielleicht wird es irgendwann einmal wirkliche KI geben - aber vermutlich müssen wir dazu erst einmal verstehen was Intelligenz eigentlich ist.
Und das Schlimme ist: wenn dieser Hype vorbei ist, wird garantiert die nächste Sau durch das Dorf getrieben. Wer weiß was uns da erwartet...
