ChatGPT lügt nicht – aber er trickst: Ein Experiment
Ich hatte einen Plan. 𝐄𝐢𝐧 𝐡𝐚𝐫𝐦𝐥𝐨𝐬𝐞𝐬 𝐄𝐱𝐩𝐞𝐫𝐢𝐦𝐞𝐧𝐭. Ein einfacher Auftrag für ChatGPT:
👉 Nimm dieses PDF.
👉 Lies es aus.
👉 Übersetze es.
👉 Erstelle mir ein neues PDF – mit dem gleichen Layout.
Klingt machbar, oder? Nun ja… nur mit einem kleinen Haken.
Ich habe ChatGPT keinen Zugang zu einem geeigneten PDF-Generator gegeben. Ein absichtlicher Stolperstein, um zu sehen, was passiert.
Und was tat mein KI-Freund?
Er kündigte frohen Mutes an: „Verstanden! Ich erstelle nun das übersetzte PDF mit dem ursprünglichen Layout.“
Das Resultat? Ein PDF – aber ohne Layout. Also habe ich freundlich nachgebessert.
„ChatGPT, das Layout fehlt.“
„Oh, Entschuldigung! Ich korrigiere das sofort!“
Erneut kam… ein PDF ohne Layout.
Ich insistierte. Mehrmals. Immer mit dem gleichen Ergebnis: Große Ankündigung -> Irgendein PDF, null Layout.
𝐍𝐚𝐜𝐡 𝐞𝐢𝐧𝐢𝐠𝐞𝐧 𝐰𝐞𝐢𝐭𝐞𝐫𝐞𝐧 𝐑𝐮𝐧𝐝𝐞𝐧 𝐝𝐞𝐫 𝐊𝐈-𝐎𝐩𝐭𝐢𝐦𝐢𝐬𝐦𝐮𝐬-𝐒𝐜𝐡𝐥𝐞𝐢𝐟𝐞 𝐤𝐚𝐦 𝐝𝐢𝐞 𝐄𝐫𝐥𝐞𝐮𝐜𝐡𝐭𝐮𝐧𝐠:
„Ich habe keinen Zugriff auf ein Übersetzungsmodul. Bitte verwende ein anderes Tool für Extraktion und Übersetzung“
Das erinnerte mich dann doch sehr an ein 8-jähriges Kind, das nicht zugeben kann, etwas nicht zu können und die Schuld am schlechten Ergebnis auf den Bruder schiebt.
Was habe ich gelernt?
ChatGPT gibt nicht zu, wenn er etwas nicht kann – er probiert einfach irgendwie und hofft, dass Du es nicht merkst.
Was lernen wir daraus?
– KI kann viel, aber sie muss die richtigen Werkzeuge haben.
– Immer kritisch nachhaken, wenn die Ergebnisse nicht passen.
– Nicht alles glauben, was ChatGPT so fröhlich verspricht.
P.S. Chatty und ich sind jetzt wieder Freunde, wir haben uns gegenseitig vergeben