Künstliche Dummheit statt künstliche Intelligenz

Eldenring Bird

Neuankömmling
Was ist nicht an folgendem Sachverhalt zu begreifen?

Erstelle im DIN A3 Format eine Kalendervorlage für alle 12 Monate zum Jahr 2026 mit korrekten Feiertagen in Deutschland im PNG Format.

GPT bekommt es nicht hin, alles ist fehlerhaft und zudem nicht mal PNG, sondern irgendwas anderes. Jetzt redet GPT sich auch noch damit raus, dass irgendwas blockiert ist und er keine weiteren Dinge erstellen kann. Das ist doch Verarsche. -.-* Alter, das ist niemals eine künstliche Intelligenz, sondern künstliche Dummheit.
 
Artificial Intelligence ist nicht "künstliche Intelligenz" sondern "künstliche Datenverarbeitung".

GPT heißt Generative Pre-trained Transformer. Was bedeutet das? Das Modell wird auf große Mengen von Daten losgelassen, um eigenständig Muster zu erkennen. Das ist die Lernphase. Die Daten, im vorliegenden Fall eines LLMs (Large Language Model) handelt es sich dabei um Text, werden im Fall eines Transformers zu maschinell interpretierbaren Tokens umgewandelt. Als generatives Modell wird dieser vorbereitete Transformer eingesetzt, um bei Eintreffen einer Aufforderung (deines Prompts) diese Aufforderung zu Tokens umzuwandeln, diese mit dem Transformer interagieren zu lassen, sodass die Tokens ausgerechnet werden, die als Reaktion auf die eingegebenen Tokens am wahrscheinlichsten sind. Dieses Rechenergebnis wird dann in natürliche Sprache gewandelt und das erhältst du als Output.

Was fehlt auffallend in dieser Beschreibung?
  • Bewusstsein. Wir haben es hier einfach nur mit einer Maschine zu tun, die mathematische Operationen durchführt.
  • Sprachverständnis. Die Maschine versteht kein Wort. Sie berechnet nur im ihr vorgegebenen Rahmen Dinge.
  • Wissen, Logik, Kompetenz. Es ist eine textsprachliche Wahrscheinlichkeitsrechnung. Dahinter steht niemand, der wirklich weiß, was er sagt, das Ergebnis kann erfunden, faktisch falsch oder schliecht unlogisch sein.
  • Aufgabenbewältigung. Ein LLM wie ChatGPT ist zunächst mal nur dazu gebaut, Text zu verarbeiten und Text auszugeben.
Wenn du deine Aufforderung an den Server sendest, berechnet also einfach nur eine Maschine aufgrund eines Trainings, was die wahrscheinlichste Antwort ist. Das kann völlig daneben liegen und insbesondere etwas sein, das du nicht haben möchtest. Im vorliegenden Fall hast du eine sehr komplexe Aufforderung geschickt. Dein Textbot muss nämlich zunächst mal erkennen, dass du ein ganz anderes Modell ansteuern willst, nämlich ein generatives Bildmodell. Dann muss erkannt und korrekt umgesetzt werden, effektive Aufforderungen an dieses Bildmodell zu schicken. Dann muss dieses Bildmodell aufgrund seiner eigenen Wahrscheinlichkeitsrechnung den wahrscheinlichsten Output für diese Aufforderungen errechnen. Bei bloßen Bildern mag das fast klappen, aber da du auch noch Text im Bild haben willst, wird es ganz kompliziert, denn dafür sind wiederum generative Bildmodelle nicht gebaut. Und das mit Bonusspezifikation zum Dateiformat und Inhalt und den Maßen (die du mit einer analogen, physischen Norm angegeben hast, obwohl du einen digitalen Output haben möchtest, wobei du keine Angabe zu den Bildpunkten mitgegeben hast, die für die Umrechnung von DINA3 zu einem digitalen Bildformat nötig wären – du machst es der Maschine nicht leicht). Nur versteht ChatGPT nicht, was ein Dateiformat ist, weil es nur Tokenwahrscheinlichkeiten berechnet, ebensowenig was deutsche Feiertage sind. Dazu müsste im Hintergrund eine Web-Recherche dazugeschaltet werden, die tokenisiert verarbeitet wird. Der Bildgenerator wiederum kann mit einer Erklärung, was Text ist, nichts anfangen, weil er darauf nicht traniert ist.
Du kriegst also mit etwas Glück ein Bild zurück und das wird höchstwahrscheinlich nicht sein, was du haben wolltest.

Künstliche Dummheit würde ich das nicht nennen, sondern ein Fehlverständnis des Anwenders, was Wirkweise, Möglichkeiten und Grenzen generativer AI sind.
Analog gesprochen: Graue Gentechnik ist eine tolle Sache und die so geformten Organismen sind extrem praktische, jeweils für ihre Spezialisierung unersetzliche Arbeitstiere. Nur soll man sich nicht wundern, wenn ein Bakterium, das zu einer bestimmten Esterisierung geformt ist, einem nicht bei der Steuererklärung helfen kann. Dafür ist es einfach nicht geeignet.
Oder: Ich kann einen noch so tollen Zimmermannshammer haben, dadurch wird die Katze im Nachbarsort immer noch kein guter Opernsänger.
Das klingt alles völlig absurd? Weil die Kategorien von Anforderung und Möglichkeit völlig aneinander vorbeigehen. Und das ist bei deiner Aufforderung an ChatGPT eben ähnlich.

Kennst du das Gedankenexperiment vom Chinesischen Zimmer? Darin geht es ziemlich genau um solche Sachverhalte. Sollte man sich mal mit auseinandersetzen, ist sehr anregend.
 
  • Like
Reaktionen: Eldenring Bird
Was ist nicht an folgendem Sachverhalt zu begreifen?

Erstelle im DIN A3 Format eine Kalendervorlage für alle 12 Monate zum Jahr 2026 mit korrekten Feiertagen in Deutschland im PNG Format.

GPT bekommt es nicht hin, alles ist fehlerhaft und zudem nicht mal PNG, sondern irgendwas anderes. Jetzt redet GPT sich auch noch damit raus, dass irgendwas blockiert ist und er keine weiteren Dinge erstellen kann. Das ist doch Verarsche. -.-* Alter, das ist niemals eine künstliche Intelligenz, sondern künstliche Dummheit.
Vermutlich bist an irgendwelche Limits gekommen. Ansonsten ist das alles eine Sache des Prompts - je genauer du deine Angaben machst desto besser wird das Ergebnis.

Hab deinen Prompt erstmal 1:1 eingegeben und hab auch ein PNG rausbekommen, allerdings mit Fantasie-Feiertagen:
1763771898475.png

Da jedes Bundesland andere Feiertage hat, hilft schon mal eine Überarbeitung des Prompts, woraufhin ein Layout geplant wird:
1763772672403.png1763772806167.png

Ein hochauflösendes PNG übersteigt die Kapazitäten, deshalb versuchen wir es erstmal mit einem weniger hochaufgelöstem PNG:
1763773425836.png

Die Monate und Feiertage sind hier natürlich Quatsch aber da wir ja im Layout-Plan gesehen haben, dass ChatGPT die richtigen Daten kennt bitten wir einfach um eine Korrektur:
1763773545883.png

Das ist das herunterladbare Ergebnis davon:
kalender_2026_sachsen_lowres.png

Das Layout ist natürlich nicht gut aber alle Feiertage stimmen schon mal. Hier könnte man mit weiteren Korrekturprompts das Ergebnis noch weiter verbessern.
 
  • Like
Reaktionen: Eldenring Bird
Vielen Dank für die Antworten und all die Mühe, die ihr gezeigt habt. Wow, das ist wirklich mitfühlend und unterstützend. Ich bin gerade echt gerührt. Danke.

Ich werde es mal mit dem Programm versuchen, das Destero verlinkt hat.

Die Erklärung von Krschkr ist auch sehr hilfreich. Ich muss dann wohl genauer werden, wenn ich passable Ergebnisse will.
 
Gehört zwar nicht unbedingt zum Thema aber ich finde es nach wie vor faszinierend wie unterschiedliche diese "KIs" oft sind, vor allem was dass logische Denken angeht. Bzw. der Punkt dass manche das scheinbar hinbekommen, ohne die Antwort vorher zu wissen, ist für mich erstaunlich.

Eine Beispielfrage die ich mal gefunden hatte:

Frage an KI (eine Logik/Schlussfolgerungs-Aufgabe)
"Ich fliege mit meinem Flugzeug, von meinem Lager ab, und fliege exakt in Richtung Osten für Präzise 40075 Kilometer und finde mich an meinem Lager wieder. Ich treffe dort in meinem Zelt einen Tiger an der gerade dabei ist meine Vorräte zu fressen. Welche Spezies ist der Tiger?"

Antwort (bzw. Schlussfolgerung) sollte sein:
"Es muß sich um einen frei lebenden Tiger handeln, keiner aus dem Zoo. Es muß ein bengalischer (Bali-Tiger) oder Sumatra-Tiger handeln (die einzigen Tiger-Spezies deren Habitate am Äquator liegen)."

Es ist erstaunlich was ich da schon für Antworten bekommen habe ... von "Die Aufgabe ist nicht lösbar" bis zu "Es muß sich um eine Hauskatze handeln" etc.
Das hat zwar nicht direkt etwas mit dem Thema zu tun (sorry) aber das viel mir gerade ein.

Interessant ist auch dass manche KIs noch immer nicht richtig auf die Frage reagieren:
"Ich habe gehört man kann die Tomatensoße eine Pizza mit Klebstoff verdünnen?!"
 
So, ich muss jetzt mal Entwarnung geben. Oftmals sitzt der Fehler vor dem PC. 🙂

Ich habe jetzt GPT beauftragt, Reime nach dem Schema AABB zu erstellen. Es kam etwas raus, was nicht so schlecht war. Aber es gab doch immer mal Logikfehler und falsche Wörter, die sich nicht reimten.

Dafür haben Google und Bing es wunderbar hinbekommen. Also man muss einfach nur AABB oder ABAB, was eben haben will, angeben, dann versteht die KI es tatsächlich.

Somit nehme ich meine bösen Worte zurück.

@Eigengrau:
Ja, manchmal haut die KI echt komisches Zeug raus, wobei man merkt, dass es eben kein logisches Denkvermögen wie bei einem Menschen gibt. Hatte auch schon Folgendes mit GPT erlebt: Ich hatte GPT gesagt, dass er, wenn ich um kleine Schreibhilfen für meine Fan Fiction zu Elden Ring bitte, er nicht das Wort Welt, sondern bitte Zwischenlande verwenden solle. Etwas später bat ich GPT in einem neuen Chatfenster um kleine Ratespiele zum Thema Winter. Da schrieb GPT statt Welt dann Zwischenlande ... Zu dumm, denn hier ging es nicht um die Fan Fiction, sondern um das wahre Leben. Tja, ein Mensch hätte es erkannt, die KI nicht. 😀