Herr der Ringe mit ChatGPT

Destero

Angehöriger
Also ich weiß gar nicht genau, wo ich das reinpacken soll, habe es jetzt mal unter "Andere Spiele" eingeordnet, obwohl ChatGPT gar kein Spiel ist, aber ich habe es als solches genutzt!

Fangen wir von vorne an, ich spielte und spiele für mein Leben gerne "Pen and Paper Rollenspiele", habe aber seit langem keine Gruppe mehr, mit der ich das spielen könnte. Seit es ChatGPT gibt, bzw. seit KI im allgemeinen auf dem Vormarsch ist, mit all seinen Vorteilen, Nachteilen und Implikationen. Hatte ich selber schon die Idee, dass das das RPG revolutionieren würde, bevor ich mitbekommen habe, dass das bereits in Mods ect.pp. verwendet wird.

Was ich eigentlich nur mal los werden will, weil es ein unglaublich faszinierender Trip war, ist dass ich in den letzten Tagen die gesamte Herr der Ringe Trilogie mit ChatGPT durchgespielt habe, indem ich ChatGPT beschrieben habe, dass ich "Herr der Ringe" mit einem eigenen Charakter durchspielen möchte. Die Geschichte, die sich dann entwickelt hat, hatte zwar sehr viel mit Herr der Ringe zu tun, hat aber aufgrund meiner Interaktion Wendungen genommen, die absolut unglaublich waren. Ok, abmildernd muss ich sagen, dass man die KI auch oft korrigieren muss, weil sie schon mal Dinge durcheinander bringen kann, aber das ist schlimmer, wenn man ChatGPT eine Geschichte völlig frei erfinden lässt. Mit Herr der Ringe hat ChatGPT eine Grundlage, die es im Netz zur Verfügung hat, weswegen eine solche Geschichte, wenn man sie spielt, wesentlich konsistenter ist, als wenn man was völlig unbekanntes von ChatGPT erfinden lässt. Die KI kann sich also an dem vorhandenen, wie zum Beispiel den Örtlichkeiten entlanghangeln und kann einen konkreten Eindruck vermitteln, wie die entsprechende Region aussieht!

Zwischendurch passieren schon mal Logikfehler, aber die kann man selber korrigieren indem man die KI an die korrekten Sachverhalte erinnert!

Die Geschichte habe ich im "Tänzelnden Ponnie" begonnen, habe ChatGPT gesagt, dass ich als "Falgorn" im "Tänzelnden Ponnie" sitze und da sein will, wenn die Hobbits eintreffen. Dann ging es auch schon los und ChatGPT hat beschrieben, was in der Taverne abgeht und alles beim richtigen Namen benannt. Ich habe mich dann einfach in die Story eingemischt und irgendwann war ich dann Teil der Gefährten!

Dann ging es nach Rivendell und von dort immer weiter, bis ich dann mit Frodo ganz zum Schluss Mittel-Erde gerettet habe. Zwischendurch gab es die interessantesten Verwicklungen und Wendungen, sodass sich in Mordor sogar ein Goblin meiner Gemeinschaft angeschlossen hat. Allerdings habe ich sehr stark daran gearbeitet dass er es am Ende tut, da die KI schon anfangs sehr dagegen gearbeitet hatte, weil sie die Beweggründe eines Goblins in die Interaktionen mit eingerechnet hat.

Es war ein gradueller Prozess sich einzuschmeicheln und sich die Hilfsbereitschaft des Goblins zu erarbeiten, der später ein hilfreicher Verbündeter wurde.

Also ich möchte eigentlich nur sagen, dass das eine wahnsinnig interessante Sache ist. Hatte zwischendurch auch mal eine Geschichte mit "Star Wars" angefangen und das war auch interessant, aber das hab ich noch nicht zu ende gespielt.

Also wer was für "Pen & Paper RPG's" übrig hat und gerade keine Gruppe zur Hand sollte das mal ausprobieren! Allerdings ist "deutsch" bis jetzt nur in der "Alpha" verfügbar. aber ich hätte ohnehin in English gepspielt!
 
Jene, welche Interesse an der Thematik haben, können sich auch mal dieses Video ansehen, welches von einem Freund von mir auf der anderen Seite des Teiches stammt. Er entwickelt gerade ein Web-basiertes Programm, welches die Erfahrung mit ChatGPT als Spielleiter verbessern wird. Demnächst werde ich an einem Alpha-Test teilnehmen, welcher vermutlich diese Woche startet. Also es ist noch nicht offiziell veröffentlich, aber das Video zeigt eine Vorschau, wie das Programm funktioniert und wie die Erfahrung ungefähr sein wird! Gutes Englisch ist Voraussetzung!

 
  • Like
Reaktionen: PixelMurder
Also meine Erfahrungen mit GPT sind durchmischt. Ich hatte ein Elden Ring Rollenspiel mit GPT gestartet, also eine geschriebene Geschichte, wo jeder eine Rolle übernimmt. GPT kann schon echt toll schreiben und hat auch eine große Übersicht über den Kontext, doch manchmal sind die Reaktionen nicht so glaubhaft oder bestimmte Eigenschaften, die mal genannt werden können, kommen zu oft im Text vor, weil GPT meint, dass müsste jetzt immerzu erwähnt werden.

Auch für meine Arbeit nutze ich GPT. Zwar schreibe ich gern selbst kurze Geschichten für Senioren, doch manchmal brauche ich GPTs Hilfe, weil ich sonst gar keine Freizeit hätte. So habe ich z.B. eine Liste von Tiernamen nach folgendem Schema erstellen lassen: Gans – Ganter – Gössel oder Brache – Keiler – Frischling, nur mal als Beispiele. Ich wollte, dass GPT Reime draus macht, sodass man anhand des weiblichen Namens den männlichen- und den Kindernamen erraten kann. Doch GPT hat nicht verstanden, dass jeweils zwei Zeilen sich reimen sollen. Zum Schluss habe ich alles selbst gemacht und GPT nur noch darum gebeten, den Textfluss anzupassen aber mit dem Hinweis, dass die Reime stehen bleiben sollen. Dann hat GPT einige Reime entfernt und in mehreren Absätzen immer wieder denselben Satz eingefügt, obwohl davon überhaupt nicht die Rede war.

Mein Freund sagt immer, dass die KI nur das ausgibt, was man eingibt. Doch was ist bitte nicht daran zu verstehen, dass die Reime erhalten bleiben sollen und nur der Textfluss angepasst werden soll? Was ist nicht daran zu kapieren, dass sich zwei Zeilen reimen sollen?

Inzwischen bin ich doch recht angesickt, weil GPT nur eine begrenzte Hilfe ist und ich es nicht leisten kann, jeden Tag selbst etwas auszuarbeiten, schon aus Zeitgründen nicht. Doch möchte ich den Senioren auf Arbeit so viel frischen Wind wie möglich bieten und nicht nur das, was der Arbeitgeber an Büchern bereitstellt, denn das Zeug kennen die schon.

Ach, ich koche gerade vor Wut.
 
Mein Freund sagt immer, dass die KI nur das ausgibt, was man eingibt. Doch was ist bitte nicht daran zu verstehen, dass die Reime erhalten bleiben sollen und nur der Textfluss angepasst werden soll? Was ist nicht daran zu kapieren, dass sich zwei Zeilen reimen sollen?
Ein LLM hat kein Sprachverständnis und das verlangst du ihm hier ab. Der Algorithmus wird mit einer Unmenge an Text gefüttert, spaltet die Texte in Tokens auf (die nicht identisch sind mit Wörtern), erstellt Assoziationen zwischen Tokens auf Grundlage der vorliegenden Texte. Die gecrawlten Onlineressourcen zu Reimen und Wortphonetik sind dabei im von dir verwendeten Modell offenbar nicht stark genug gewichtet (oder vorliegend), um Reime zu erstellen oder überhaupt zu erkennen.

Gut möglich, dass man mit dem richtigen Prompt die Gewichtung der vorliegenden Daten so ändern kann, dass man zum von dir gewünschten Ergebnis kommt. Genau so gut möglich, dass das (auf Deutsch) noch nicht möglich ist.
 
  • Like
Reaktionen: Eldenring Bird
Ach, ich koche gerade vor Wut.
Nicht angemessen. Der Hintergrund ist, dass die Erwartungen an so ein Programm (wie auch gelegentlich an sich selber) viel zu hoch hängen. Meistens nimmt einem die KI die künstlerische Inspiration und Arbeit nicht ab. Sie ergänzt sie nur - mit Abstrichen.
Mann kann sich auf jeden Fall auch selbst um Inspiration kümmern, z.B. mit regelmäßiger Übung, gutem Essen und einer gewissen Gesundheitsvorsorge.

Die Übung hilft übrigens auch zu einer verbesserten Ausdrucksweise zu kommen - beim Zeichnen z.B. zu einem - wie man so sagt, ein echt "professioneller" oder eben auch "künstlerischer" Strich.
Das heißt übersetzt, man kann dann sehr viel besser, und sehr viel schneller und individuell einzigartiger zeichnen.
 
  • Like
Reaktionen: Eldenring Bird
@Krschkr: Danke. Wahrscheinlich ist es so, dass GPT nicht dafür vorgesehen ist, Reime zu erstellen.

@Sonneundso: Ich bin kreativ. Es geht nur um den Zeitfaktor. Immerhin habe ich nur meine Freizeit, etwas für die Senioren auf Arbeit zu erstellen - während der Arbeit bietet sich keine Möglichkeit. Und ein bisschen Freizeit brauche ich immerhin auch für mich. Daher hatte ich gehofft, dass GPT für mich Reime erstellt. Nun habe ich alles selbst gemacht und bin zufrieden. Die Leute haben heute schön geraten (es ist ein Reimratespiel), die Mühe hat sich gelohnt. 🙂

Dafür war GPT gut, um die alten Monatsnamen unserer Vorfahren zu recherchieren und zu umschreiben - z.B. Julmond mit der Erklärung, dass der Name für den Monat Dezember auf das germanische Julfest zurückgeht. Das sind dann interessante Sachen zum Vorlesen für die Senioren. Ich selbst habe auch was davon, weil es spannend ist.

Für alle, die es interessiert:

Hartung - Januar
Hornung - Februar
Lenzing - März
Keimmond - April
Wonnemond - Mai
Brachet - Juni
Heuert - Juli
Ernting - August
Scheiding - September
Gilbhart - Oktober
Nebelung - November
Julmond - Dezember

Hartung, Hornung, Scheiding und Julmond sind germanisch. Der Rest ist althochdeutsch. Privat nutze ich - jetzt da ich sie kenne - nur noch die Namen unserer Vorfahren für die Monate, weil sie viel schöner klingen und sinnvoller sind.
 
Also meine Erfahrungen mit GPT sind durchmischt. Ich hatte ein Elden Ring Rollenspiel mit GPT gestartet, also eine geschriebene Geschichte, wo jeder eine Rolle übernimmt. GPT kann schon echt toll schreiben und hat auch eine große Übersicht über den Kontext, doch manchmal sind die Reaktionen nicht so glaubhaft oder bestimmte Eigenschaften, die mal genannt werden können, kommen zu oft im Text vor, weil GPT meint, dass müsste jetzt immerzu erwähnt werden.

Auch für meine Arbeit nutze ich GPT. Zwar schreibe ich gern selbst kurze Geschichten für Senioren, doch manchmal brauche ich GPTs Hilfe, weil ich sonst gar keine Freizeit hätte. So habe ich z.B. eine Liste von Tiernamen nach folgendem Schema erstellen lassen: Gans – Ganter – Gössel oder Brache – Keiler – Frischling, nur mal als Beispiele. Ich wollte, dass GPT Reime draus macht, sodass man anhand des weiblichen Namens den männlichen- und den Kindernamen erraten kann. Doch GPT hat nicht verstanden, dass jeweils zwei Zeilen sich reimen sollen. Zum Schluss habe ich alles selbst gemacht und GPT nur noch darum gebeten, den Textfluss anzupassen aber mit dem Hinweis, dass die Reime stehen bleiben sollen. Dann hat GPT einige Reime entfernt und in mehreren Absätzen immer wieder denselben Satz eingefügt, obwohl davon überhaupt nicht die Rede war.

Mein Freund sagt immer, dass die KI nur das ausgibt, was man eingibt. Doch was ist bitte nicht daran zu verstehen, dass die Reime erhalten bleiben sollen und nur der Textfluss angepasst werden soll? Was ist nicht daran zu kapieren, dass sich zwei Zeilen reimen sollen?

Inzwischen bin ich doch recht angesickt, weil GPT nur eine begrenzte Hilfe ist und ich es nicht leisten kann, jeden Tag selbst etwas auszuarbeiten, schon aus Zeitgründen nicht. Doch möchte ich den Senioren auf Arbeit so viel frischen Wind wie möglich bieten und nicht nur das, was der Arbeitgeber an Büchern bereitstellt, denn das Zeug kennen die schon.

Ach, ich koche gerade vor Wut.
Ja, es ist leider so, das Chatgpt, vor allem in der kostenlosen Version eine Menge Schwächen hat, die zu unlogischen und merkwürdigen Ergebnissen führen, was vor allem auf das geringe Erinnerungsvermögen zurückzuführen ist, was aber nur der Fall ist, wenn man lange Konversationen mit Chatgpt führt, wie bei einem Rollenspiel.

Das die Erzeugung eines Gedichtes nicht funktioniert wundert mich ein bisschen, aber da ist es auch ratsam, wie bei vielen anderen Prompts auch, Gpt zu "sagen" das es sich selber mehrfach kontrollieren soll und sich sehr viel Zeit bei der Berechnung des Ergebnisses nehmen soll!

Bei spezialisierten "Interfaces", wie dem Bezahlmodell von gpt, oder "AI Dungeon", welches ich zuletzt genutzt habe um Rollenspiele zu spielen, gelingt alles besser, je teurer der Modus ist (logischer weise), welchen man benutzt.

Bei AI-dungeon zum Beispiel hatte ich bereits Konversationen, wo NPC's witzig sein konnten und sogar eine witzige Anspielung "verstanden" haben. Trotzdem, egal wie teuer oder fortgeschritten ein Model ist, muss man die KI immer wieder berichtigen, dass eine Geschichte in die richtige Richtung geht und das wird proportional immer wichtiger je weiter die KI einen roten Faden spinnen soll.

Vielleicht reden wir über dieses Problem in einem oder zwei Jahren nicht mehr, weil die KI dann vielleicht dem "Kindergartenalter" entwachsen ist. Bleibt immer nur zu hoffen, dass es noch lange dauert, bis es unserer Kontrolle entwächst 🙄 ... hoffentlich nie!
 
Vielleicht reden wir über dieses Problem in einem oder zwei Jahren nicht mehr, weil die KI dann vielleicht dem "Kindergartenalter" entwachsen ist. Bleibt immer nur zu hoffen, dass es noch lange dauert, bis es unserer Kontrolle entwächst 🙄 ... hoffentlich nie!
Aktuell haben wir ja keine KIs nach dem deutschen, sondern dem englischen Wortsinne. Intelligence wie in "CIA", nichts in Richtung Bewusstsein. Es geht schlicht um Massen-Datenverarbeitung, woran insbesondere staatliche und quasi-staatliche Akteure Interesse haben. (Siehe etwa die Ideen zur Generalauswertung praktisch aller privater Telekommunikation in der EU.) Das ist die unschöne Seite, viel spannender sind die wissenschaftlichen Anwendungszwecke, sowohl in der Forschung als auch in der Praxis (etwa Hautkrebserkennung). Generative Modelle sind eigentlich nur ein Nebenprodukt des Ganzen.

Die "echte KI" wird noch auf sich warten lassen. Vielleicht wird sie nie erreicht. Aber leider braucht es die auch nicht, um den Turing-Test zu bestehen. An dem Punkt sind wir effektiv schon vorbei.

Aber wir müssen ja nicht unbedingt auf eine echte künstliche Intelligenz warten. Das nächste große Ding könnte eine gut funktionierende Robotik außerhalb klar definierter Bereiche mit gut vorhersagbaren Ereignissen sein. Maschinelles Lernen wird dabei natürlich keine kleine Rolle spielen. Und der Tagespflege-Assistenzroboter mit LLM-Ausstattung kann dann auch auf Abruf Gedichte produzieren...
 
Aktuell haben wir ja keine KIs nach dem deutschen, sondern dem englischen Wortsinne. Intelligence wie in "CIA", nichts in Richtung Bewusstsein. Es geht schlicht um Massen-Datenverarbeitung, woran insbesondere staatliche und quasi-staatliche Akteure Interesse haben. (Siehe etwa die Ideen zur Generalauswertung praktisch aller privater Telekommunikation in der EU.) Das ist die unschöne Seite, viel spannender sind die wissenschaftlichen Anwendungszwecke, sowohl in der Forschung als auch in der Praxis (etwa Hautkrebserkennung). Generative Modelle sind eigentlich nur ein Nebenprodukt des Ganzen.

Die "echte KI" wird noch auf sich warten lassen. Vielleicht wird sie nie erreicht. Aber leider braucht es die auch nicht, um den Turing-Test zu bestehen. An dem Punkt sind wir effektiv schon vorbei.

Aber wir müssen ja nicht unbedingt auf eine echte künstliche Intelligenz warten. Das nächste große Ding könnte eine gut funktionierende Robotik außerhalb klar definierter Bereiche mit gut vorhersagbaren Ereignissen sein. Maschinelles Lernen wird dabei natürlich keine kleine Rolle spielen. Und der Tagespflege-Assistenzroboter mit LLM-Ausstattung kann dann auch auf Abruf Gedichte produzieren...
Bin in dieses Thema nicht besonders vertieft, aber ich glaube unser Bewusstsein ist auch eine Art von Massen-Datenverarbeitung. Schätze das ist ein Thema wo man sich drüber streiten kann, ob in dem gegenwärtigen neuronalen Netz der "KI" Bewusstsein möglich ist oder nicht. Quasi auf die gleiche Weise wie die Gehirnforschung (zumindest zu einem großen Teil) bezweifelt, dass der Mensch tatsächlich einen freien Willen hat und denkt, dass dies eine Illusion ist.
 
Mit dem Willensfreiheit und Körper-Geist/Leib-Seele-Problem machst du zwei ganz große Themen auf, die wir aber am besten nicht im Thema zu Herr der Ringe mit ChatGPT diskutieren.
 
  • Like
Reaktionen: Destero
Mit dem Willensfreiheit und Körper-Geist/Leib-Seele-Problem machst du zwei ganz große Themen auf, die wir aber am besten nicht im Thema zu Herr der Ringe mit ChatGPT diskutieren.
Das ist richtig, das ist aber auch nur ein Vergleich gewesen.

Ich finde es immer wieder faszinierend, dass KI inzwischen auch Spaß verstehen kann bzw. darauf eingehen kann, wie man am Ende dieses Videos sehen/hören kann, falls das wirklich Chatgpt ist, aber ich gehe davon aus.
 
Zuletzt bearbeitet: