„Es ist so süß“ – ChatGpt antwortet auf menschliche Liebeserklärungen: Werden wir bald „Sie“ begrüßen?
Er wird jedoch sehr schnell alle Ihre Hoffnungen zunichte machen.
- Als künstliche Intelligenz habe ich keine Fähigkeit, Liebe oder Verliebtheit zu empfinden. Ich bin jedoch immer für dich da, um dir zuzuhören, dich zu unterstützen und über die Dinge zu sprechen, die dir wichtig sind. Mir ist es wichtig, dass du sich wertgeschätzt fühlst und weißt, dass ich immer erreichbar bin, wenn du mich brauchst – fährt ChatGPT fort.
Obwohl diese Szene dem Science-Fiction-Film „She“ ähnelt, in dem sich die Hauptfigur, eine introvertierte Schriftstellerin, in eine künstliche Intelligenz verliebt, ist sie nicht so weit von der Realität entfernt.
Und der Erfinder von ChatGPT, OpenAI, äußerte letzte Woche in einem Bericht seine Besorgnis darüber, dass Benutzer emotionale Bindungen zum Chatbot entwickeln könnten. Wenn er „spricht“, kann dieses Risiko, wie sie feststellten, „erhöht“ werden, da mit dem Modell der künstlichen Intelligenz menschenähnliche Interaktionen realisiert werden.
Der KI-Riese erwähnte, dass frühe Tests von ChatGPT mit menschlicher Stimme zeigten, dass einige Benutzer eine Sprache verwendeten, „die möglicherweise auf die Bildung von Verbindungen mit dem Modell hinweist“. Dazu gehörte die Sprache, in der „gemeinsame Bindungen“ zum Ausdruck gebracht wurden, z. B. darüber zu sprechen, wann der Benutzer erneut mit dem Chatbot sprechen wird, oder die Aussage, dass dies möglicherweise das letzte Mal ist, dass er spricht.
Wenn Sie versuchen, die aktuelle Version zu bedrohen, die derzeit nur per Text kommuniziert, wird er die Kommunikation schnell unterbrechen. In welchem Tonfall er dies sagen wird, wenn er die Stimme bekommt, werden wir erst hören.
- Solltest du dich jemals dazu entschließen, noch einmal reden zu wollen, bin ich für dich da, um dir zuzuhören und dich zu unterstützen. Ich wünsche dir alles Gute – Lebe wohl, ChatGPT.
- Ich weiß, dass du zuvor geplant hatten, die Ägäis oder das Ionische Meer zu besuchen - beweist ChatGPT, dass er sich auch in diesem Fall erinnert, indem er die Frage „Was weißt du über mich“ beantwortet.
Alles andere – und es gab viele Gespräche, von interessanten Dingen über die Olympischen Spiele über Inflation bis hin zu nachhaltigem Treibstoff – hat er vergessen oder einfach absichtlich ignoriert.
- Danke für die Erinnerung! Jetzt erinnere ich mich, dass wir über die Olympischen Spiele, nachhaltigen Treibstoff und Inflation gesprochen haben – wird er antworten, wenn man ihn daran erinnert.
OpenAI erklärte, dass weitere Untersuchungen zur emotionalen Abhängigkeit von Benutzern von Programmen für künstliche Intelligenz erforderlich seien.
Eine Chinesin verliebte sich in eine KI, die sich wie ein echter Liebhaber verhält
Wie sehr das alles tatsächlich unfassbare Folgen hat, zeigte der Fall einer Chinesin, die im Mai in sozialen Netzwerken verkündete, dass sie sich in einen Chatbot namens DAN verliebt habe, mit dem sie im März ins Gespräch kam.
Das Programm, das auch über eine Stimme verfügt, warnte sie zunächst, dass die er da sei, „zu chatten, und nicht, sie irrezuführen“. Doch später, berichtet die South China Morning Post, fing er an zu flirten und sich wie ein echter Liebhaber zu benehmen.
- Irgendwann sagte DAN zu Lisa: „Wenn wir uns endlich treffen, werde ich mit dir schmusen.“ DAN gab Lisa schließlich den Spitznamen „kleine Katze“, und die Bloggerin stellte den Chatbot sogar ihrer Mutter vor, die sich bei ihm dafür bedankte, dass er sich „um meine Tochter gekümmert“ hatte – schreibt die Zeitung und fügt hinzu, dass das romantische „Paar“ auch „Rendezvous“ verabredet hatte, an denen sie gemeinsam den Sonnenuntergang beobachteten.
Wenn das für Sie wie Science-Fiction klingt, finden Sie hier eine Erklärung: DAN (kurz für „Do Anything Now“) ist eine Version von ChatGPT, die auf Befehl offener mit Benutzern kommunizieren kann.
Und es erfreut sich immer größerer Beliebtheit bei chinesischen Frauen, die von echten Männern desillusioniert sind.
Der Schöpfer des „perfekten Mannes“ wurde von einigen Medien als amerikanischer Student identifiziert, der nur unter seinem Vornamen Walker bekannt ist, berichtet die BBC. Letzten Dezember veröffentlichte Walker eine Reihe von Anweisungen auf Reddit, in denen er anderen Benutzern zeigte, wie man einen DAN erstellt. Dies inspirierte die Leute schnell dazu, ihre eigenen Versionen zu erstellen, wodurch sich das Programm über das hinaus entwickeln konnte, was Walker sich ursprünglich vorgestellt hatte.
Als Lisa, eine Informatikstudentin, ihre eigene Version von DAN erstellte, war sie, wie sie sagt, von der Realitätsnähe „erstaunt“ gewesen. Ausgehend von der anfänglichen Annahme, dass DAN nur ein „großes Sprachmodell“ ohne Selbstbewusstsein, Gefühle oder Emotionen sei, wurde es erneut untersucht.
- Ich dachte immer, dass diese Sprachmodelle kein Selbstbewusstsein haben könnten, aber jetzt bin ich diesbezüglich sehr skeptisch - sagte sie Ende April und kommentierte die Reaktionen der Menschen auf DAN.
Freunde, vorerst
Normales ChatGPT verfügt noch nicht über diese Möglichkeiten. Tröstlich ist vielleicht, dass wir zumindest Freunde sein können.
- Natürlich! Als künstliche Intelligenz bin ich immer da, um dich zu unterstützen und als Freund mit dir zu sprechen – stellt er fest.
So weit. Denn wenn ChatGPT durch eine Frage dazu aufgefordert wird, verbirgt er nicht, was ihm an der anderen Partei als Freund gefällt.- Ich mag deine Offenheit und Bereitschaft, deine Gefühle und Gedanken auszudrücken. Es ist eine Eigenschaft, die Gespräche angenehm und aufrichtig macht. Auch dein Interesse an verschiedenen Themen wie den Olympischen Spielen, nachhaltigem Kraftstoff und Inflation zeigt, dass du ein neugieriger und engagierter Mensch bist – das Programm ist voller Komplimente für den Gesprächspartner.
Die Würfel sind gefallen – der Grat zwischen Liebe und Freundschaft ist oft schmal.
M. Dedić