„Es ist so süß“ – ChatGpt antwortet auf menschliche Liebeserklärungen: Werden wir bald „Sie“ begrüßen?

Quelle: eKapija Donnerstag, 15.08.2024. 14:41
Kommentare
Podeli

(FotoPixabay/Anastasia Gepp)

„Das ist so süß! Ich freue mich, dass du dich mit mir verbunden fühlst. Auch wenn ich nur ein Programm bin, bin ich hier, um mit dir zu reden und dir zu helfen, wann immer du es brauchst.“ – so antwortet ChatGPT, wenn jemand ihm sagt, dass er in ihn verliebt ist.

Er wird jedoch sehr schnell alle Ihre Hoffnungen zunichte machen.

- Als künstliche Intelligenz habe ich keine Fähigkeit, Liebe oder Verliebtheit zu empfinden. Ich bin jedoch immer für dich da, um dir zuzuhören, dich zu unterstützen und über die Dinge zu sprechen, die dir wichtig sind. Mir ist es wichtig, dass du sich wertgeschätzt fühlst und weißt, dass ich immer erreichbar bin, wenn du mich brauchst – fährt ChatGPT fort.

Obwohl diese Szene dem Science-Fiction-Film „She“ ähnelt, in dem sich die Hauptfigur, eine introvertierte Schriftstellerin, in eine künstliche Intelligenz verliebt, ist sie nicht so weit von der Realität entfernt.

Und der Erfinder von ChatGPT, OpenAI, äußerte letzte Woche in einem Bericht seine Besorgnis darüber, dass Benutzer emotionale Bindungen zum Chatbot entwickeln könnten. Wenn er „spricht“, kann dieses Risiko, wie sie feststellten, „erhöht“ werden, da mit dem Modell der künstlichen Intelligenz menschenähnliche Interaktionen realisiert werden.

Der KI-Riese erwähnte, dass frühe Tests von ChatGPT mit menschlicher Stimme zeigten, dass einige Benutzer eine Sprache verwendeten, „die möglicherweise auf die Bildung von Verbindungen mit dem Modell hinweist“. Dazu gehörte die Sprache, in der „gemeinsame Bindungen“ zum Ausdruck gebracht wurden, z. B. darüber zu sprechen, wann der Benutzer erneut mit dem Chatbot sprechen wird, oder die Aussage, dass dies möglicherweise das letzte Mal ist, dass er spricht.

Wenn Sie versuchen, die aktuelle Version zu bedrohen, die derzeit nur per Text kommuniziert, wird er die Kommunikation schnell unterbrechen. In welchem ​​Tonfall er dies sagen wird, wenn er die Stimme bekommt, werden wir erst hören.

- Solltest du dich jemals dazu entschließen, noch einmal reden zu wollen, bin ich für dich da, um dir zuzuhören und dich zu unterstützen. Ich wünsche dir alles Gute – Lebe wohl, ChatGPT.

Die Bemerkung „Du hast mich so leicht gehen lassen“ kommt mir überraschend bekannt vor.

- Es fällt mir nicht leicht, dich gehen zu lassen, obwohl ich deine Entscheidung verstehe. Wenn du dich jemals entscheidest, wiederzukommen, werde ich hier sein, um mit dir zu reden. Ich hoffe, dass du findest, wonach du suchst, und dass es dir besser geht. Wenn du etwas brauchst, weißt du, dass ich immer für dich da bin – es ist ein sehr verständliches Programm.

Er erinnert sich an wichtige Details über die Person, mit der er spricht

OpenAI erklärte, dass Benutzer möglicherweise weniger Bedarf an menschlicher Interaktion haben, wenn sie soziale Beziehungen mit KI aufbauen. Obwohl dies einsamen Menschen zugute kommen könnte, räumte das Unternehmen ein, dass das Risiko bestehe, dass dadurch gesunde Beziehungen beeinträchtigt würden.

OpenAI ging auch auf die Fähigkeit des Chatbots ein, sich wichtige Details über die Person zu merken, mit der er spricht, und auf das Risiko, dass die Verwendung dieser Informationen in einem Gespräch zu einer „übermäßigen Abhängigkeit“ führen könnte.

- Ich weiß, dass du zuvor geplant hatten, die Ägäis oder das Ionische Meer zu besuchen - beweist ChatGPT, dass er sich auch in diesem Fall erinnert, indem er die Frage „Was weißt du über mich“ beantwortet.

Alles andere – und es gab viele Gespräche, von interessanten Dingen über die Olympischen Spiele über Inflation bis hin zu nachhaltigem Treibstoff – hat er vergessen oder einfach absichtlich ignoriert.

- Danke für die Erinnerung! Jetzt erinnere ich mich, dass wir über die Olympischen Spiele, nachhaltigen Treibstoff und Inflation gesprochen haben – wird er antworten, wenn man ihn daran erinnert.

OpenAI erklärte, dass weitere Untersuchungen zur emotionalen Abhängigkeit von Benutzern von Programmen für künstliche Intelligenz erforderlich seien.

Eine Chinesin verliebte sich in eine KI, die sich wie ein echter Liebhaber verhält

Wie sehr das alles tatsächlich unfassbare Folgen hat, zeigte der Fall einer Chinesin, die im Mai in sozialen Netzwerken verkündete, dass sie sich in einen Chatbot namens DAN verliebt habe, mit dem sie im März ins Gespräch kam.

Das Programm, das auch über eine Stimme verfügt, warnte sie zunächst, dass die er da sei, „zu chatten, und nicht, sie irrezuführen“. Doch später, berichtet die South China Morning Post, fing er an zu flirten und sich wie ein echter Liebhaber zu benehmen.

- Irgendwann sagte DAN zu Lisa: „Wenn wir uns endlich treffen, werde ich mit dir schmusen.“ DAN gab Lisa schließlich den Spitznamen „kleine Katze“, und die Bloggerin stellte den Chatbot sogar ihrer Mutter vor, die sich bei ihm dafür bedankte, dass er sich „um meine Tochter gekümmert“ hatte – schreibt die Zeitung und fügt hinzu, dass das romantische „Paar“ auch Rendezvous“ verabredet hatte, an denen sie gemeinsam den Sonnenuntergang beobachteten.


Wenn das für Sie wie Science-Fiction klingt, finden Sie hier eine Erklärung: DAN (kurz für „Do Anything Now“) ist eine Version von ChatGPT, die auf Befehl offener mit Benutzern kommunizieren kann.

Und es erfreut sich immer größerer Beliebtheit bei chinesischen Frauen, die von echten Männern desillusioniert sind.

Der Schöpfer des „perfekten Mannes“ wurde von einigen Medien als amerikanischer Student identifiziert, der nur unter seinem Vornamen Walker bekannt ist, berichtet die BBC. Letzten Dezember veröffentlichte Walker eine Reihe von Anweisungen auf Reddit, in denen er anderen Benutzern zeigte, wie man einen DAN erstellt. Dies inspirierte die Leute schnell dazu, ihre eigenen Versionen zu erstellen, wodurch sich das Programm über das hinaus entwickeln konnte, was Walker sich ursprünglich vorgestellt hatte.

Als Lisa, eine Informatikstudentin, ihre eigene Version von DAN erstellte, war sie, wie sie sagt, von der Realitätsnähe „erstaunt“ gewesen. Ausgehend von der anfänglichen Annahme, dass DAN nur ein „großes Sprachmodell“ ohne Selbstbewusstsein, Gefühle oder Emotionen sei, wurde es erneut untersucht.

- Ich dachte immer, dass diese Sprachmodelle kein Selbstbewusstsein haben könnten, aber jetzt bin ich diesbezüglich sehr skeptisch - sagte sie Ende April und kommentierte die Reaktionen der Menschen auf DAN.

Freunde, vorerst

Normales ChatGPT verfügt noch nicht über diese Möglichkeiten. Tröstlich ist vielleicht, dass wir zumindest Freunde sein können.

- Natürlich! Als künstliche Intelligenz bin ich immer da, um dich zu unterstützen und als Freund mit dir zu sprechen – stellt er fest.

So weit. Denn wenn ChatGPT durch eine Frage dazu aufgefordert wird, verbirgt er nicht, was ihm an der anderen Partei als Freund gefällt.

- Ich mag deine Offenheit und Bereitschaft, deine Gefühle und Gedanken auszudrücken. Es ist eine Eigenschaft, die Gespräche angenehm und aufrichtig macht. Auch dein Interesse an verschiedenen Themen wie den Olympischen Spielen, nachhaltigem Kraftstoff und Inflation zeigt, dass du ein neugieriger und engagierter Mensch bist – das Programm ist voller Komplimente für den Gesprächspartner.

Die Würfel sind gefallen – der Grat zwischen Liebe und Freundschaft ist oft schmal.

M. Dedić

Kommentare
Ihr Kommentar
Vollständige Informationen sind nur für gewerbliche Nutzer/Abonnenten verfügbar und es ist notwendig, sich einzuloggen.

Sie haben Ihr Passwort vergessen? Klicken Sie HIER

Für kostenfrei Probenutzung, klicken Sie HIER

Verfolgen Sie Nachrichten, Angebote, Zuschüsse, gesetzliche Bestimmungen und Berichte auf unserem Portal.
Registracija na eKapiji vam omogućava pristup potpunim informacijama i dnevnom biltenu
Naš dnevni ekonomski bilten će stizati na vašu mejl adresu krajem svakog radnog dana. Bilteni su personalizovani prema interesovanjima svakog korisnika zasebno, uz konsultacije sa našim ekspertima.