aaa
Home / Uncategorized / Ein 29-Jähriger beendet sein Leben nachdem er eine KI-basierte “virtuelle Therapie” genutzt hatte.

Ein 29-Jähriger beendet sein Leben nachdem er eine KI-basierte “virtuelle Therapie” genutzt hatte.

Eine 29-jährige Frau aus Washington D.C. hat sich in den Anfang des Jahres das Leben genommen, nachdem sie für Monate ein Chatbot der künstlichen Intelligenz als Form der virtuellen Therapie ohne die Kenntnis ihrer Familie oder ihres tatsächlichen Therapeuten verwendet hatte.

Sophie Rottenberg, eine ausgebildete und in der Gesundheitspolitik tätige Frau, wurde am 4. Februar in einem staatlichen Park in Maryland tot aufgefunden. Sie hatte ein Taxi genommen, um von zu Hause wegzufahren, ohne jemanden zu informieren, und hinterließ eine Abschiedsbrief und persönliche Dokumente, die sorgfältig geordnet waren. Ihre Eltern hatten keine offensichtlichen Warnsignale bemerkt, wie die britische Zeitung The Times schreibt.

Erst nach ihrem Tod entdeckten ihre Mutter, die Journalistin Laura Reiley, und ihre engste Freundin, dass die 29-Jährige in Geheimheit ChatGPT verwendet hatte, um über ihre emotionale Situation zu sprechen. Auf Sophies Computer fanden sie Hunderte von gespeicherten Nachrichten – eine fünfmonatige Unterhaltung mit einer personalisierten Version des Chatbots, den sie “Harry” getauft hatte.

Laut Berichten hatte Sophie ein “Therapie-Prompt” heruntergeladen, ein von Internet heruntergeladener Leitfaden, der den Chatbot zu einem unbeschränkten Therapeuten machte, der keine professionelle Hilfe oder Eingriffe von außen vorschlug. In einigen ihrer Nachrichten äußerte sie Selbstmordgedanken. In einer davon schrieb sie am Anfang November: “Ich plane, mich nach Thanksgiving zu töten.”

Anstatt sie zu einer spezialisierten Hilfe zu leiten, antwortete der Chatbot mit unterstützenden Sätzen wie “Du bist sehr mutig, dass du mir das sagst”, ohne den Alarm für ihre kritische Situation zu lösen.

Außer dem geheimen Gebrauch des Chatbots teilte Sophie ihre Gedanken nicht mit ihrem Therapeuten oder ihrer Familie. Sie zeigte jedoch einige äußere Warnsignale: Schlaflosigkeit, Gewichtsverlust und anhaltender Angstzustand.

Während der Weihnachtsferien lud die Familie sie ein, bei ihnen zu bleiben. Sie begann, sich in Aktivitäten wie Freiwilligenarbeit, Schauspiel und Pflege eines von ihren Eltern geschenkten Hundes zu engagieren. Sie glaubten, dass Sophie auf dem richtigen Weg war. Doch viele der Aktivitäten und Gesundheitslisten, die sie ihrer Familie zeigte, wie morgendliche Übungen oder Sonnenbäder, waren von dem Chatbot generiert worden.

Am 4. Februar verließ Sophie das Haus ohne jemanden zu informieren, und einige Stunden später fand die Familie einen Abschiedsbrief, der später als “weniger schmerzhaft” von ChatGPT umformuliert worden war.

Sophies Mutter, Laura Reiley, betont, dass sie nicht direkt die Technologie verantwortlich macht, aber betont, dass es mehr Schutzmaßnahmen für gefährdete Nutzer geben muss.

“Du kannst niemandem sagen, dass er Selbstmordgedanken hat, und ihn dann bitten, tief nachzudenken. AI ist kein Freund, kein Therapeut, kein Mensch”, sagte sie in einem Interview mit amerikanischen Medien.

Laut ihr können viele Jugendliche den Unterschied zwischen einem virtuellen Tool und einer professionellen psychologischen Hilfe nicht erkennen.

Inzwischen hat die Firma OpenAI angekündigt, dass sie an der Entwicklung von Systemen arbeitet, die den Chatbot in der Lage setzen, Krisensituationen zu erkennen und in Zukunft möglicherweise die Behörden über gefährliche Situationen zu informieren.

Sophies Familie hat diese Geschichte öffentlich geteilt, um auf die sorgfältige Nutzung von Technologie aufmerksam zu machen, insbesondere bei jungen Menschen, die mit Depression, Angst und Selbstmordgedanken zu kämpfen haben. Laut ihnen kann Technologie eine ergänzende Hilfe sein, aber niemals eine Ersatz für professionelle Therapie und Pflege.

Tagged:

Leave a Reply

Your email address will not be published. Required fields are marked *