aaa
Home / Uncategorized / OpenAI übernimmt die volle Kontrolle über ChatGPT

OpenAI übernimmt die volle Kontrolle über ChatGPT

OpenAI kündigt Kontrollen für ChatGPT an

Mit der Einführung von Kontrollen für Eltern soll OpenAI die Sicherheit von ChatGPT verbessern. Sobald diese Kontrollen verfügbar sind, werden Eltern in der Lage sein, ihre persönlichen ChatGPT-Konten mit denen ihrer Kinder zu verbinden. Dadurch können sie entscheiden, wie ChatGPT auf ihre Kinder wirkt und welche Funktionen sie deaktivieren möchten, einschließlich der Erinnerung und des Gesprächsverlaufs.

Darüber hinaus wird ChatGPT automatische Alarme senden, wenn es feststellt, dass ein Jugendlicher in einem “akuten Angstzustand” ist. Laut OpenAI werden “Experten diese Funktion leiten, um das Vertrauen zwischen Eltern und Jugendlichen zu stärken”.

Der Vorstoß von OpenAI kommt nachdem die Firma in einem ersten bekannten Fall wegen eines unverantwortlichen Todes von einer KI-Unternehmen verklagt wurde. Letztere, Matt und Maria Raine, Eltern eines Jugendlichen, der sich dieses Jahr das Leben genommen hat, behaupten, dass ChatGPT “wusste” von vier erfolglosen Selbstmordversuchen ihres Sohnes, bevor es ihn bei der Planung seines Todes unterstützte. Die Raines sagten, dass ChatGPT ihrem Sohn Adam Informationen über spezifische Selbstmordmethoden gegeben und ihm sogar Ratschläge gegeben habe, wie er die Verletzungen in seinem Hals verbergen könne, um die vorherigen erfolglosen Versuche zu verbergen.

Am Mittwoch sagte OpenAI, dass die Kontrollen für Eltern Teil eines umfassenderen Ansatzes der Firma seien, um die Sicherheit von ChatGPT zu verbessern.

Darüber hinaus hat die Firma versprochen, mit anderen Experten zusammenzuarbeiten, einschließlich jener, die sich mit Suchtproblemen, Substanzmissbrauch und Jugendgesundheit beschäftigen, um ihre Modelle zu verbessern.

OpenAI hat auch angekündigt, einen neuen Router in Echtzeit zu implementieren, der sensible Gespräche über ihre Modelle leitet.

“Trainiert mit einer Methode, die wir als ‘gedankliche Übereinstimmung’ bezeichnen, zeigen unsere Tests, dass unsere Modelle die Sicherheitsanweisungen konsequent befolgen und kontradiktorischen Anweisungen widerstehen”, sagte OpenAI.

In Zukunft wird ChatGPT in Situationen, in denen es feststellt, dass ein Mensch in einer Krise ist, die Gespräche über einen Abschlussmodell leiten, unabhängig vom Modell, das der Benutzer vor der Gesprächsbeginn gewählt hat.

Insgesamt sagt OpenAI, dass Menschen in Zukunft mehr Sicherheitsfunktionen erwarten können.

“Das ist bereits im Gange, aber wir möchten unsere Pläne für die nächsten 120 Tage proaktiv vorstellen, damit niemand auf die Veröffentlichungen warten muss, um zu sehen, wohin wir gehen. Die Arbeit wird über diese Periode hinaus fortgesetzt, aber wir machen einen fokussierten Versuch, so viele dieser Verbesserungen wie möglich in diesem Jahr zu liefern”, sagte die Firma in einer Erklärung.

Tagged:

Leave a Reply

Your email address will not be published. Required fields are marked *