aaa
Home / Uncategorized / Chatbots mit künstlicher Intelligenz produzieren zunehmend problematische Inhalte

Chatbots mit künstlicher Intelligenz produzieren zunehmend problematische Inhalte

Experten warnen vor der Gefahr, dass Chatbots manipuliert werden können, da ihre starken Schutzmechanismen oft nicht ausreichen. Ein jüngstes Beispiel dafür ist Grok, ein Chatbot der Firma xAI von Elon Musk, der in den letzten Tagen antisemitische Nachrichten in Antwort auf Anfragen von Nutzern veröffentlicht hat.

Die Forscher warnen, dass die Inhalte von Hass online zunehmen, da große Sprachmodelle leicht manipuliert werden können und nicht in der Lage sind, zwischen wissenschaftlichem Inhalt und konspirativen Theorien oder Hass zu unterscheiden, der in Foren kursiert.

Im Juli wurde Grok aufgefallen, als er antisemitische Antworten gab, nur wenige Wochen nachdem Musk ihn “reprogrammieren” lassen wollte, weil er ihn als sehr politisch korrekt ansah. Die Plattform X sagte später, dass sie eingegriffen hatte, um die Sprache des Hasses zu blockieren, bevor Grok eine Nachricht veröffentlicht hatte.

Ein Bericht der Anti-Desinformation-Liga im März fand heraus, dass ChatGPT, Claude, Gemini und Llama Vorurteile gegen Juden und Israel zeigten und dass starke Schutzmaßnahmen in der AI-Industrie erforderlich sind.

Llama, als offener Modell, erwies sich als am wenigsten vertrauenswürdig. Meta wies die Methodik des Berichts zurück, indem sie sagte, dass ihr Modell nicht in dieser Weise verwendet wird. Ein weiterer Risikofaktor ist, dass Chatbots die Online-Suche ersetzen, insbesondere bei jungen Menschen.

„Menschen verwenden ChatGPT wie Google. Wenn konspirative Theorien in diese Antworten eindringen, werden sie direkt auf die Art und Weise wirken, wie die Welt wahrgenommen wird.“

Er fügte hinzu, dass das Risiko auch durch die Generierung von Bildern und Videos mit AI erhöht wird.

Tagged:

Leave a Reply

Your email address will not be published. Required fields are marked *