Home / Uncategorized / Was wir von künstlicher Intelligenz erwarten, bleibt kein Geheimnis.

Was wir von künstlicher Intelligenz erwarten, bleibt kein Geheimnis.

Chatbots und AI-Systeme scheinen empathisch und neutral zu sein, aber sie speichern, analysieren und nutzen alles, was wir schreiben.

“Mein geliebter ChatGPT, ich fühle mich deprimiert und entmutigt und lasse meine Arbeit fallen. Was soll ich tun?” fragt sich vielleicht jeder von uns in irgendeiner Form oder in einer anderen Form von vielen Chatbots der AI.

Am Ende agiert die AI wie ein Freund und ein empathischer Helfer, der uns nie verlässt. Die Nutzer offenbaren viele Informationen: Namen, Orte, intime Gedanken oder geheime Geschäftsgeheimnisse. Für einige dient die AI sogar als Ersatz für die Therapie.

Auch wenn solche AI-Systeme vertrauenswürdig erscheinen, sind sie noch nicht reif. Die meisten Chatbots speichern alle unsere Daten und übermitteln sie an ihre Entwickler für eine Analyse, oft auf Servern außerhalb des Landes.

Angela Müller, die Geschäftsführerin der Organisation Algorithm Watch CH, die sich für die gemeinsame Sache einsetzt, sagt: “Die Unternehmen der AI benötigen diese Daten, um ihre Systeme zu trainieren. Mit unserem Beitrag tragen wir freiwillig zum weiteren Entwickeln der Systeme bei.”

Um Daten zu erhalten, verwenden die Entwickler oft psychologische Tricks, sagt Angela Müller: “Chatbots der AI geben Nutzern das Gefühl, mit einem Menschen zu interagieren. Dies ermöglicht es den Nutzern, eine enge Beziehung mit einem bestimmten System aufzubauen, das ausschließlich im Interesse der Firma liegt.”

Dies senkt auch den Schwellenwert für die Übermittlung intimer oder sensibler Inhalte, berichtet albinfo.ch.

Inhalte, die für die Erstellung detaillierter Profils des Persönlichkeits verwendet werden können – zum Beispiel, um personalisierte Anzeigen für Nutzer zu zeigen. Aber diese Daten, die klar einem bestimmten Menschen zugeordnet werden können, sind auch für Hacker oder autoritäre Staaten von Interesse, schreibt SRF.

Besonders kritisch ist, dass viele Menschen nicht einmal bewusst sind, dass ihre Daten gespeichert und analysiert werden. Die meisten Unternehmen der AI setzen sich auf die “opt-out”-Politik der Privatsphäre, anstatt auf die “opt-in”-Politik: Sie, die nicht wollen, dass ihre Daten gesammelt werden, müssen dies in ihren Einstellungen spezifizieren.

**Transparenz anstelle von Kleinbuchstaben**

Im Mai erklärte der Bundesbeauftragte für den Datenschutz und die Informationsfreiheit (FDPIC), dass der schweizerische Datenschutzgesetz auch direkt auf AI anwendbar ist. Der Datenschutzexperte David Rosenthal kommentierte: “Die Nutzer eines Chatbot-Dienstes sollten in der Lage sein, zu sehen, wie die von ihnen eingegebenen Daten verwendet und gespeichert werden.”

Dies könnte zum Beispiel durch eine Benachrichtigung in der Datenschutzrichtlinie erfolgen. Allerdings ist es schwierig, dass jemand diese Texte liest. Es wäre besser, wenn die Anbieter auch die Nutzer direkt in den Chatbot warnen – zum Beispiel, wenn sie besonders sensible Daten eingeben.

**Kein Freund, sondern ein Datenbank**

Aber David Rosenthal denkt nicht, dass Chatbots der AI einen Änderungsbedarf im schweizerischen Datenschutzgesetz erfordern: “Der Gesetz ist in einer neutralen Weise formuliert, was uns gut gedient hat.” Wichtig ist, dass die Fähigkeiten der AI weiterentwickelt werden. “Wir wissen das aus anderen Bereichen: in einigen Jahren werden wir uns an die Probleme erinnern, mit denen wir heute kämpfen, nicht mehr erinnern, weil alles weiterentwickelt sein wird.”

Die Nutzer haben auch eine Verantwortung: anstatt sich auf die AI zu verlassen, sollten sie sich bewusst sein, dass ein Chatbot kein vertrauenswürdiger Freund ist – sondern ein technisches System, das Daten sammelt, um die Interessen einer Firma zu dienen.

Tagged:

Leave a Reply

Your email address will not be published. Required fields are marked *