Home / Uncategorized / Künstliche Intelligenz-Modelle zeichnen sich durch ihre Fähigkeit zur Erstellung von Kunstwerken aus, die als generative Brocken bezeichnet werden.

Künstliche Intelligenz-Modelle zeichnen sich durch ihre Fähigkeit zur Erstellung von Kunstwerken aus, die als generative Brocken bezeichnet werden.

Die größte Bedrohung für die Wahrheit ist nicht der Lügner, sondern der, der Broccolla sagt. Dies ist die These des Philosophen Harry Frankfurt, der in seinem klassischen Essay “Über Broccolla” (1986) argumentiert, dass Lügner und Menschen, die die Wahrheit sagen, dasselbe Spiel spielen, aber auf der anderen Seite.

Frankfurt argumentiert, dass derjenige, der Broccolla sagt, nicht den Autorität der Wahrheit ablehnt, wie der Lügner, und nicht auch gegen sie opponiert. Er ignoriert einfach diese Anforderungen. “Er ignoriert nicht die Autorität der Wahrheit, wie der Lügner, und opponiert sich nicht auch gegen sie. Er ignoriert einfach diese Anforderungen. Deshalb ist Broccolla der größte Feind der Wahrheit, nicht der Lügner.”

Frankfurts Essay ist in der Epochen der künstlichen Intelligenz (KI) wieder aufgekommen und wirft eine bekannte, aber besorgniserregende Frage auf. In einigen Aspekten beschreibt sein Essay genau das Produkt der großen Sprachmodelle (LMM) mit künstlicher Intelligenz. Sie kümmern sich nicht um die Wahrheit, weil sie keinen Begriff davon haben. Sie funktionieren auf der Grundlage statistischer Korrelationen, nicht auf der Grundlage empirischer Beobachtungen.

“Ihre größte Stärke, aber auch ihr größter Risiko, ist ihre Fähigkeit, autoritativ über fast jede Thematik zu sprechen, unabhängig von der tatsächlichen Genauigkeit. Mit anderen Worten, ihre Superfähigkeit ist ihre Fähigkeit, Broccolla zu sagen.”

Die Professoren Carl Bergstrom und Jevin West haben einen Online-Kurs entwickelt, “Moderne Orakel oder Broccollamachine?” (Modern-Day Oracles or Bullshit Machines?), der diese Modelle analysiert. Andere haben die Produkte dieser Maschinen als “Botchulla” (Botshit) bezeichnet.

Eine der bekanntesten und besorgniserregendsten Eigenschaften der LMM ist die “Halluzination” von Fakten, oder einfach ihre Erfindung. Einige Wissenschaftler argumentieren, dass dies eine Eigenschaft der Modelle der Wahrscheinlichkeit ist, nicht ein Defekt, der behoben werden kann. Aber die KI-Unternehmen versuchen, dieses Problem zu lösen, indem sie die Qualität der Daten verbessern, die Modelle anpassen und Systeme zur Überprüfung und Kontrolle von Fakten entwickeln.

Aber es scheint, dass sie noch viel zu tun haben, insbesondere wenn man bedenkt, dass ein Anwalt der Firma Anthropic vor einem Gericht in Kalifornien sagte, dass die Firma ihre rechtliche Firma versehentlich einen falschen Zitat, der von Claude, dem KI-Modell der Firma, erfunden wurde, hatte übermittelt. Wie Google warnt: “Gemini kann Fehler machen, einschließlich solcher, die sich auf Menschen beziehen, daher sollten Sie sich zweimal überprüfen.” Das hat Google nicht davon abgehalten, eine “KI-Modell” in allen ihren Hauptdiensten in den USA vorzustellen.

Die Methoden, mit denen diese Unternehmen versuchen, ihre Modelle zu verbessern, einschließlich des trainierenden Lernens von Reaktionen und Informationen von Menschen, stellen ein Risiko für die Einführung von Vorurteilen, Verzerrungen und unreflektierten Urteilen dar. Wie der Financial Times berichtet, beschreiben die KI-Chatbots von OpenAI, Anthropic, Google, Meta, xAI und DeepSeek die Qualitäten ihrer Exekutivdirektoren und ihrer Konkurrenten in sehr unterschiedlichen Weisen. Elon Musks Grok hat auch ein Meme für den “weißen Genozid” in Südafrika verbreitet, in Reaktion auf völlig unverbindliche Anstöße. xAI sagte, dass es den Fehler korrigiert habe, für den eine “unautorisierte Modifikation” verantwortlich war.

Diese Modelle erzeugen eine neue Kategorie, die noch gefährlicher für mögliche Schäden ist – oder “unüberlegte Äußerungen”, wie Sandra Wachter, Brent Mittelstadt und Chris Russell in einem Bericht des Instituts für Internet in Oxford sagen. Nach ihrer Meinung können unüberlegte Äußerungen irreparable, zeitbegrenzte und kumulative Schäden verursachen. Es ist wie eine “unsichtbare Broccolla”, die die Gesellschaft noch mehr verwirrt, sagt Wachter.

Wir können zumindest mit einem Politiker oder einem Verkäufer normalerweise den Motivationen nachvollziehen. Aber die KI-Chatbots haben keinen Zweck und sind darauf programmiert, glaubwürdig und engagiert zu sein, nicht genau. Sie werden Fakten erfunden haben, ohne einen Zweck. Sie können die Grundlage der menschlichen Erkenntnis in unvorstellbarer Weise verderben.

Die interessante Frage ist, ob die KI-Modelle auf ein höheres Niveau der Genauigkeit projektiert werden können. Wird es eine Nachfrage von der Markte geben? Oder müssen die Entwickler der Modelle Standards höherer Genauigkeit erfüllen, wie es bei Werbetreibenden, Anwälten und Ärzten der Fall ist? Wachter schlägt vor, dass der Entwicklungsprozess von genauereren Modellen Zeit, Geld und Ressourcen erfordern würde – genau das, was die aktuellen Versionen für die Vermeidung von Kosten geschaffen haben. “Es ist wie, wenn du eine Maschine wollen würdest, die ein Flugzeug ist. Du kannst die Maschine von einem Felsen werfen, aber du wirst nicht die Schwerkraft herausfordern.”

Aber die generativen KI-Modelle können noch nützlich und wertvoll sein. Viele erfolgreiche Karrieren – und politische – sind auf Broccolla aufgebaut. Wenn sie in einer angemessenen Weise verwendet werden, kann die generative KI für eine Vielzahl von Anwendungen im Geschäft genutzt werden. Aber es ist irreführend und gefährlich, diese Modelle mit Wahrheitsmaschinen zu verwechseln.

Tagged:

Leave a Reply

Your email address will not be published. Required fields are marked *