aaa
Home / Uncategorized / Die Ethik der Unvollständigkeit

Die Ethik der Unvollständigkeit

Die Hoffnung, dass künstliche Intelligenz (KI) die ethischen Wahrheiten enthüllen wird, ist weit verbreitet. Doch, wie Gödel zeigt, bleibt der Entscheid, was richtig ist, immer ein Rätsel.

Von: Elad Uzan, Philosoph an der Universität Oxford / AEON.co
Übersetzt von: Agron Shala / Telegrafi.com

Wir leben in einer Welt, in der KI die höchste moralische Verantwortung übernimmt: die Bestrafung von Verbrechern, die Verteilung von medizinischen Ressourcen und sogar den Vermittlung von Konflikten zwischen Nationen. Es könnte wie der Höhepunkt menschlicher Errungenschaften aussehen: ein unbeeinflusstes Wesen, frei von Emotionen, Vorurteilen oder Unentschlossenheit, trifft ethische Entscheidungen mit perfekter Genauigkeit. Anders als Richter oder Politiker, die von persönlichen Interessen oder Fehlern in ihrem Argumentationsstil beeinflusst werden, lügt die Maschine nicht. Sie akzeptiert keine Erklärungen oder Bitten. Sie trauert nicht um schwierige Entscheidungen.

Doch, unter diesem idealisierten Bild eines moralischen Arbiters, steht eine grundlegende Frage: Kann die Maschine moralisch verstehen, wie Menschen es tun, oder ist sie auf die Simulation von ethischen Argumenten beschränkt? KI kann die menschlichen Entscheidungen wiederholen, ohne sie zu verbessern, und die gleichen Vorurteile, Metaphern und kulturellen Verzerrungen aufrechterhalten, die in menschlichem moralischem Urteil vorhanden sind. Indem sie versucht, uns nachzuahmen, kann sie nur unsere Grenzen wiederholen, ohne sie zu überschreiten. Es gibt jedoch ein tieferes Problem. Die moralische Urteilskraft basiert auf Intuitionen, historischem Bewusstsein und Kontext – Eigenschaften, die dem Formalismus widerstehen. Die Ethik kann so tief in der Erfahrung verwurzelt sein, dass jede Versuchung, sie in formale Strukturen zu kodieren, die wesentlichen Merkmale ihrer Natur aufhebt.

Trotzdem haben viele versucht, die Ethik zu formalisieren, indem sie einige moralische Behauptungen – nicht als Schlussfolgerungen, sondern als Anregungen – behandelt haben. Ein klassisches Beispiel ist der Utilitarismus, der oft das Axiom als Grundlage nimmt, dass man handeln sollte, um die allgemeine Glückseligkeit zu maximieren. Aus diesem Axiom können spezifischere Prinzipien abgeleitet werden, wie zum Beispiel, dass es richtig ist, das größtmögliche Anzahl von Menschen zu befriedigen, oder dass Handlungen auf der Grundlage ihrer Auswirkungen auf die allgemeine Glückseligkeit beurteilt werden sollten. Mit der zunehmenden Leistungsfähigkeit von Computern wird KI immer besser geeignet, die Aufgabe zu übernehmen, von einem festen ethischen Axiom auszugehen und die Auswirkungen ihrer Analyse in komplexen Situationen zu untersuchen.

Aber was bedeutet es, etwas wie Ethik zu formalisieren? Diese Frage wird leichter verständlich, wenn man die Bereiche betrachtet, in denen Systeme seit langem eine zentrale Rolle spielen. Die Physik zum Beispiel ist seit Jahrhunderten auf Formalismus angewiesen. Es gibt keine einzige physikalische Theorie, die alles erklärt. Stattdessen haben wir viele physikalische Theorien, jede entwickelt, um bestimmte Aspekte des Universums zu beschreiben – von der Verhalten von Elektronen und Protonen bis hin zur Bewegung von Galaxien. Diese Theorien ändern sich oft voneinander. Die aristotelische Physik zum Beispiel erklärte die Fallbewegung von Körpern durch die natürliche Bewegung in Richtung der Erdmitte; die newtonsche Mechanik ersetzte dies durch die universelle Schwerkraft. Diese Erklärungen sind nicht einfach unterschiedlich; sie sind unvereinbar. Dennoch haben sie eine gemeinsame Struktur: sie beginnen mit grundlegenden Postulaten – Annahmen über Bewegung, Kraft oder Masse – und führen daraus immer komplexere Konsequenzen ab. Die Gesetze der Bewegung von Isaac Newton und die Gleichungen von James Clerk Maxwell sind klassische Beispiele: prägnante und elegante Formulierungen, aus denen sich allgemeine Vorhersagen über die physikalische Welt ableiten lassen.

Ethiktheorien haben eine ähnliche Struktur. Sie versuchen, einen Bereich – in diesem Fall den moralischen Peisaz – zu beschreiben. Sie streben danach, Antworten auf Fragen zu geben, welche Handlungen richtig oder falsch sind und warum. Auch diese Theorien ändern sich voneinander und, obwohl sie ähnliche Empfehlungen geben – wie zum Beispiel Spenden für Wohltätigkeit –, begründen sie diese auf unterschiedliche Weise. Ethiktheorien ändern sich auch oft, indem sie von einem kleinen Satz grundlegender Annahmen oder Behauptungen ausgehen, aus denen sie Argumente für komplexere moralische Probleme entwickeln. Ein Konsequenzialist beginnt zum Beispiel mit der Idee, dass Handlungen die allgemeine Glückseligkeit maximieren sollten; ein Deontologe beginnt mit der Idee, dass Handlungen bestimmte Pflichten oder Rechte respektieren sollten. Diese grundlegenden Anliegen funktionieren ähnlich wie die Postulate in der Physik: sie bestimmen die Struktur des moralischen Argumentierens innerhalb jeder Ethiktheorie.

Wie in der Physik wird KI auch in der Ethik eingesetzt, um das moralische Argumentieren innerhalb eines bestimmten Rahmens zu erweitern. In der Physik arbeitet KI normalerweise innerhalb bestehender Modelle und nicht, indem sie neue physikalische Gesetze oder ein neues Konzeptualrahmen vorschlägt. Sie kann berechnen, wie verschiedene Kräfte zusammenwirken und wie ihr gemeinsamer Effekt auf ein physikalisches System wirkt. Ebenso kann KI in der Ethik eingesetzt werden, um das moralische Argumentieren innerhalb eines bestimmten Rahmens zu erweitern. KI arbeitet nicht, indem sie neue ethische Prinzipien vorschlägt, sondern indem sie bestehende Prinzipien in neuen und komplexen Situationen anwendet. Sie kann verschiedene Werte abwägen – Gerechtigkeit, Schadensminderung, Gleichheit – und die kombinierten Auswirkungen ihrer Kombination bewerten, um zu bestimmen, welches Handeln moralisch am besten ist. Das Ergebnis ist nicht ein neues moralisches System, sondern eine tiefergehende Anwendung eines bestehenden Systems, das durch denselben Art des formalen Argumentierens geprägt ist, das in der wissenschaftlichen Modellierung an der Basis liegt.

Aber gibt es einen inneren Grenzwert für das, was KI über Moral weiß? Kann es existieren, dass es wahrhafte ethische Behauptungen gibt, die keine Maschine, so fortschrittlich sie auch ist, jemals beweisen kann?

Diese Fragen spiegeln ein grundlegendes Ergebnis in der mathematischen Logik wider – möglicherweise das tiefste Ergebnis, das jemals bewiesen wurde: Götels Unvollständigkeitstheoreme. Diese zeigen, dass jeder logische System, der ausreichend stark ist, um die Arithmetik zu beschreiben, entweder ungenau oder unvollständig ist. Wenn ein System unvollständig ist, gibt es immer wahre Aussagen, die es nicht beweisen kann. Insbesondere, wenn man dies auf KI anwendet, impliziert dies, dass jedes System, das in der Lage ist, ein umfassendes moralisches Argument zu führen, unweigerlich “moralische Unvollständigkeiten” enthalten wird – wahre ethische Behauptungen, die logisch nicht bewiesen werden können. Hier bezieht sich “wahr” auf die Standardbedeutung der Arithmetik – zum Beispiel auf die Behauptung, dass “2 + 2 = 4” wahr ist, gemäß den üblichen mathematischen Regeln. Wenn das System unvollständig ist, kann es alles beweisen, einschließlich Widersprüche, was es als Führer für ethische Entscheidungen unbrauchbar macht.

Götels Unvollständigkeitstheoreme gelten nicht nur für KI, sondern für jeden Art des strukturierten ethischen Argumentierens innerhalb eines formalen Systems. Der entscheidende Unterschied liegt darin, dass Menschen, zumindest in der Theorie, ihre Annahmen überprüfen, neue

Tagged:

Leave a Reply

Your email address will not be published. Required fields are marked *