

Digitale Ethik
Alles im Leben scheint eine digitale Komponente bekommen zu müssen. Viele Entwickler und Forscher drängen auf die Realisierung alles technisch Machbaren. Aus ethischer Sicht lauten die vordringlichen Diskussionsfragen jedoch nicht, was technisch möglich ist, sondern was wir Menschen überhaupt wollen – und was entsprechend hergestellt werden soll oder darf. Der Artikel stellt die vieldiskutierte Frage nach der Superintelligenz in den Fokus.
Die Digitalisierung und der digitale Wandel sind hochaktuelle, möglicherweise die drängendsten und wichtigsten Themen unserer Zeit, welche in wissenschaftlichen, medialen und gesellschaftlichen Diskursen immer mehr Raum einnehmen. Die Rede ist vom „Megatrend des 21. Jahrhunderts“, einem tiefgreifenden „Kulturwandel“ oder gar einem „Paradigmenwechsel“ und einer dritten oder vierten „Revolution“.
Die Digitalisierung erfasst immer mehr Lebens- und Arbeitsbereiche und entwickelt sich in rasend schnellem Tempo. Fast täglich wird von den Medien über neue technologische Errungenschaften, Durchbrüche und Entwicklungstrends in der Forschung berichtet. Menschen verbringen einen immer größeren Teil ihrer Lebenszeit online in sozialen Netzwerken und virtuellen Welten und informieren sich hauptsächlich über Internetdienste. Infolgedessen prägen die digitalen Medien in hohem Maß die Art und Weise, wie wir die Welt wahrnehmen, miteinander kommunizieren und umgehen.
Der Ruf nach schnelleren und flächendeckenden Internetverbindungen und nach digitaler „Aufrüstung“ von Schulen und öffentlicher Verwaltung ist allgegenwärtig. Alles im Leben scheint eine digitale Komponente bekommen zu müssen, um mithilfe des Sammelns und Auswertens von Daten das Lernen, Arbeiten, Einkaufen oder die Freizeitgestaltung zu optimieren. So verändert der digitale Wandel die Denk- und Handlungsweisen der Menschen, die gesellschaftlichen Organisationsformen und sozialen Systeme, und damit auch das menschliche Welt- und Selbstverständnis.
Eigendynamik und befürchteter Kontrollverlust
Für Skeptiker und Kritiker dieser Veränderungsdynamik ist jedoch die omnipräsente Rede von „Digitalisierung“ regelrecht zum Reizwort geworden. Je stärker sich die Digitalisierung und ihre Auswirkungen im täglichen Leben bemerkbar machen, desto mehr breiten sich ernstzunehmende Bedenken sowie diffuse Bedrohungsgefühle in der Bevölkerung aus: etwa die Furcht vor dem Verlust von Arbeitsplatz und Privatsphäre infolge permanenter Überwachung, oder diejenige vor Manipulationen der eigenen Entscheidungen durch algorithmenbasierte Suchmaschinen oder individualisierte Werbung. Insbesondere in der westlichen Science-Fiction-Kultur hat das Ausmalen von Katastrophenszenarien wie der Versklavung oder Auslöschung der Menschen durch überlegene und grausame Roboter bereits eine lange Tradition.
Apokalyptische Ängste werden häufig verstärkt durch den weit verbreiteten Eindruck, dass wir in immer schnellerem Tempo von informationstechnologischen Innovationen überrollt werden und den Umwälzungen ohnmächtig ausgeliefert sind. Sie scheinen eine so starke Eigendynamik zu entwickeln, dass die Menschen kaum mehr nachkommen und die Kontrolle verlieren. Demgegenüber scheint bei vielen Entwicklern, Forschern und technikaffinen Menschen die Faszination von den enormen technologischen Fortschritten eine Euphorie auszulösen, die zur Realisierung alles technisch Machbaren drängt. Angesichts immer intelligenterer und autonomerer Roboter und leistungsfähigerer Anwendungen Künstlicher Intelligenz werden die Fragen virulent, ob die Maschinen nicht die „besseren Menschen“ sind und der „unterlegene Mensch“ nicht technologisch aufgerüstet oder gar ganz durch intelligente Computer ersetzt werden soll.
Darf eine Superintelligenz hergestellt werden?
Bei der artifiziellen Superintelligenz handelt es sich nüchtern betrachtet um eine Spekulation, weil ihre Entwicklung noch in weiter Ferne steht und es erhebliche technische Hürden gibt, die möglicherweise unüberwindbar sind. Gleichwohl zieht das Thema gegenwärtig eine enorme öffentliche Aufmerksamkeit auf sich. Superintelligenz meint starke, generelle KI-Systeme, die menschliche kognitive Leistungsfähigkeit sowohl quantitativ als auch qualitativ übertreffen und mehr Probleme lösen können als Menschen.
Genauso wie starke KI hätten sie mentale Zustände wie Bewusstsein, Intentionalität und einen eigenen Willen. Meist wird zusätzlich davon ausgegangen, dass sich solche superintelligenten Systeme wie Menschen weiterentwickeln und immer intelligentere Maschinen hervorbringen können. Diese Möglichkeit zum Entwerfen neuer Generationen könnte dazu führen, dass es zu einer Intelligenzexplosion bei der Entwicklung von einer dem Menschen ebenbürtigen KI hin zur Superintelligenz käme.
In akademischen Kreisen werden solche Spekulationen von vielen noch immer als Spinnereien oder technoide Fantasien abgetan, auf die man nicht weiter einzugehen brauche. Sie gewinnen aber faktisch an Einfluss auf die Digitalisierungsprozesse, je mehr anerkannte Wissenschaftler, mächtige Unternehmer und Technikgläubige sich von ihnen inspirieren lassen und viel Zeit und Geld in ihre Verwirklichung investieren. Wenn diejenigen, die ohne Rücksicht auf die zahlreichen, schon lange vorhandenen Ethikrichtlinien exzessiv neue Technologien vorantreiben, hinterher plötzlich erschrecken und die Menschheit vor einer gefährlichen Entwicklung warnen, scheint eine Art Doppelmoral vorzuliegen. So forderten im Jahr 2023 über 1000 prominente IT-Unternehmer und KI-Forscher wie Elon Musk, Stuart Russell und Deep-Learning-Pionier Yoshua Bengio wegen fehlender Sicherheitsstandards ein sechsmonatiges Moratorium für die KI-Weiterentwicklung. Bereits erwähnt wurde das Kontrollproblem, das heißt die Gefahr, dass Menschen die Kontrolle über KI-Systeme verlieren und es schlimmstenfalls zu einer existenziellen Katastrophe wie der Vernichtung oder Versklavung der Menschheit kommen könnte.
Für superintelligente Maschinen wäre eine solche Machtübernahme ein Leichtes, weil sie mit ihrer viel schnelleren und besseren kognitiven Leistungsfähigkeit über einen entscheidenden strategischen Vorteil verfügten. Insbesondere im Fall einer global vernetzten kollektiven Superintelligenz könnten sie ein gewaltiges zerstörerisches Potenzial entwickeln. Gemäß dem Gorillaproblem würde das Schicksal der Spezies Mensch dann noch stärker von KI-Systemen abhängen als dasjenige heutiger Gorillas – oder z. B. von Haustieren – von den Menschen. Um solche Entgleisungen und einen menschlichen Kontrollverlust zu vermeiden, widmen sich ganze Forschungszweige z. B. zur sogenannten „Friendly AI“ oder „AI-Safety“ dem Alignment Problem, zu Deutsch Wertgebungsproblem: Sie haben sich zur Aufgabe gesetzt, künstlichen intelligenten Systemen menschliche Werte oder Normen zu implementieren, um sie mit menschlichen Zielen und Vorgehensweisen in Übereinstimmung zu bringen. Doch damit sind erhebliche informatisch-technische Schwierigkeiten, angesichts der Vielfalt an Moraltheorien aber auch normative Probleme verbunden. Bei superintelligenten Systemen mit höheren kognitiven Fähigkeiten als Menschen könnte es je nach ihrem moralischen Status darüber hinaus moralisch überhaupt fragwürdig sein, sie wie schwache KI-Systeme für menschliche Ziele und Werte zu instrumentalisieren.
Bedrohungsszenarien gegen Technikeuphorie
Problematisch an der Debatte über neue Technologien ist zunächst die hohe Emotionalität und die starke Polarisierung, die eine differenzierte, rationale Betrachtung erschweren. Auf der einen Seite lösen solche Bedrohungsszenarien genauso wie die entsprechenden Dystopien der Science-Fiction diffuse lähmende Ängste in der Bevölkerung aus. Auf der anderen Seite ist die Superintelligenz für viele Technikbegeisterte und Posthumanisten wie den Futuristen, Informatiker und Google-Forschungsdirektor Kurzweil ein Ziel oder eine Utopie, weil sie Menschen von allen biologischen Begrenzungen befreie und soziales Wohlergehen herbeiführe. Indem Kurzweil in seinen Büchern sogar konkrete Prognosen zu den Etappen hin zur angeblich näher rückenden, im Jahr 2045 erreichten Singularität macht, befördert er eine weit verbreitete, bereits mehrfach kritisierte Einstellung zur Technikentwicklung: Gemäß einem digitalen Technikdeterminismus folgen technische Neuerungen einer Eigendynamik, die der Mensch nicht beeinflussen kann. Je nach Bewertung der Ziele dieses scheinbar unvermeidbar und automatisch ablaufenden Prozesses verleitet dies zu einem euphorischen Optimismus oder einem fatalistischen Pessimismus.
Können, dürfen, sollen?
Exakte Vorhersagen der Zukunft sind wissenschaftlich aber völlig unseriös, und technokratische Heilsversprechen ethisch genauso verwerflich wie das Heraufbeschwören von Vernichtungsfantasien. Aus ethischer Sicht lautet die vordringliche Diskussionsfrage jedoch ohnehin nicht, ob eine starke KI oder Superintelligenz technisch möglich ist, sondern ob wir Menschen diese überhaupt wollen und ob sie hergestellt werden soll oder darf: Die Frage nach dem Sollen beziehungsweise Unterlassen muss Priorität haben vor derjenigen nach dem Können.
Kontrolle über die Technik behalten
Es geht in der Digitalisierungsdebatte also keineswegs darum, die technologische Entwicklung möglichst präzise vorauszusehen, sondern sie wertgeleitet zu regulieren: Wir als Menschen können und sollen den digitalen Wandel und unsere Zukunft gestalten, so lautet die Kernbotschaft der Digitalen Ethik. Es herrscht im gegenwärtigen ethischen Diskurs ein breiter Konsens darüber, dass der Mensch die Kontrolle über die von ihm entwickelte Technik behalten muss. Um einen Kontrollverlust zu vermeiden, braucht es hinsichtlich der Visionen einer Superintelligenz klare Obergrenzen für die Entwicklung der Eigenschaften und Fähigkeiten von KI: Es dürfen keine KI-Systeme mit einem Innenleben, einem eigenen Willen und eigenen Vorstellungen von gut und böse hergestellt werden, weil diese keine Werkzeuge im Dienst der Menschen mehr wären. Sie hätten nicht länger nur instrumentellen Wert mit Blick auf das menschliche Wohl, sondern wären Selbstzwecke mit einem intrinsischen Wert und moralischem Status. Als solche könnten sie sich selbst Ziele setzen und eigene Interessen verfolgen.
Dem Wohl der Menschen dienen
Es kann als kleinster gemeinsamer Nenner in der ethischen Debatte über Digitalisierung gelten, dass Technik dem Wohl der Menschen dienen soll. Angesichts des hohen Interpretationsspielraums der Leitwerte und verschiedener Vorstellungen von einem guten menschlichen Leben und einer gerechten Grundordnung irritiert es, dass für viele IT-Unternehmer, Trans- und Posthumanisten klar zu sein scheint, wie das Wohl der Menschen aussähe und was der ideale Mensch wäre. Eine Ethik der Digitalisierung ist dringend erforderlich, um sich mit der Frage auseinanderzusetzen, wer wir als Menschen sein wollen, was für Menschen ein gutes Leben ist und wie wir dazu gelangen.
Anstelle von KI-Experten oder mächtigen Unternehmensgründern können letztlich nur die Menschen selbst wissen, welche wissenschaftlichen Erfindungen dem „Wohl des Menschen“ dienen und wie die vielfach miteinander konkurrierenden Werte bei konkreten Anwendungen zu gewichten sind. Daher wird den allgemeinen Prinzipien der Partizipation und einer kritischen Öffentlichkeit in meinem Buch „Digitale Ethik“ (siehe Lesetipp, Anm.) hohe Bedeutung beigemessen. Auch sollte ein Beitrag zur Befähigung der Leser geleistet werden, damit sie sich nicht den rasend schnell voranschreitenden technischen Entwicklungen ohnmächtig ausgeliefert fühlen. Denn obwohl die meisten beruflich oder privat täglich Apps, algorithmische Entscheidungssysteme, Soziale Netzwerke oder ChatGPT etwa in der Verwaltung oder bei der Internet-Suche nutzen, fehlen teilweise basale Kenntnisse bezüglich deren Funktionsweisen, Stärken und Grenzen. Auch an allen Schulen und in der Weiterbildung müssen digitale (Medien-)Kompetenzen und AI Literacy sowie ein kritisches Bewusstsein gefördert werden, um zu verhindern, dass den digitalen Technologien aus Bequemlichkeit oder Faszination am Neuen blind vertraut wird. Neben stärkeren rechtlichen Regulierungen, die oft nur nachträgliche und oberflächliche Korrekturen vornehmen, brauchen wir viel mehr positive intrinsische Anreize und mehr öffentliche Diskurse für eine gemeinsame, ethisch reflektierte Technikgestaltung.
Lesetipp!
Dagmar Fenner, „Digitale Ethik. Eine Einführung“, 1. Auflage 2025, Narr Francke Attempto Verlag/utb. Fake News, Emotionalisierung und Hassrede in sozialen Medien und ihre Auswirkungen auf die Demokratie, Manipulation oder Diskriminierung durch Big-Data-Analysen oder die Frage, wie der vermehrte Einsatz von Robotern unser Leben und unser Menschenbild verändert: Das Buch „Digitale Ethik“ bietet allen Interessierten einen kritisch abwägenden, klar strukturierten Überblick über das hochkomplexe aktuelle Themenfeld. ISBN 978-3-8252-6281-5





Kommentare