Andreas Dünser

Chefredakteur "thema vorarlberg" (andreas.duenser@themavorarlberg.at)

„Der Störfaktor Mensch“

September 2025

In ihrem Buch „Sisyphos im Maschinenraum“ zeigt Historikerin Martina Heßler (56) die Geschichte der Fehlbarkeit von Mensch und Technologie auf. Im Interview sagt die Professorin für Technikgeschichte, dass die Hoffnung der Menschen, mit einer perfekten Maschine eine perfekte Welt schaffen zu können, stets eine Illusion bleiben wird. Ein Gespräch über Technik­chauvinisten, Maschinengläubigkeit und die künstliche Intelligenz, die selbst für ihre Entwickler zur Black Box geworden ist. 

Frau Heßler, ist es die Hybris des Menschen, zu glauben, er könne mit Technologie eine fehlerfreie Welt errichten? 
Der Glaube daran ist zum Teil tatsächlich Hybris. Kulturtheoretikerin Judith Butler hat den Wunsch des Menschen, sich in perfekten Maschinen spiegeln zu wollen, auch als Narzissmus bezeichnet. Aber es ist mehr als das. Es sind nicht nur Hybris und Narzissmus, die die Menschen nach dem scheinbar Perfekten streben lassen. Dieses Bemühen ist auch der Hoffnung geschuldet, das Leiden an der Welt überwinden zu können. Doch wird es niemals eine fehlerfreie Maschine geben. Auch wenn das bis heute unwiderfragt behauptet wird.

Unwiderfragt? Wie ist das zu verstehen?
Mir fiel irgendwann auf, wie gängig diese Figuren des fehlerhaften Menschen und der angeblich perfekten Maschine im gegenwärtigen Technikdiskurs sind. Wir alle kennen die entsprechenden Zitate. Dass etwa diese unentwegt und fleißig arbeitenden und anspruchslosen Roboter keine Pausen brauchen oder Computer im Gegensatz zum Menschen objektiv sind und stets korrekt und fehlerfrei entscheiden. Mit Beginn der Industrialisierung im 19. Jahrhundert hat sich diese Redeweise etabliert. Seitdem wurde die Figur des fehlerhaften Menschen zur unhinterfragten und wirkmächtigen Prämisse technischen Handelns, sie verbreitete sich in allen gesellschaftlichen Bereichen und ist bis heute tief in die Denkweisen der westlichen Welt eingeschrieben. Mich verwundert diese Selbstverständlichkeit, mit der diese Aussagen immer und immer wieder reproduziert werden. Warum hinterfragt das niemand?

Woher rührt denn diese Maschinengläubigkeit der Menschen?
Das ist eine scheinbar einfache Frage, die aber gar nicht so leicht zu beantworten ist. Es mag daran liegen, dass sich diese Maschinengläubigkeit seit über 200 Jahren immer stärker verbreitet hat; es mag auch daran liegen, dass es sehr viele positive Erfahrungen mit Technik gibt. Um ein konkretes Beispiel aus den Anfängen zu nennen: Der englische Mathematiker Charles Babbage war einer der ersten, der im 19. Jahrhundert dem menschlichen Fehler die angeblich perfekte mechanische Maschine gegenüberstellte. Babbage, der sich geradezu obsessiv über menschliche Fehler äußerte, hatte einen Rechenautomaten als Antwort auf die damals äußerst fehlerhaften nautischen Tafeln entwickelt, und damit die Sicherheit in der Seefahrt erhöht. Mehr und mehr wurde die Maschine nicht mehr bloß als Werkzeug gesehen, sondern immer stärker als eine Instanz, die menschliche Fähigkeiten übernehmen und damit auch deren Fehler vermeiden kann. 
Um die Geschichte zu illustrieren, verweisen Sie in Ihrem Buch auch auf die Erfindung der Atombombe und auf einen bestimmten Tag im September 1983.
Mit Erfindung der Atombombe werden menschliche Eigenschaften als existenzielle Gefahr für die Menschheit wahrgenommen. Die Figur des fehlerhaften, irrationalen, emotionalen Menschen wird zur realen Bedrohung. In den 50er- und 60er-Jahren des vergangenen Jahrhunderts lautet die Hoffnung vieler Menschen, man möge die Entscheidung, die Bombe einzusetzen, an einen Computer delegieren, also an eine rational und objektiv entscheidende Maschine. Doch seit den 1980er-Jahren erodierte das Bild, dass der Mensch das Problem ist. Ein besonders markantes Beispiel ist der 27. September 1983. 

Was passiert an diesem Tag?
Der sowjetische Offizier Stanislaw Petrov hat in einem Kontrollzentrum bei Moskau Dienst, als der Computer den Start US-amerikanischer Interkontinentalraketen meldet. Petrov entscheidet innerhalb sehr kurzer Zeit, dass der Computer sich irrt, es sich also um einen Fehlalarm handeln muss. Es kommt nicht zum Gegenschlag. Ein Mensch wird zum Helden, der den Dritten Weltkrieg, die Apokalypse, verhindert. Denn die US-Raketen waren nie gestartet, der Computer hatte von der Erdoberfläche reflektierte Sonnenstrahlen falsch gedeutet. An diesem Tag wird der Mensch zur Instanz, die Recht hat, es ist eine spiegelbildliche Geschichte zu den Hoffnungen zuvor, die Maschine könne nicht irren. Maschinengläubigkeit ist in ihrer Einfachheit und Überzeugtheit problematisch, weil Maschinen eben auch Fehler machen und Paradoxien provozieren. Trotzdem verlieren sich heute wieder viele Menschen in ihrer Maschinengläubigkeit.

Sie sprechen da von Technikchauvinisten.
Der Ausdruck stammt von Meredith Broussard, einer US-Professorin für Data Journalism. Sie hat diesen Begriff Technikchauvinismus auf die Gegenwart bezogen, vor allem auf die Silicon-Valley-Tech-Kultur. Broussard kritisiert damit den weit verbreiteten Glauben, dass Computer alles Erdenkliche besser könnten als Menschen. Doch die Annahme, dass Computer den Menschen überlegen sind, geht immer auch mit einer Abwertung menschlicher Fähigkeiten einher. In den Augen der Technikchauvinisten muss der antiquierte, unzuverlässige, irrationale, nicht objektive Mensch von der Maschine eingehegt oder sogar ersetzt werden. 

Ist in den Augen dieser Technikchauvinisten der Mensch der Fehler im System?
Ja. Für Technikchauvinisten ist der Mensch der Störfaktor. 

Mit der KI ist die Figur des fehlerhaften Menschen wieder en vogue geworden. 
In der Tat. Technologie und der Technikchauvinismus mit all ihren Versprechungen und Redeweisen, was denn Maschinen alles besser könnten, haben mit der KI und ihren Anwendungen nochmals einen Aufschwung erfahren. Auch hier kennen wir all diese Zitate, bis hin zu solch absurden Aussagen, autonome Drohnen würden in einem Krieg humaner töten, weil sie ihre Ziele ohne Emotion auswählen würden. Doch haben wir heute auch einen ambivalenten Diskurs, weil die Paradoxien der künstlichen Intelligenz sehr schnell sichtbar wurden: Dass sie eben nicht objektiv und neutral ist, sondern Vorurteile reproduziert und Menschen tatsächlich diskriminiert. 

KI wird gerade in ihrer Fehlerhaftigkeit: menschenähnlich? 
Ja. KI übernimmt und verstärkt menschliche Fehler, anstatt sie zu beseitigen und ist damit Spiegelbild menschlicher Unvollkommenheit, eine auf menschliche Weise fehlerhafte Supermaschine. Die Maschine wird tatsächlich dem Menschen ähnlich. 

Verschmelzen in der Künstlichen Intelligenz nun erstmals Mensch und Maschine?
Ich würde sagen, dass im Hinblick auf Fehler tatsächlich Mensch und Maschine in der KI verschmelzen und in ihr die einst klare, dichotome Gegenüberstellung aufgehoben ist. Und noch etwas ändert sich: Das traditionelle Bild, das Menschen von Maschinen haben – zuverlässig, regelmäßig, kontrollierbar – trifft auf KI nicht mehr zu. Mit ihr erweist sich das tief verankerte Bild der objektiven und rationalen Maschine als antiquiert.

Der fehlerhafte Mensch konstruiert fehlerhafte Maschinen. Lautet so die historische Lektion?
Das taten Menschen schon immer. Es gab immer schon Maschinen, die nicht funktionierten. Aber mit der KI hat der Mensch eine Maschine geschaffen, deren Entscheidungen ihm ein Rätsel sind. Was sie in einem Jahr oder schon auf die nächste Frage antworten wird, weiß niemand. Es wird ja allenthalben betont, dass selbst ihre Entwickler nicht verstehen und nicht nachvollziehen können, wie die KI zu ihren Entscheidungen gelangt. Sie ist eine Black Box. Und deswegen beschäftigen sich Entwickler jetzt mit der nächsten Stufe dieser Technologie, mit der Schaffung der sogenannten explainable AI, also der erklärbaren künstlichen Intelligenz. Die historische Erfahrung lehrt, dass technologische Steigerungen stets zu neuen Grenzen und Mängeln von Menschen und Maschinen führen. Der moderne Mensch arbeitet unaufhörlich am Fortschritt, an der maschinellen Verbesserung der Welt. Er kommt nie zur Ruhe. Der moderne Sisyphos werkelt endlos im Maschinenraum.

Soll heißen?
Ich verwende diese Figur aus der griechischen Mythologie, um eine der Kernthesen meines Buches anschaulich zu machen. Sisyphos schiebt einen Stein den Berg hinauf, kurz vor dem Gipfel rollt der Stein jedes Mal wieder hinab, er hat von neuem zu beginnen. Der moderne Sisyphos hat noch mehr zu bewältigen: Sein Stein wird mit jedem Mal schwerer. Denn der modernen Technik ist eine Steigerungslogik inhärent. Stets wird Neues entwickelt, um menschliche Fehler und Defizite zu nutzen und Grenzen zu erweitern. Aber mit jeder neuen Maschine entstehen wieder neue Probleme, die wiederum gelöst werden müssen. Der als fehlerhaft charakterisierte Mensch hat sich in einen unermüdlichen und technisierten Sisyphos verwandelt, der stets neu auftauchende Defekte und Mängel von Menschen und Maschinen beseitigen und eindämmen muss. Der moderne Mensch findet sich in einer unendlichen Spirale der Maschinisierung.

Ergo wird das, was der Mensch will – eine perfekte Maschine, um die Welt perfekt zu machen – stets eine Illusion bleiben?
Das wird immer eine Illusion bleiben. Je komplexer, größer und undurchschaubarer Maschinen werden, desto fehleranfälliger werden sie. Der Mensch und die Welt werden fehlerhaft bleiben. Der Mensch ist, wie Kant schon sagte, aus krummem Holz geformt. Der Fehler, der Irrtum, der Makel, sie gehören genuin zum Menschsein dazu. Und wie sehr sich Menschen auch bemühen, weder sie noch ihre Welt werden je perfekt sein. 

Vielen Dank für das Gespräch!

Lesetipp!

Martina Heßler, „Sisyphos im Maschinenraum – eine Geschichte der Fehlbarkeit von Mensch und Technologie“, Verlag C.H. Beck, München 2025. „Sisyphos im Maschinen­raum“ war als eines von acht Büchern für den Deutschen Sachbuchpreis 2025 nominiert.

Martina Heßler, *1968 in Bad Nauheim, ist Professorin für Technikgeschichte an der TU Darmstadt. Von der Historikerin sind mehrere Bücher erschienen. Sie arbeitet zur Geschichte und Gegenwart des Mensch-Maschinen-Verhältnisses.

Kommentare

To prevent automated spam submissions leave this field empty.