Die Künstliche Intelligenz (KI) funktioniert ganz anders, als wir es von Maschinen gewohnt sind. Sie übernimmt nämlich vom Menschen genau jene Unzulänglichkeiten, die Maschinen ausgleichen sollten: Sie macht Fehler. Und für diese Fehler will und wird am Ende niemand verantwortlich sein.
Verteidigerin der Demokratie im Zeitalter der Künstlichen Intelligenz
Im Rahmen des Parlamentarischen Forums zur Künstlichen Intelligenz im Nationalrat – unzensuriert hat bereits hier und hier berichtet – warnte die Leiterin des Instituts für Wirtschaftsinformatik und Gesellschaft an der Wirtschaftsuniversität Wien, Sarah Spiekermann-Hoff, vor massiven negativen Auswirkungen der Künstlichen Intelligenz. Sie zählt zu den 14 Autoren und Erstunterzeichnern des Manifests „Zur Verteidigung der Demokratie und Rechtsstaatlichkeit im Zeitalter der künstlichen Intelligenz“.
Keiner weiß, warum die Maschine dies oder das macht
Die einfache Frage „Wieso hat die Maschine das und das gesagt?“ kann bei den generativen KI-Systemen, die mit immensen Datensätzen arbeiten, wie dies etwa bei der bekannten Anwendung ChatGPT der Fall ist, nicht mehr beantwortet werden. Dadurch werde, so Spiekermann-Hoff, ein wesentliches Prinzip der Informatik gebrochen, nämlich „dass Maschinenoutput konsistent und verlässlich sein muss“.
Enorme Kollateralschäden bei KI-Fehlern
Oft bekomme man von Verfechtern der KI dann Sätze zu hören wie „Aber Menschen machen ja auch Fehler, außerdem kann auch nicht jeder Mensch erklären, warum er so oder so handelt“. Dieses Argument lässt die Expertin nicht gelten:
Die menschliche Entscheidung gegenüber einem anderen Menschen, die vielleicht einmal falsch sein kann, hat aber einen sehr viel eingeschränkteren Radius als Maschinenentscheidungen – Maschinenentscheidungen, die nämlich in der Regel ganze Bevölkerungssegmente negativ betreffen und damit zu etwas führen, was wir Kollateralschaden nennen.
Fehlerhafte Systeme werden auf den Markt gebracht
Menschen würden überdies Fehler zumeist nicht absichtlich machen, sondern weil sie sich irren. Dafür würden sie sich schämen und versuchen, es das nächste Mal besser zu machen. Bei KI-Systemen wie ChatGPT seien die Fehler aber in den technischen Eigenschaften der Maschine begründet. „Trotzdem wird sie aber auf den Markt gebracht“, kritisierte Spiekermann-Hoff die dahinterstehende Mentalität im Silicon Valley – „so nach dem Motto: Move fast, break things!“
Fehlen von Verantwortung zerstört den Rechtsstaat
Mit den systemimmanenten Fehlern gehe die Frage nach der Verantwortung einher. „Verantwortung ist damit gesellschaftlich gesehen immer weniger persönlich. Verantwortung diffundiert stattdessen obskur und supranational“. Dieses Fehlen von Verantwortlichen „untergräbt dann aber nationale Rechtsstaaten und auch die Effektivität von Gesetzen. Rechtsstaat und Gesetz hängen davon ab, dass Leute Verantwortung tragen“, so Spiekermann-Hoff.
Vertrauen in den Staat ist massiv gefährdet
Besonders gefährlich werde es dann, wenn sich auch der Staat solch fehleranfälliger Systeme bediene – etwa Chatbots im Umgang mit Bürgern:
Wenn Behörden KI-Bots einsetzen, um Behördengänge zu vereinfachen, die nicht zu 100 Prozent sachlich gehandhabt werden, kommt es zum Zusammenbruch von Staatsvertrauen. Da muss ich wirklich fragen: all das nur um Kosten einzusparen und Effizienz steigern zu wollen? Da verbrät man aber ziemlich wichtige Werte für unsere Gesellschaft.
KI bedroht die wichtigsten gesellschaftlichen Werte
In Summe sieht Spiekermann-Hoff praktisch alle zentralen Werte unserer Gesellschaft durch den unkontrollierten Einsatz von Künstlicher Intelligenz bedroht. Sie nannte als Beispiele Privatsphäre, Würde, Wahrheit, Gleichheit und Besitz.