Können Maschinen Gefühle haben? Eine Frage, die den Menschen schon seit Jahrhunderten fasziniert. Ob lebendige Marmorstatuen in der griechischen Mythologie oder Kinofilme wie „Metropolis“ und „I, Robot“ – der Traum des Menschen als Schöpfer*in eines lebendigen Roboters ist weit verbreitet. In gewisser Weise gilt das auch für viele Entwicklungen aus dem Feld der Künstlichen Intelligenz (KI), die dem Menschen zwar nicht körperlich nacheifern, dafür aber kognitiv. So werden KI-Anwendungen unter anderem die Fähigkeiten zugeschrieben, sich entscheiden, lernen oder sprechen zu können, was Visionär*innen bereits zu Spekulationen über die Möglichkeiten einer Herrschaft der Maschinen antreibt. Oder von einem Verschmelzen beider Spezies zu einer Superintelligenz, wie es dem amerikanischen Zukunftsforscher Ray Kurzweil vorschwebt. Als Vorreiter des Transhumanismus und der Singularity-Bewegung hat er sich vor allem im Silicon Valley einen Namen gemacht. Ähnlich wie der 2016 verstorbene KI-Papst Marvin Minsky, der den Spieß gleich umdrehte und vom menschlichen Gehirn nur als „Maschine aus Fleisch“ sprach.

Jenseits der Utopien
Unabhängig davon wie realistisch und wünschenswert solche Vorstellungen sind, stellt sich allerdings die Frage, ob eine Verschmelzung von Mensch und Maschine nicht schon längst Realität ist. Oder kannst du dir noch ein Leben ohne Smartphones vorstellen? Ganz zu schweigen von den Segnungen der Künstlichen Intelligenz im Bereich der automatisierten Produktion, smarten Logistik, Forschung oder Medizin. Selbst in der Juristerei werden mittlerweile viele Routinearbeiten von KI-Anwendungen übernommen. Bei genauerer Betrachtung ist der Einfluss der Technologie also bereits ziemlich groß. Anstatt über mögliche Zukunftsutopien zu spekulieren, empfiehlt es sich deshalb, verstärkt auf die praktisch viel relevantere Frage einzugehen, welche Gefahren KI-Programme schon heute mit sich bringen. Denn von denen gibt es einige, wie selbst der Hightech-Avantgardist Elon Musk betont. Als Gründer des Unternehmens Neuralink, das eine Informationsschnittstelle zwischen Gehirn und Computern entwickeln will, ist er unter anderem mit folgendem Tweet aufgefallen: „Wer sich noch keine Sorgen über die Gefahren der Künstlichen Intelligenz macht, sollte sich welche machen. Das Risiko ist weit größer als Nordkorea.“
Die Hauptprobleme der Technologie liegen vor allem im Bereich des Datenschutzes, der informationellen Selbstbestimmung und ihrer wachsenden Intransparenz. Ein einfaches Beispiel sind Smart Watches, also digitale, intelligente Uhren. Ob Versicherungen, Banken oder Onlineshops – rein theoretisch könnten die Daten solcher Gadgets von sämtlichen Parteien genutzt und zu Identifikation von etwaigen Gesundheitsrisiken eingesetzt werden. Ein mögliches Resultat für Verbrauchende: Höhere Versicherungsprämien, eine schlechtere Bonität und ständige Werbung für Medikamente im Internetbrowser. Das gleiche gilt auch für Zahlungsdaten, aus denen sich zum Beispiel der Kauf von Alkohol, Zigaretten oder Medikamenten ablesen lässt. In den USA kann KI mit der Hilfe solcher Informationen mittlerweile sogar schon vor Gericht das Strafmaß und die Kautionshöhe ermitteln. Spätestens hier sollte klar sein, dass der Einfluss von KI-Anwendungen nicht nur Vorteile mit sich bringen kann. Erst recht, wenn man bedenkt, dass die Technologie auch Fehler macht.

Intransparenz und Fehleranfälligkeit
Über die technischen Unzulänglichkeiten von Algorithmen wird zwar nur selten gesprochen, doch sind die Probleme mitunter gravierend. So berichtete etwa das MIT Technology Review vor kurzem von einem gescheiterten Diagnose-Tool für Corona-Erkrankungen. Um die Betroffenen erkennen zu können, fütterten die Forscher die KI mit Röntgenaufnahmen von erkrankten und nicht erkrankten Personen. Danach legte die Maschine mit ihrer Arbeit los. Nach kurzer Zeit fiel den Forschenden jedoch auf, dass sich unter den als gesund diagnostizierten Personen auffällig viele Kinder befanden. Der Grund: Das Trainingsdatenset enthielt in der Gruppe für gesunde Personen hauptsächlich Kinder. Die visuellen Muster der Krankheit wurden dagegen von der KI völlig ignoriert. Wie sich später herausstellte, war das kein Einzelfall: Auch andere Programme erkannten statt Coronakranker nur liegende Personen oder einen bestimmten Schrifttyp am Bildrand. Von über hundert KI-Anwendungen war am Ende nicht eine dabei, die die Krankheit zuverlässig diagnostizierte. Der Grund: Computer haben nicht das geringste Verständnis davon, was die eigentliche Bedeutung und der Zweck ihrer Arbeit ist. Vielmehr besteht ihre Kompetenz bisher ausschließlich in dem Identifizieren von Mustern, was die Computer allerdings auch nur so gut können, wie es die algorithmischen Befehlsketten ihrer Programmierenden zulassen. Ein Problem, auf das der KI-Pionier und Informatiker Joseph Weizenbaum bereits seit vielen Jahrzehnten hinweist.

Menschen tun deshalb gut daran, die Ergebnisse von komplexen KI-Anwendungen nicht völlig unkritisch zu übernehmen. Angesichts der zunehmen Komplexität der Programme ist das allerdings gar nicht immer so einfach, wie sich unter anderem auf den Finanzmärkten zeigt. Hier kommen seit einigen Jahren immer häufiger die Empfehlungen sogenannter Robo Advisor zum Einsatz, obwohl deren Bewertungskriterien für Nutzende mitunter völlig intransparent sind. Vor diesem Hintergrund wundert es nicht, dass die Skepsis von Unternehmen und Verbrauchenden gegenüber der KI noch immer groß ist. Das belegt zumindest eine Studie unter Führungskräften, durchgeführt von der Unternehmensberatung Ernst & Young. Demnach klagen 47 Prozent der Befragten in ihren Unternehmen über mangelndes Vertrauen in die Technologie. Ein Grund: Angesichts des rasanten Entwicklungstempos der Technologie hinken Aufsichtsbehörden mit ihren Compliance-Vorgaben oftmals hinterher. Das schlägt sich auch auf die Wahrnehmung von Verbrauchenden nieder. So gibt nach einer Capgemini-Studie rund die Hälfte von ihnen an, mindestens zweimal innerhalb der vergangenen zwei bis drei Jahre mit ethisch unzureichenden KI-Anwendungen konfrontiert worden zu sein.
Mehr Vertrauen durch Ethik und Recht
Als Lösung für das mangelnde Vertrauen empfehlen die Studien deshalb die Einführung ethischer Standards. Sie sollen dabei helfen, den Missbrauch der Technologie zu verhindern und Nutzenden sowie Unternehmen mehr Sicherheit im Umgang mit KI-Programmen zu geben. Ein Weg, den auch das Bundeswirtschaftsministerium vorschlägt. In Rahmen des Forschungsprojekts "Foresight" hat es sieben Leitlinien der KI-Ethik entwickelt. Die Punkte lauten:
- Vorrang menschlichen Handelns und menschlicher Aufsicht
- Technische Robustheit und Sicherheit
- Schutz der Privatsphäre und Datenqualitätsmanagement
- Transparenz und Erklärbarkeit
- Vielfalt, Nichtdiskriminierung und Fairness
- Gesellschaftliches und ökologisches Wohlergehen
- Rechenschaftspflicht
Kein Ersatz für verbindliche Regeln
Neben diesen KI-Leitlinien des Bundesministeriums gibt es auch noch eine Reihe ähnlicher Kodizes, etwa von der Europäischen Kommission oder der Bertelsmann-Stiftung. All diesen Regelwerken ist gemeinsam, dass sie eine stärkere Berücksichtigung von menschlicher Autonomie, Schadensverhütung, Fairness und Transparenz empfehlen. Doch wie genau sollen diese Werte in der Praxis umgesetzt werden? Eine Frage, die sich bei ethischen Grundsätzen häufig stellt, da sie oftmals nur Zielkonflikte und abstrakte Lösungsansätze aufzeigen. Für eine verbindliche Anwendung reicht ein ethischer Normen-Katalog deshalb nicht aus. Mit anderen Worten: Was es hier braucht, sind Gesetze.

Das weiß auch die Politik, die auf EU-Ebene bereits über ein umfassendes KI-Gesetz nachdenkt. Als erstes Resultat wurde im Frühjahr 2021 ein Vorschlag öffentlich. Laut Margrethe Vestager, Vizepräsidentin der EU-Kommission, folgt der Entwurf einer einfachen Logik: „Je höher das Risiko einer spezifischen Nutzungsart der KI, desto strenger die Regeln.“ Kritiker, wie die FDP-Politikerin Nicola Beer, bemängeln jedoch, dass der Vorschlag in manchen Bereichen noch deutliche Lücken aufweist, weshalb an dem Gesetz weiter gearbeitet wird. Ein Prozess, der noch reichlich Zeit in Anspruch nehmen dürfte, da einem solchen Entwurf neben dem EU-Parlament auch die Mitgliedstaaten zustimmen müssen. Bis auf Weiteres gilt es deshalb, sich mit unverbindlicheren Ethik-Regeln zu begnügen.
Neugierig auf mehr? Dann merk dir den 30. Juni und 01. Juli vor. Denn dann sprechen zahlreiche spannende Speaker*innen in der fintropolis über dieses und weitere spannende Themen!