Künstliche Intelligenz (KI) wird uns erst unsere Jobs rauben, dann die Weltherrschaft übernehmen und schließlich die ganze Menschheit ausrotten. Zugegeben, diese Zukunftsvision ist überzogen. Aber liest man derzeit die Schlagzeilen der Nachrichtenmagazine, kommt man schnell zu dem Schluss, dass KI in etwa so begrüßenswert ist wie ein Magengeschwür. 96 Prozent der Deutschen sehen in der KI überwiegend Nachteile. Warum aber fürchten wir uns so sehr vor einer Entwicklung, die unseren Alltag in vielen Bereichen deutlich erleichtern kann? Und sind unsere Sorgen berechtigt?
Wir haben uns drei Vorurteile genauer angesehen:
1. KI macht uns alle arbeitslos:
Am weitesten verbreitet ist die Sorge um den Jobverlust. Der Gedanke, durch eine Maschine ersetzt und im eigenen Berufsfeld überflüssig zu werden, ist wirklich beunruhigend. Neu ist diese Angst allerdings nicht: Wenn in der Vergangenheit neue Technologien angestammte Berufsgruppen ersetzt haben, fürchteten die Menschen stets das Ende der Arbeit. Tatsächlich zerstörte der Fortschritt zwar Berufe, gleichzeitig aber entstanden unzählige neue Aufgabenfelder.
Wie ist das aber bei Künstlicher Intelligenz? Erstmals können nicht nur körperliche, sondern auch kognitive Tätigkeiten ersetzt werden. Dieser Art von Umwälzung waren wir in der Vergangenheit nicht ausgesetzt, sodass wir auf keinerlei Erfahrungswerte zurückgreifen können. Fakt ist, irgendwann in der Zukunft wird die Automatisierung soweit vorangeschritten sein, dass viele Berufe nicht mehr benötigt werden. Deshalb sollten Politik und Gesellschaft frühzeitig darüber nachdenken, wie wir dieser Entwicklung begegnen können. Brauchen wir ein bedingungsloses Grundeinkommen? Wie können Auszubildende auf den sich ändernden Markt vorbereitet werden? Und welche Berufe leben von den Fähigkeiten, die uns Menschen auszeichnen und die keine Maschine übernehmen kann?

Noch sind wir davon aber weit entfernt: Lediglich sechs Prozent der deutschen Unternehmen nutzen KI bereits oder sind dabei, die Technologie zu implementieren, wie eine Studie von PwC ergab. Zudem sind die Algorithmen noch nicht schlau genug, um einen Arbeitsplatz vollumfänglich zu übernehmen. KI kann derzeit immer nur in einem Bereich sehr gut werden, nicht aber mehrere Fachgebiete miteinander verbinden. Ein Beispiel: Ein System, das für die Bilderkennung programmiert wurde, kann nicht gut Schach spielen und umgekehrt.
Zunächst werden nur bestimmte Tätigkeitsfelder und Routineaufgaben, aber nicht ganze Berufe automatisiert. Eine Studie des Zentrums für europäische Wirtschaftsforschung (ZEW) kommt zu dem Schluss, dass in Deutschland derzeit nur zwölf Prozent aller Jobs automatisierbar seien. Dr. Ulrich Zierahn, Senior Researcher am ZEW und einer der Autoren der Studie, erläutert: „Solange Beschäftigte durch Weiterbildung oder Umschulung in der Lage sind, mehr und mehr Tätigkeiten zu übernehmen, die ergänzend zum Maschineneinsatz anfallen, muss es nicht zwangsläufig zu Arbeitsplatzverlusten kommen. Die Bedrohung durch eine 'technologische Arbeitslosigkeit' wird also häufig überschätzt.“
2. KI behandelt uns eben nicht alle gleich:
Auch Roboter sind nicht frei von Vorurteilen. Da ist zum Beispiel Amazon: Der Onlinehändler wollte den Einstellungsprozess optimieren und entwickelte eine KI, die die Bewerbungen vorsortieren sollte. Doch anstatt die fünf besten Kandidaten unabhängig vom Geschlecht auszuwählen, benachteiligte das System Frauen. Das KI-Modell wurde mit Daten aus Bewerbungen der zurückliegenden zehn Jahre trainiert, und die kamen überwiegend von Männern. Aufgrund dieses Musters wurden die Bewerbungen von Frauen automatisch schlechter bewertet. Zwar versuchten Amazon-Entwickler die Algorithmen zu überarbeiten, jedoch ohne Erfolg. Das Projekt wurde 2017 eingestellt.

Ein weiteres Beispiel ist der Chatbot „Tay“ von Microsoft, der durch die Kommunikation mit Twitter-Nutzern dazulernen sollte. Doch das Experiment ging katastrophal schief: Innerhalb weniger Stunden schrieb der Bot rassistische und sexistische Parolen. Was war geschehen? Tay war offenbar von Usern gezielt mit entsprechenden Informationen gefüttert worden und hatte dann vor allem Vorurteile und Verschwörungstheorien übernommen. Tweets voller Hasspropaganda waren die Folge.
Die beiden Beispiele zeigen, dass die KI immer nur so schlau sein kann wie die zugrundeliegenden Daten. Und da wir Menschen nur selten frei von Vorurteilen sind, besteht die Gefahr, dass wir – bewusst oder unbewusst – auch die KI mit ebenjenen füttern. Etwa wenn nur bestimmte Datensätze eingespeist werden oder wenn das System nicht gleichmäßig so mit Daten versorgt wird, dass Neutralität hergestellt wird. Wissenschaftler der Universität Cardiff haben sogar festgestellt, dass selbst dann Vorurteile existierten, wenn Maschinen ganz unter sich sind.
3. Wir werden zu Sklaven der KI:
Dafür müsste es zunächst einmal eine richtige KI geben. Denn das, was Smart-Speaker zum Sprechen bringt, autonome Fahrzeuge fahren lässt und Computer zu Schachspielern macht, sind lediglich Algorithmen, die entsprechend programmiert wurden und mithilfe maschinellen Lernens ihren Wissensschatz erweitern können. Man spricht von der sogenannten schwachen KI. Im Gegensatz dazu soll eine starke KI menschliche Intelligenz nachahmen, also eigenständig denken und handeln können.
Technisch ist das bislang nicht möglich. Während manche Wissenschaftler davon ausgehen, dass in den kommenden 20 bis 40 Jahren eine entsprechende Entwicklung möglich ist, erklärt Prof. Dr. Eyke Hüllermeier, Leiter des Fachgebiets „Intelligente Systeme und Maschinelles Lernen“ der Universität Paderborn: „Spannend, aber weitgehend offen, ist die Frage, wann die KI einen Reifegrad erreicht haben wird, der sie kognitiv auf eine Stufe mit dem Menschen stellt, und ob dies überhaupt gelingt.“ Eine KI, die sogar schlauer als der Mensch ist, bezeichnet man als Künstliche Superintelligenz. Wissenschaftler streiten noch darüber, ob es jemals gelingen wird, so eine Superintelligenz zu schaffen.

Szenarien aus Filmen wie „Terminator“ oder „I, Robot“, in denen die Maschinen die Herrschaft übernehmen, sind also weit von der Realität entfernt. Und auch wenn sich eine schwache KI nicht selbstständig gegen Menschen richten kann, lässt sie sich von anderen Menschen dahingehend programmieren. Autonome Waffen in Form von mit KI bestückten Drohnen oder schießenden Robotern sind längst keine grausame Zukunftsvision mehr. Deshalb haben im vergangenen Jahr über 2500 KI-Forscher und 176 Organisationen vereinbart, nicht an solchen tödlichen Waffensystemen forschen zu wollen. Sie stehen dafür ein, dass das Abfeuern einer Waffe niemals einer künstlichen Intelligenz überlassen werden soll. Auch die Bundeswehr hat sich gegen den Einsatz autonomer KI-basierter Waffen ausgesprochen. Dort forscht man lieber, wie KI zur Cyber-Sicherheit beitragen kann.