Ausgerechnet inmitten der Weihnachtsferien, platziert die EU-Kommission die wohl wichtigste Zukunftsdebatte unserer Zeit.

„Mm-hmm“ antwortete die Maschine, und die Frau am anderen Ende der Telefonleitung bemerkte nicht, dass die vermeintliche Kundin, die gerade einen Termin in ihrem Frisörsalongebucht hatte, ein seelenloser Apparat war.Mit seinem Sprachassistenten Duplex hatte Google im Frühjahr 2018 für Aufsehen gesorgt. Der Sprachassistent vereinbarte einen Termin und bewies damit, dass er ein natürlich klingendes Telefongespräch führen und dabei sogar auf unerwartete Antworten reagieren konnte. Die Vorführung auf der I/O-Entwicklerkonferenz überzeugte, der Applaus war frenetisch, doch die Demonstration warf irritierende Frage auf: Darf ein intelligenter Apparat uns Menschen derartig täuschen? Ist es ethisch vertretbar, wenn Sprachassistenten Telefongespräche führen, ohne dass der Mensch am anderen Ende weiß, dass er sich gerade einem kalten Apparat anvertraut? Dürfen Sprachassistenten ein menschliches „Mm-hmm“ aussprechen oder sollten sie sich outen: „Ich bin kein Mensch, auch wenn ich so klinge!“ Brauchen wir eine Kennzeichnungspflicht für Bots und Sprachroboter?

Viele ethische Fragen werden im Kontext der künstlichen Intelligenz aufgeworfen. Wenn es um das Vereinbaren von Frisörterminen geht, scheint die Brisanz solcher Fragen noch vergleichsweise harmlos. Wie wichtig aber diese Debatte ist, zeigt sich überall dort, wo KI-Techniken sonst noch zum Einsatz kommen: Was, wenn intelligente Maschinen anhand von Internetdaten über die Kreditwürdigkeit eines Menschen entscheiden, ohne dass man dem Betroffenen im Falle der Ablehnung konkrete Gründe nennen kann? Ist es akzeptabel, wenn ein Algorithmus Jobbewerber anhand ihrer Datenspuren im Internet möglicherweise aussortiert? Was tun, wenn ein Fotobuchhersteller durch moderne Gesichtserkennung plötzlich in der Lage ist, Menschen mit einem Alkoholproblem zu identifizieren? Darf er solche Informationen dann weiterverarbeiten oder gar einer Versicherung melden? Wollen wir medizinischen Expertensystemen vertrauen, die uns einen drohenden Herzinfarkt vorhersagen, auch dann, wenn der menschliche Arzt in diesem Fall keinen Anlass zur Sorge sieht?  Und was geschieht, wenn Bürger, verführt durch intelligente Filterblasen oder durch täuschend echte Videobotschaften, allmählich den Sinn für Gemeinsamkeit verlieren? Was, wenn Maschinen im Datenuniversum damit beginnen, unser Verhalten nicht nur vorherzusagen, sondern gezielt zu beeinflussen? Dürfen intelligente Killerroboter autonom ihre Opfer ausfindig machen und töten?

Keine andere Technik wirft so viele ethische Fragen auf wie es die Künstliche Intelligenz tut, denn hier geht es um die Rolle des Menschen in einer Zukunft intelligenter Apparate: Wo verlaufen im Nebel des Neuen die roten Linien? Was ist noch ethisch vertretbar, und was gehört verboten? Mensch und Maschine – wer programmiert am Ende wen?

Kurz vor Weihnachten, am 18.Dezember 2018, veröffentlichte die EU-Kommission ihren 29-seitigen Entwurf zu den „Ethikrichtlinien für eine vertrauenswürdige Künstliche Intelligenz“[i]. Darin stellt die von der Europäischen Kommission eingesetzte hochrangigen Experten-Gruppe zu KI die Leitlinien einer zukünftigen Ethik für KI der EU vor und ruft zur offenen Debatte auf: „Sagen Sie Ihre Meinung: Die europäische Expertengruppe bittet um Feedback zu den Richtlinienvorschlägen für vertrauenswürdige Künstliche Intelligenz„ heißt es auf der Internetseite der Kommission[ii].

Nun kann also jeder von uns sich einbringen. Das 29-seitige Dokument steht zur offenen Diskussion. Doch wie kann es sein, dass eine solch zentrale Debatte so versteckt wird und warum liegt der Zeitkorridor inmitten der Weihnachtsferien und ist so eng bemessen? Anregungen werden gerade einmal bis zum 18. Januar 2019[iii]akzeptiert. Ein Schelm, wer Böses dabei denkt!

Vielleicht will man im Kern keine ernsthafte Debatte, denn hier wird die Ethik auf dem Altar der Wettbewerbsfähigkeit geopfert:“ …Diese Richtlinien sind nicht dazu gedacht, die KI-Innovation in Europa zu ersticken, sondern sie zielen stattdessen auf die Ethik als Inspiration für die Entwicklung einer einzigartigen KI-Marke ab…. Dieses Dokument sollte daher ein Ausgangspunkt für die Diskussion über „vertrauenswürdige KI Made in Europe“ sein.“

Ethik, die auf derartige Weise instrumentalisiert und zu einem Werbeslogan reduziert wird stirbt einen stillen Tod. Sie wird zum Feigenblatt von Geschäftemacherei. Wer dabei dann noch glaubt, dass es hier lediglich um eine Positionierung europäischer KI-Produkte geht, sollte sich die Liste der 52 Mitglieder der High-Level Expert Group einmal genauer anschauen: Hier finden sich zunächst die Vertreter europäischer Industrieunternehmen wie, Airbus, Orange, Nokia Bell Labs, AXA, Bosch, Bayer oder Zalando!  Doch auf der Liste liest man auch Google und auf der Reserve Liste steht Cédric Archambeau von Amazon. Wie kann es sein, dass US-Unternehmen an Leitlinien mitschreiben, bei denen es doch um europäische Interessen gehen soll? Geht es wirklich um „vertrauenswürdige KI Made in Europe“ oder werden hier Leitlinien formuliert, die am Ende Google & Co den Zugang auf den europäischen Markt ermöglichen sollen?

Spätestens seit der Anwendung der Europäischen Datenschutz-Grundverordnung (DSGVO) im Mai 2018 haben es die großen Player wie Google, Facebook und Co. weit schwerer mit ihren Geschäften auf dem europäischen Markt. Europa zwingt sie immerhin zu mehr Rücksicht im Umgang mit unseren Nutzerdaten. Noch im vergangenen Sommer verhängte die EU-Kommission eine Strafe von 4,3 Milliarden Euro gegen den US-Konzern Google. Die höchste Strafe, die die Brüsseler Behörde je gegen ein Unternehmen aussprach. Das Verfahren richtete sich gegen rechtswidrige Einschränkungen, die Google Herstellern von Android-Geräten auferlegt hatte. Die EU hatte endlich Zähne gezeigt und Wettbewerbskommissarin Margrethe Vestager wies den marktbeherrschenden Konzern in seine Schranken. Auch Facebook Chef Mark Zuckerberg musste sich vor den Mitgliedern des Europaparlaments unbequemen Fragen stellten nachdem im März bekanntgeworden war, dass sich die britische Firma Cambridge Analytica Zugang zu Daten von Millionen Facebook-Nutzern verschafft hatte.

Vielleicht hat man im Silicon Valley daraus gelernt und versucht nun eine mögliche europäische KI-Barriere schon im Vorfeld zu glätten. Aus technischer Sicht ist Datenschutz Gift für die lernwilligen Algorithmen, denn ohne opulente Datenfütterung sind die neuronalen Netzwerke nutzlos. Erst durch die Lerndaten entfalten diese Systeme ihre magische Intelligenz. Wer KI also weiterentwickeln möchte ist angewiesen auf den direkten Zugriff von Bewegungs- oder Gesundheitsdaten, auf Gesichter, Texte oder Sprache. Selbst aus den Geräuschen in einem Haushalt will Google mit seinem Assistenten Kapital schlagen um so zum Beispiel die Aktivitäten im Kinderzimmer zu analysieren, so jedenfalls kann man es nachlesen in der US-Patentanmeldung[iv]20160261932A1

Da könnten strenge ethische Regeln aus Europa schnell zu einem Hindernis werden. Warum also nicht vorbeugen und die ethischen Spielregeln einfach selbst mitgestalten oder gar aushebeln? Das, was für ein „Made in Europe“ zutrifft, gilt wohl auch für ein „used in Europe“. So betrachtet gleicht dieser Vorstoß einem trojanischen Pferd, bei dem zwar Europa draufsteht, doch im Kern verschaffen sich die nichteuropäischen Konzerne Zutritt zum europäischen KI-Markt der Zukunft.

Vielleicht mag es nur mein irritierter Eindruck sein, doch das EU-Papier liest sich stellenweise wie ein Echo von Googles eigenen Prinzipien. Auch hier ist die Rede von Leitlinien wie „Do good (Tue Gutes)“, „Do not harm“ ( schädige nicht), oder „Be fair“ (Sei fair). Dort, wo es konkrete Leitplanken bräuchte, bleibt das Papier stellenweise verdächtig offen. So etwa beim Thema Scoring: Beim staatlichen citizen score, bei dem der einzelne Bürger von staatlichen Stellen per Algorithmus überwacht, bewertet und eingestuft wird, positioniert man sich zwar eindeutig, doch beim Scoring im Kontext der privaten Wirtschaft fehlt diese Klarheit. Dabei ist es aus ethischer Perspektive immer problematisch, wenn ein Mensch auf seine digitalen Daten reduziert wird und zwar unabhängig davon, ob es sich dabei um staatliche Kontrolle handelt oder um ein Geschäftsmodell.

Der Dreh- und Angelpunkt des Vorstoßes ist die Hintertür der Einverständniserklärung. Im Entwurf heißt es hierzu: „Erklärbarkeit ist eine Voraussetzung für die Einholung einer informierten Einwilligung von Personen, die mit AI-Systemen interagieren, und um sicherzustellen, dass der Grundsatz der Erklärbarkeit und Nicht-Schädlichkeit erfüllt wird, sollte das Erfordernis der Einwilligung nach Aufklärung angestrebt werden.“ Hier offenbart sich eine ethische Falle, die Erny Gillen in seinem Artikel näher beleuchtet. Die Freiheit des Individuums stößt in jeder zivilisierten Gesellschaft auch auf gemeinsam vereinbarte Grenzen. Die sollten immer und uneingeschränkt in allen Bereichen gelten. So dürfen Grundwerte, wie die Unantastbarkeit der Würde des Menschen, niemals verhandelbar sein, weder von anderen Individuen noch von Unternehmen. Diese staatliche Fürsorgepflicht ist das Wesen unserer Zivilisation und sollte nicht mit Bevormundung verwechselt werden.  Auch wenn die These, Individuen könnten frei über ihr eigenes Leben entscheiden, auf den ersten Blick plausibel klingt, so sollte man die Konsequenzen dieses Ansatzes bedenken: Mit der Einwilligung landet der schwarze Peter nämlich bei uns Nutzern, denn ab dann kann der Betreiber die ethische Verantwortung von sich weisen. Man setzt auch hier auf die Sorglosigkeit, mit der wir Nutzer den Haken setzen, wenn Apps auf unsere Daten zugreifen.

Dabei ist die Komplexität der neuronalen Netzwerke so gewaltig, dass selbst Experten die Kausalität ihrer Entscheidungen nicht nachvollziehen können. Wer solche Systeme ohne allgemein gültige und verbindliche ethische Standards in den Alltag von uns Bürgern implementiert, unterwirft uns früher oder später einem digitalen Orakel. Dann wird es am Ende die Maschine sein, die über unser Schicksal bestimmt. In diesem blinden Vertrauen würden wir Menschen uns selbst entmündigen.

Aber soweit muss es nicht kommen. Ein reflektierter Fortschritt birgt eine großartige Chance: Zum ersten Mal in der Geschichte ist es uns möglich, die eigene Welt auf direkte Weise zu verändern. Wo alle Generationen vor uns sich noch in Geduld üben und häufig Jahrzehnte, wenn nicht Jahrhunderte warten mussten, bis etwas Neues in die Welt kam, werden wir mit einer neuen Freiheit beschenkt. Diese neuen Technologien eröffnen ungeahnte Lösungen, denn wie keine andere Entwicklung hat KI das Potenzial, unser Leben dramatisch zu verbessern. Allerdings ist Vorsicht geboten, denn genauso könnte sie, gar in den Händen von Autokraten, zu einer Gefahr für unsere Gesellschaft werden.

Der wohlklingende Dreiklang aus Werten, Prinzipien und Rechten, auf den man sich hier beruft, unterschätzt die Dynamik des digitalen Kontinents: Anfangs erschien die Verbesserung der Kommunikationsfähigkeit durch soziale Netzwerke in unserer Gesellschaft zunächst plausibel, doch gerade im vergangenen Jahr erkannten wir, dass eben diese schnelle und direkte Kommunikation auch destabilisierende Kräfte freisetzt. Facebooks ehemaliger Slogan „Connecting the world“ ging spätestens dann nach hinten los, als klar wurde, dass die Netzwerke im Kontext demokratischer Wahlen zu gefährlichen Brandbeschleunigern mutierten.

Es gilt daher, die Sinnhaftigkeit und mögliche Konsequenzen der Künstlichen Intelligenz nicht nur im Vorfeld auszuloten.  Bei einer so dynamischen Entwicklung braucht es den ständigen ethischen Prozess auf der Basis klarer gemeinsamer Werte. Das Vertrauen erwächst dabei aus der Offenheit, mit der wir diese Debatten führen.

[i]Siehe: https://ec.europa.eu/digital-single-market/en/news/draft-ethics-guidelines-trustworthy-ai

 

[ii]https://ec.europa.eu/digital-single-market/en/news/have-your-say-european-expert-group-seeks-feedback-draft-ethics-guidelines-trustworthy

[iii]https://ec.europa.eu/digital-single-market/en/news/have-your-say-european-expert-group-seeks-feedback-draft-ethics-guidelines-trustworthy

 

[iv]Patentanmeldung Siehe: https://patents.google.com/patent/US20160261932A1/en

 

*Dieser Essay wurde am 10.1.2019 in der FAZ veröffentlicht