Der Schlüssel zur Zukunft - das KI-Whitepaper der EU-Kommission
Wie bringen wir Europa an die Spitze in Sachen Künstliche Intelligenz?
Vor dem Hintergrund dieser Frage veröffentlichte die EU-Kommission am 19. Februar 2020 ihr Whitepaper. In diesem werden u.a. die Risiken beim Einsatz von KI, die Hürden beim Ausbau einer KI-freundlichen Infrastruktur sowie die entsprechenden Lösungsmaßnahmen umrissen.
Das Whitepaper der EU-Kommission
Der Einsatz von Künstliche Intelligenz ist weltweit auf dem Vormarsch und Europa will mithalten. Daher veröffentlichte die EU-Kommission ein umfangreiches Whitepaper zur Nutzung Künstlicher Intelligenz in Europa. Es verfolgt das Ziel, unter Berücksichtigung potentieller Risiken Optionen zur optimalen Nutzung von KI zu liefern.
Außerdem soll es Stakeholdern die Möglichkeit geben, auf aktuelle sowie zukünftige Pläne Einfluss zu nehmen.
Das Whitepaper ist in zwei Themenbereichen unterteilt: „Ecosystem of Excellence“ und „Ecosystem of Trust“. Damit nsind bereits die Hauptproblematiken genannt. Diese sind ein Mangel an Zusammenarbeit und ein Mangel an Vertrauen.
Bausteine für das „Ecosystem of Excellence“
Ein „Ecosystem of Excellence“ kann nur bestehen, wenn die Mitgliedsstaaten zusammenarbeiten und ihre Kräfte bündeln. Um das zu garantieren, ist seit Dezember 2018 ein 70-Punkte-Plan in Kraft, der voraussichtlich bis 2027 laufen soll.
Aktuell fehlt es in Europa jedoch an KI-Zentren, die innovativ in vielversprechenden Sektoren wie Industrie, Gesundheit und Transport arbeiten. Die EU-Kommission wird diesbezüglich 2020 ein legales Instrument vorschlagen, das den Bau solcher Zentren erleichtern soll.
Als wichtig werden außerdem die Fokussierung auf SMEs (kleine und mittlere Unternehmen) und die Zusammenarbeit mit dem privaten Sektor erachtet.
Folglich möchte die Kommission sogenannte „Innovation Hubs“ in den Mitgliedsländern etablieren, die mit einem hohen Grad an Wissen kleine und mittlere Unternehmen unterstützen können. Zusätzlich dazu soll im ersten Quartal von 2020 ein Pilotprogramm mit einem Etat von 100 Millionen Euro starten, um Beteiligungskapital zu liefern für innovative KI Entwicklungen.
Hinsichtlich der Einbindung des privaten Sektors wird eine öffentlich-private Partnerschaft angestrebt, die sich im besten Fall zu einem gemeinsamen Ansatz hin entwickelt, auf dessen Basis KI gefördert werden kann.
Darüber hinaus wird in dem Whitepaper betont, dass die Einführung von KI in den öffentlichen Sektor vorangetrieben werden soll. Ziel ist es, KI so schnell wie möglich in der Gesellschaft zu etablieren. Deswegen werden sogenannte Sektorendialoge initiiert, die bis Mitte 2020 einen Aktionsplan präsentieren sollen. Zusätzlich sollen „Adopt Artificial Intelligence Programme“ zur Nutzung von KI im öffentlichen Sektor anregen.
Ferner sollen Maßnahmen ergriffen werden, die dem Ausbau der Infrastruktur und der Skills dienen. Momentan ist der Zugriff auf Daten- sowie Computer-Infrastrukturen noch nicht in dem Maße vorhanden wie es notwendig wäre. Dementsprechend schlägt die Kommission vor, vier Milliarden Euro in Quantencomputer, Datencloud etc. zu investieren. Konkrete Maßnahmen gibt es allerdings noch nicht.
Vertrauen schaffen durch das „Ecosystem of Trust“
Für den Großteil der Bevölkerung ist Künstliche Intelligenz noch ein sensibles Thema. Um ein „Ecosystem of Trust“ zu schaffen, müssen die Sorgen der Bürger ernst genommen und ihr Vertrauen gewonnen werden.
Dafür ist es laut Whitepaper essenziell, dass die materiellen und immateriellen Probleme, die KI mit sich bringt, aktiv angegangen werden. Eine erste Maßnahme diesbezüglich ist der 7-Punkte-Plan, der im Rahmen der KI-Strategie vom 25 April 2018 eine Reihe von Leitfäden für notwendige legale und ethische Herausforderungen enthält. Besondere Gefahren liegen demnach in den Bereichen der Datensicherung, der fundamentalen Rechte sowie der Sicherheit.
Risiken für privaten Datenschutz und Diskriminierung können auch durch Fehler im KI-System verursacht werden. Wird ein Algorithmus beispielsweise anhand voreingenommener Daten trainiert, kann dies Sexismus oder Rassismus zur Folge haben.
Im Falle eines Unfalls wegen mangelhafter KI-Technik besteht die Schwierigkeit in der rechtlichen Unsicherheit. Fragen nach Haftung und möglicher Kompensation lassen sich bisher nur schwer klären.
Die bereits bestehenden EU Regulierungen können potentielle Risiken aktuell noch nicht effizient genug einschränken. Sie dienen zwar als Baustein, sollen aber weiterentwickelt werden. Die Kommission spricht von einem zukünftigen Regulierungsrahmen, der sich auf alle Produkte und Dienstleistungen, die KI miteinbeziehen, anwenden lässt. Um Rechtssicherheit zu gewährleisten, ist laut Kommission eine klare Definition von KI erforderlich.
Der vorgesehene Regulierungsrahmen für KI: „High Risk“ Einstufungen
Der Regulierungsrahmen soll einen besonderen Fokus auf die sogenannte „High Risk“ Einstufung legen. Die Kommission schlägt vor, „High Risk“ in zwei Kategorien zu definieren: als „High Risk“ Sektoren und als „High Risk“ Anwendungen.
„High Risk“ Sektoren sind die Sektoren, in denen die Anwendung von KI besonders viele Risiken birgt. Eine Liste solcher Sektoren soll angefertigt und im Regulierungsrahmen festgehalten werden. Diese Liste müsste regelmäßig kontrolliert und gegebenenfalls überarbeitet werden.
Ergänzt wird die Definition um „High Risk“ Anwendungen. Damit wird berücksichtigt, dass nicht jede Anwendung von KI in einem Risiko-Sektor auch tatsächlich risikoreich ist. Deshalb wird der Risikograd anhand potentieller Auswirkungen zusätzlich beurteilt.
In bestimmten Fällen wird darüber hinaus immer die „High Risk“ Einstufung vorgenommen. Beispielsweise bei biometrischen Fernerkennungssystemen oder wenn signifikante Auswirkungen auf ein Individuum absehbar sind.
Rechtliche Pflichtanforderungen KI-Systeme
Hinsichtlich der rechtlichen Pflichtanforderungen zieht die Kommission mehrere Möglichkeiten in Betracht:
a. Eigenschaften der Trainingsdaten
Das Verhalten eines KI-Systems ist stark abhängig von den Daten-Sets, mit denen es trainiert wurde. Demnach ist es wichtig, dass die genutzten Daten die Werte, die in der EU vertreten werden, wiederspiegeln. Deswegen müssen Daten-Sets zum einen eine Vielzahl möglicher Szenarien berücksichtigen. Zum anderen müssen sie die Vielfalt in der Gesellschaft im Bezug auf Alter, Geschlecht, Herkunft etc. abbilden, um der Gefahr der Diskriminierung zu entgehen.
b. Dokumentation und Sicherung von Daten
Es ist von großer Bedeutung, die Entscheidungsprozesse eines KI-Systems nachvollziehen zu können. Dies gilt besonders wenn vom KI-System Fehlentscheidungen getroffen wurden. Deswegen könnte der Regulierungsrahmen zukünftig das Aufzeichnen einer Beschreibung der Hauptcharakteristiken der Daten-Sets mit denen eine KI trainiert, sowie der Art und Weise wie sie gewonnen wurden, vorschreiben. In einzelnen Fällen kann sogar vorgeschrieben werden, die Daten-Sets selbst zu sichern. Auch eine Dokumentation der Programmier- und Trainingsmethoden sowie der Techniken, die beim Bau des KI-Systems eingesetzt wurden, muss zukünftig gegebenenfalls erstellt werden.
c. Bereitstellen von Informationen für die Bürger
Aufgrund des fehlenden Vertrauens seitens der Bevölkerung im Hinblick auf den Eisatz von KI wird größtmögliche Transparenz gefordert. Zu diesem Zweck sollen Informationen bezüglich der Fähigkeiten, Regulierungen und Aufgaben von KI-Systemen zur Verfügung gestellt werden. Es muss außerdem für Bürger kenntlich gemacht werden, ob sie mit einem Menschen oder einem KI-System interagieren.
d. Robustheit und Genauigkeit
Damit ein KI-System als vertrauenswürdig bezeichnet werden kann, muss es die Merkmale robust und akkurat erfüllen. Deswegen müssen KI-Systeme unter ex-ante Betrachtung der Risiken die sie verursachen können, entwickelt werden. Außerdem werden an sie eine Reihe von Anforderungen gestellt, um ihre Robustheit und Genauigkeit während aller Lebenszyklus-Phasen zu garantieren.
e. Menschliche Aufsicht
Nach Meinung der Kommission kann eine vertrauenswürdige, ethische KI nur durch ein angemessenes Maß an Beteiligung vom Menschen erreicht werden.
Der Grad an Involviertheit des Menschen variierter von System zu System. Er könnte grundlegend aber folgendermaßen festgelegt werden: Die Leistung eines KI-Systems wird erst wirksam nachdem es von einem Menschen noch einmal geprüft wurde oder die Leistung des Systems tritt sofort in Kraft, wird allerdings ex post von einem Menschen kontrolliert.
Das KI-System könnte auch während es operiert überwacht werden oder es können Einschränkungen während der Design-Phase auferlegt werden.
f. Spezifische Anforderungen an biometrische Fernerkennungssysteme
Biometrische Fernerkennungssysteme bergen besondere Risiken für die fundamentalen Rechte. Das Sammeln und Auswerten personenbezogener Daten zur Identifikation eines Individuums darf deswegen nur unter expliziten Bedingungen erfolgen. (Die EU-Kommission verweist dabei auf Artikel 9 der Datenschutzgrundverordnung und Artikel 10 des „Law Enforcement Directives“.) Es muss ein Prozess durchlaufen werden, bei dem die EU oder die nationale Regierung den Vorgang autorisiert sowie eine Reihe von Schutzmaßnahmen aufstellt.
Haftung und Verantwortung bei KI-Systemen
Bis heute stellt sich bei KI-Systemen die Frage nach der Haftung und Verantwortung. Damit hängt auch die Frage zusammen, welche Person oder Instanz kontrolliert, dass die rechtlichen Pflichtanforderungen umgesetzt werden - und falls dies nicht geschieht, wer anschließend haftbar gemacht wird. Nach Meinung der Kommission sollten die Personen, die am effektivsten potentielle Risiken beheben können, den größten Teil der Verantwortung tragen. Die Haftung wiederum liegt beim Hersteller.
Durchsetzung des Regulierungsrahmens
In Sachen Durchsetzung, soll nach aktuellem Stand ex ante eine Komformitätsbewertung durchgeführt werden, um sicherzugehen, dass der Regulierungsrahmen eingehalten wird. Eine solche Komformitätsbewertung kann Testprozeduren, Inspektionen sowie Zertifikationen beinhalten und soll auf bereits bestehenden Kontrollverfahren aufbauen. Die Komformitätsbewertung würde bei „High Risk“ KI-Systemen angewandt werden.
Für die Systeme, die nicht unter das „High Risk“ Label fallen, gibt es ein sogenanntes „Freiwilliges Klassifizierungssystem für No-High-Risk KI-Systeme“. Wie der Name bereits sagt, handelt es sich hierbei um eine freiwillige Testprozedur die durchlaufen werden kann um anschließend ein „Qualitätslabel“ zu erhalten.
Regierungsführung
In Sachen Regierungsführung sieht die EU-Kommission die Notwendigkeit für eine europäische Regierungsführung, die sich an nationalen Autoritäten orientiert. Ein permanentes Komitee von Experten könnte zusätzlich der EU-Kommission assistieren. Von der aktuellen Regierungsstruktur erhofft man sich, dass sie maximale Beteiligung von Stakeholdern ermöglicht.
Ausblick
Damit Europa das volle Potenzial Künstlicher Intelligenz ausschöpfen kann, muss laut Whitepaper ein optimales Ökosystem der KI geschaffen werden. Inwieweit die aktuellen Pläne der EU-Kommission dazu in der Lage sind, wird die Zukunft zeigen.