Künstliche Intelligenz (KI) ist eines der Modewörter unserer Generation. Google, Microsoft, Apple und Amazon übertrumpfen sich gegenseitig mit ihren Taktiken und Erfolgen im Bereich des maschinellen Lernens.
Das Rennen um die Märkte der Zukunft hat begonnen: Google, Microsoft, Apple und Amazon wetteifern um immer raffiniertere Bots und schließlich um echte künstliche Intelligenz.
Apple weist regelmäßig auf die Bedeutung der Sicherheit von Verbraucherdaten hin. Künstliche Intelligenz wird mit Daten gefüttert werden müssen, um irgendwann unseren Alltag zu beherrschen. Ist es möglich, Datensicherheit und künstliche Intelligenz zu kombinieren?
Wie das Beispiel Facebook zeigt, sind sich die verantwortlichen Unternehmen der Brisanz des Themas durchaus bewusst. Es bleibt abzuwarten, ob dies mehr als ein Marketing-Trick ist. In jedem Fall zeigt diese Aktion, dass sich Facebook bewusst ist, dass die Beziehung zwischen maschinellem Lernen und Ethik Konfliktpotenzial birgt.
Künstliche Intelligenz ist auf große Datenmengen angewiesen, um zu funktionieren.
Maschinelles Lernen ist die Grundlage der künstlichen Intelligenz. Ein Algorithmus muss eine große Menge an Daten untersuchen, um selbst zu „lernen“. Bislang haben die Unternehmen auf dieses Datensicherheitsproblem mit Crowdsourcing reagiert.
Ein anderer Begriff dafür ist „differenzierter Datenschutz“. Konkret bedeutet dies, dass anstelle einzelner Datensätze, die auf eine Person zurückgeführt werden können, ein Satz anonymisierter Daten mit einer Unschärfe in die Entwicklung einfließt.
Nichtsdestotrotz steht die künstliche Intelligenz als Konzept vor erheblichen Problemen der Datensicherheit. In gewisser Weise stehen die Konzepte der Offenheit, der Zweckbindung und der Datenminimierung im Widerspruch zur Strategie der künstlichen Intelligenz – wie soll Big Data beispielsweise unter der Idee der Datenminimierung funktionieren? Es wäre äußerst schwierig, ein autonom funktionierendes System (Blackbox-KI) in dieser Situation kontinuierlich zu analysieren.
Die Herausforderungen des Datenschutzes: Künstliche Intelligenz braucht Nutzerdaten
Dass „Künstliche Intelligenz“ ein wichtiges Zukunftsprojekt ist, lässt sich heute kaum noch bestreiten: Der weltweite Umsatz mit Hardware, Software und damit verbundenen Dienstleistungen in den Bereichen „Cognitive Computing“ und „Machine Learning“ soll um 92 Prozent auf sagenhafte 4,3 Milliarden Euro steigen.
Datenschützer stehen einem solchen Trend skeptisch gegenüber und befürchten, dass die informationelle Selbstbestimmung gefährdet wird. Digitale Assistenten wie Google Home und Amazon Echo erfreuen sich derzeit großer Beliebtheit, weil sie unser Leben einfacher machen können.
Die Datenschutzbeauftragten sind sich jedoch unsicher, inwieweit die über die Nutzer gewonnenen Informationen weiterverarbeitet werden können. Außerdem ist zu bedenken, dass die Geräte immer eingeschaltet sind und die Nutzer aus technischer Sicht abhören können. Selbst wenn diese Situation nicht eintritt, werden die großen digitalen Unternehmen eine erhebliche Menge an Daten von uns erhalten.
Wie kann die Datensicherheit angesichts der künstlichen Intelligenz geschützt werden?
Apple antwortet auf diese Frage mit der oben beschriebenen Crowdsourcing-Methode. Außerdem garantieren die betreffenden Unternehmen, dass verschiedene Technologien lokal auf dem Gerät implementiert werden können, wie z. B. die Gesichtsentsperrung auf einem iPhone. Infolgedessen müssten keine persönlichen Daten der Nutzer verarbeitet werden.
Darüber hinaus lassen sich Datensicherheit und künstliche Intelligenz auch in anderen Bereichen relativ leicht miteinander verbinden: KI kann Datenschutzverletzungen aufdecken, was bisher für viele Unternehmen ein schwieriges Thema war.
Laut einer aktuellen Studie sind 44 Prozent der Unternehmen nicht in der Lage, eine Datenschutzverletzung innerhalb von 72 Stunden nach ihrem Auftreten zu erkennen und zu melden. Ein Bot könnte in dieser Situation nützlich sein. Auf dem Gebiet der Risikoanalyse kann künstliche Intelligenz sehr nützlich sein.
Wie bereits erwähnt, dürfte die Durchführung einer gesetzlich vorgeschriebenen Datenschutz-Folgenabschätzung in Zukunft jedoch eine Herausforderung darstellen.
Da künstliche Intelligenz per Definition selbstlernend ist, sollte sie in der Lage sein, ihre eigenen Entscheidungen zu treffen. Die Gesetzgebung sieht nun aber vor, dass die Nutzung und Verarbeitung geschätzter und bewerteter personenbezogener Daten – im Falle von künstlicher Intelligenz – letztlich verboten ist.
DSGVO: eine Bedrohung für die Innovation oder eine Quelle für Wettbewerbsvorteile?
Eines sollte jedoch nicht übersehen werden: Die Datenschutz-Grundverordnung ist an und für sich schon eine bedeutende Innovation. Einige Länder haben bereits Anpassungen vorgenommen oder angekündigt, dies zu tun, um den europäischen Datenschutzstandards zu entsprechen. In dieser Hinsicht besteht eine hohe Wahrscheinlichkeit, dass die EU-Datenschutzanforderungen „exportiert“ werden und schließlich zum weltweiten Standard werden.
Schlussfolgerung: Datenschutz muss eher früher als später beginnen
In Zukunft wird man sich überlegen müssen, wie man Datensicherheit und künstliche Intelligenz miteinander verbindet. Möglicherweise sind gesetzgeberische Reformen erforderlich; ebenso sollte der Datenschutz viel früher ansetzen, denn bei selbstlernenden Algorithmen lässt sich nicht vorhersagen, wie die Daten am Ende genutzt werden.
Wie sich dieser Bereich in Zukunft entwickeln wird, lässt sich derzeit nur schwer vorhersagen. Zweifelsohne wird es einige Entlastungen im Stressbereich geben. Der Datenschutz hingegen kann langfristig einen Rahmen für technische Fortschritte, insbesondere im Bereich der KI, bieten, indem er Regeln zum Schutz der personenbezogenen Daten der Bürger festlegt.
Es ist jedoch offensichtlich, dass es auch heute noch viele Schwierigkeiten gibt, die auf die vagen Formulierungen der Datenschutz-Grundverordnung im Gesetzestext zurückzuführen sind. Die Rechtspraxis muss in Zukunft Sicherheit schaffen, damit die Unternehmen wissen, welche Datenschutzanforderungen sie einhalten müssen.