DSGVO greift für Algorithmen und künstliche Intelligenz zu kurz

aus SecuPedia, der Plattform für Sicherheits-Informationen

Anzeige
Wechseln zu: Navigation, Suche
Quelle: Bertelsmann Stiftung
Veröffentlicht von SecuPedia-Redaktion am 13. April 2018.

Gütersloh, 13.04.2018 -  Eine Analyse, die die Rechtswissenschaftler Wolfgang Schulz und Stephan Dreyer vom Hans-Bredow-Institut für Medienforschung an der Universität Hamburg im Auftrag der Bertelsmann Stiftung erstellt haben, kommt zum Ergebnis, dass die ab Mai wirksame Datenschutz-Grundverordnung (DSGVO) nur wenig daran ändern werde, dass die Entscheidungen von Algorithmen über Menschen fast unkontrolliert  bleiben. Die DSGVO werde nur für einen kleinen Teil der bereits heute eingesetzten ADM-Systeme (algorithmic decision making) wirksam. Zudem ließen sich durch die individuellen Auskunftsrechte der DSGVO keine systematischen Mängel oder Diskriminierungen ganzer Personengruppen aufdecken. Notwendig sei deshalb ein neues Verständnis von Datenschutz und eine größere Aufmerksamkeit der Datenschutzaufsicht für teilhaberelevante Risiken automatisierter Entscheidungsfindung.

Trotz dieses großen Mankos sei die DSGVO mit Blick auf algorithmische Entscheidungsfindung aber eine Verbesserung, denn die Nachvollziehbarkeit für den Einzelnen werde durch grundsätzliche Informationspflichten und Auskunftsrechte deutlich gestärkt. Zudem würden restriktive Dokumentationsanforderungen dazu führen, dass datenverarbeitende Akteure ein höheres Bewusstsein für Datenschutzfragen entwickeln.

Ralph Müller-Eiselt, Digitalisierungsexperte der Bertelsmann Stiftung, bewertet die Einführung der DSGVO dementsprechend zwiespältig: "Die Datenschutz-Grundverordnung ist ein wichtiger Schritt für europaweite Datenschutzstandards und Auskunftsrechte der Bürger, aber sie greift bei neuen Technologien wie Algorithmen und künstliche Intelligenz eindeutig zu kurz." Der Grund: Zum einen sei die DSGVO bei vielen automatisierten Entscheidungen nicht anwendbar. Zum anderen schütze sie nicht vor gesellschaftlich relevanten Risiken, die weit über das Datenschutzinteresse des Einzelnen hinausgehen.

Dies liege auch daran, dass bei der DSGVO primär der Schutz Einzelner geregelt wird. "Für die fehlerhafte Bewertung oder systematische Diskriminierung ganzer Gruppen durch automatisierte Entscheidungen ist die neue Regulierung blind", ergänzt Studienautor Wolfgang Schulz. Individuelle Auskunfts- und Abwehrrechte allein – wie sie im klassischen Verständnis von Datenschutz verankert sind – reichten aber nicht aus, um die Diskriminierung bestimmter Gruppen aufzudecken und abzustellen. Am Beispiel der Job-Bewerbungen: Es ist zwar gut, wenn Einzelne nachvollziehen können, wie die Entscheidung über ihre Absage zustande gekommen ist. Doch es bleibt ungeklärt, ob bestimmte Eigenschaften – etwa Geschlecht oder der Wohnort – dazu führen, dass ganze Gruppen ungerechterweise geringere Chancen haben.

Um gesellschaftliche Teilhabechancen für alle zu sichern, sollte das Thema automatisierter Entscheidungsfindung, so die Stiftung, stärker in den öffentlichen Diskurs rücken. Müller-Eiselt sieht die Datenschutzbeauftragen von Bund und Ländern in der Pflicht, sich der negativen gesellschaftlichen Konsequenzen von ADM stärker anzunehmen.

Ausführlicher informiert die Bertelsmann Stiftung über "Algrithmenethik" unter https://algorithmenethik.de

 

Kategorien E-Mail Service konfigurieren

  • Datenschutz / Datensicherheit

Benutzergruppe

  • Alle Benutzer


Anzeigen