1/2020
UNIZEIT
11/15
© Uni Graz/Konstantinov

Vertrauenssache

Digitale Technologien verschaffen jenen, die sie einzusetzen wissen, nicht nur eine Vielzahl neuer Chancen, sondern auch Macht. Damit wächst die Verlockung, sich auf Kosten anderer Vorteile zu verschaffen. Wie Missbrauch bereits im Stadium der Entwicklung von IT-Systemen vorbeugend verhindert werden kann, ist eine Frage, mit der sich Elisabeth Staudegger derzeit im Forschungsnetzwerk „Human Factor in Digital Transformation“ beschäftigt.

von Gudrun Pichler


Was macht eine digitale Anwendung – vom Webshop bis zum autonomen Fahren – vertrauenswürdig? Um diese Frage zu beantworten, haben ForscherInnen aus Rechtswissenschaften, Soziologie, Wirtschafts- und Systemwissenschaften, Philosophie, Psychologie, Fundamentaltheologie und dem Zentrum für Informationsmodellierung gemeinsam an einem Kriterienkatalog gearbeitet. Transparenz, Privatsphäre und Fairness sind einige der Werte, deren Schutz sie als notwendige Voraussetzungen identifiziert haben. Das Projekt mit dem Namen „TRUESSEC.eu“ wurde von der Europäischen Union im Rahmen des Programms „Horizon 2020“ gefördert.

Law by Design
„In komplexen Gesellschaften überleben zu können, setzt Vertrauen voraus“, sagt Elisabeth Staudegger, Expertin für IT-Recht. „Ich muss mich zum Beispiel darauf verlassen, dass das Smartphone, das ich kaufe, funktioniert und mir durch seinen Gebrauch kein Schaden entsteht. Das Recht kann dieses Vertrauen stärken oder schwächen, je nachdem, welche Handlungen es als Missbrauch sanktioniert und welche nicht“, erklärt die Juristin.
Verstöße gegen Gesetze im Nachhinein zu bestrafen, ist Staudegger allerdings zu wenig. Sinnvoller wäre es, Missbrauch und Schaden von vornherein möglichst zu verhindern. „Deshalb überlegen wir uns, wie man IT-Systeme entwickeln muss, damit eine rechtskonforme Anwendung im wahrsten Sinne des Wortes vorprogrammiert ist“, erläutert die Juristin. Dieses „Law by Design“ würde auch das Vertrauen der UserInnen in die Technologie maßgeblich fördern.
Die Europäische Union ist mit ihren Gesetzen zum Schutz von Grundrechten international vorbildlich und bietet damit beste Voraussetzungen für die Entwicklung vertrauenswürdiger IT-Produkte und -Dienstleistungen.

Ferngesteuert
Auf Grundlage des von den Grazer ForscherInnen entwickelten Kriterienkatalogs, der 2019 mit dem Steirischen Wissenschaftspreis ausgezeichnet wurde, nimmt das Team nun konkrete Anwendungen ins Visier. Was macht Systeme zum assistierten und autonomen Fahren vertrauenswürdig? Diese Frage bearbeiteten DissertantInnen des Doktoratsprogramms „Human Factor in Digital Transformation“ und einigten sich auf fünf Aspekte von zentraler Bedeutung: Transparenz, Fairness, Privatsphäre, Funktionalität und Verantwortlichkeit, sprich, dass es eine Person gibt, an die ich mich wenden kann und die die Haftung übernimmt. In Kooperation mit ExpertInnen aus dem Bereich der Technik wird nun untersucht, wie sich der Schutz dieser Werte in die Entwicklung digitaler Anwendungen integrieren lässt.
Damit Fahrassistenzsysteme und autonome Fahrzeuge einwandfrei und sicher funktionieren, muss eine Fülle von Daten gesammelt und miteinander vernetzt werden. Das betrifft nicht nur die NutzerInnen selbst. Über Sensoren werden unter anderem auch PassantInnen erfasst. Der Schutz der Privatsphäre ist in diesem Zusammenhang zweifellos eine große Herausforderung. „So wäre etwa sicherzustellen, dass die Daten nicht länger als nötig gespeichert werden, und auch zu klären, wer überhaupt darauf zugreifen darf“, sagt Staudegger. „Nicht jedeR möchte im Fahrzeug mit individualisierter Werbung konfrontiert sein“, äußert die Juristin Bedenken.
Stehen so viele Informationen über die UserInnen zur Verfügung, ist es umso wichtiger, auch Fairness im Sinne von Gleichbehandlung zu garantieren. Niemand darf aufgrund von Geschlecht, sozialer Stellung, Einkommen oder anderen Eigenschaften bevorzugt oder benachteiligt werden. Martin Griesbacher, Soziologe im Projekt-Team, verweist in diesem Zusammenhang auf ein aktuelles Problem: „Bis dato ist Sprach­erkennungssoftware eher auf männliche Stimmen trainiert und reagiert auf Anweisungen in höheren Frequenzlagen weniger gut, was Frauen die Nutzung erschweren kann.“
Transparenz, ein weiteres Kriterium für Vertrauenswürdigkeit, meint, dass das System seinen UserInnen Informationen darüber zur Verfügung stellen muss, was es aus welchem Grund macht. „Wenn das Fahrzeug, in dem ich sitze, eine alternative Route nimmt, um einem Stau auszuweichen, muss ich das nachvollziehen können“, erklärt Griesbacher.
„Akzeptanz und Vertrauen sind nicht dasselbe“, betont der Soziologe. „Es reicht uns nicht, dass eine Anwendung genutzt wird, nur weil sie bequem und praktisch ist. Es muss den UserInnen möglich sein, sich vom Schutz ihrer Rechte und ethischer Werte überzeugen zu können.“
Mit blindem Vertrauen habe das aber nichts zu tun. Vielmehr seien die KonsumentInnen gefordert, digitale Angebote kritisch und verantwortungsvoll zu nutzen. „Alle Beteiligten – von den HerstellerInnen über die HändlerInnen und BetreiberInnen eines Systems bin hin zu den NutzerInnen – tragen Verantwortung und sollten in die Pflicht genommen werden“, sind sich die ForscherInnen einig.
Sprecher des Forschungsnetzwerks „Human Factor in Digital Transformation“ sind derzeit Volkswirt Jörn Kleinert und Georg Vogeler, Professor für Digitale Geisteswissenschaften. Seit Herbst 2018 gehören die beiden Forscher, wie auch Elisabeth Staudegger, der Arbeitsgruppe „Digitalisierung und Gesellschaft“ der Österreichischen Akademie der Wissenschaften an.

Kollege Roboter
Forschungsnetzwerk "Human Factor in Digital Transformation"