Es besteht eine erhebliche Diskrepanz zwischen den Erwartungen der Verbraucher und den Ansätzen der Unternehmen in Bezug auf den Datenschutz, insbesondere was den Einsatz von KI betrifft.
Dies geht aus der Datenschutz-Benchmarkstudie 2023 von Cisco hervor, die Erkenntnisse von 3100 Sicherheitsexperten, die mit dem Datenschutzprogramm in ihren Unternehmen vertraut sind, und ihre Antworten auf die Einstellungen der Verbraucher zum Datenschutz aus der früheren Cisco-Datenschutzumfrage 2022 umfasst.
Die Diskrepanz zwischen Verbrauchern und Unternehmen war am deutlichsten bei den Auswirkungen von KI-Technologien wie ChatGPT auf den Datenschutz.
In der Consumer Privacy Survey von 2022 äußerten sich 60 % der Verbraucher besorgt darüber, wie Unternehmen KI heute einsetzen und nutzen, und 65 % haben bereits das Vertrauen in Unternehmen wegen ihrer KI-Praktiken verloren.
Im Vergleich dazu gaben 96 % der Sicherheitsexperten in der Datenschutz-Benchmark-Umfrage von 2023 an, dass ihre Unternehmen bereits über Prozesse verfügen, um die von den Verbrauchern erwarteten verantwortungsvollen und ethischen Datenschutzstandards für KI zu erfüllen.
In einem Gespräch mit Infosecurity sagte Robert Waitman, Datenschutzdirektor und Leiter des Datenschutzforschungsprogramms bei Cisco: „KI-Algorithmen und automatisierte Entscheidungsfindung können für die Menschen besonders schwer zu verstehen sein. Während die meisten Verbraucher KI generell befürworten, haben bereits 60 % das Vertrauen in Unternehmen aufgrund der Anwendung und Nutzung von KI in ihren Lösungen und Diensten verloren. Daher sollten Unternehmen besonders vorsichtig sein, wenn sie KI einsetzen, um Entscheidungen zu automatisieren und zu treffen, die den Menschen direkt betreffen, wie etwa bei der Beantragung eines Kredits oder einem Vorstellungsgespräch.“
Ungelöste Fragen zu KI und Datenschutz
Valerie Lyons, COO und Senior Consultant bei BH Consulting, erörterte in einer kürzlich erschienenen Folge des Podcasts des Infosecurity Magazine die enormen Auswirkungen des Wachstums der KI auf den Datenschutz.
Eine davon ist die Rolle der KI bei der Erstellung von Schlussfolgerungen aus Daten, d. h. die Verwendung eines Datensatzes, um Rückschlüsse auf Populationen zu ziehen.
„Das Problem mit den Rückschlüssen ist, dass ich als Verbraucher nicht weiß, dass die Organisation diese Daten hat. Ich habe meinen Namen, meine Adresse und mein Alter angegeben, und das Unternehmen schließt daraus auf etwas, und bei dieser Schlussfolgerung kann es sich um sensible Daten handeln“, erklärte Lyons.
Der Einsatz von künstlicher Intelligenz zur Erstellung von Schlussfolgerungsdaten könnte zwar ein enormes Potenzial haben, wirft aber auch erhebliche Datenschutzprobleme auf, die noch nicht gelöst sind. „Abgeleitete Daten sind etwas, über das wir als Verbraucher keine Kontrolle haben“, fügte Lyons hinzu.
Camilla Winlo, Leiterin des Bereichs Datenschutz bei Germserv, äußerte gegenüber Infosecurity Bedenken hinsichtlich des Einsatzes von KI-Tools, die die persönlichen Daten von Menschen auf eine Art und Weise nutzen, die sie nicht beabsichtigt und der sie nicht zugestimmt haben. Dazu gehört das sogenannte „Data Scraping“, bei dem die Datensätze, die zum Trainieren von KI-Algorithmen verwendet werden, aus Quellen wie sozialen Medien stammen.
Ein viel beachtetes Beispiel hierfür ist die Untersuchung gegen Clearview AI, das Bilder von Menschen ohne deren Wissen aus dem Internet entnommen und über sein Gesichtserkennungstool veröffentlicht hat.
„Vielen Menschen wäre es unangenehm, wenn ihre persönlichen Daten ohne ihr Wissen von Organisationen zu Profitzwecken verwendet würden. Diese Art von Verfahren kann es den Menschen auch erschweren, persönliche Informationen, die sie nicht mehr weitergeben wollen, zu entfernen – wenn sie nicht wissen, dass eine Organisation sie hat, können sie ihre Rechte nicht wahrnehmen“, sagte Winlo.
„Vielen Menschen wäre es unangenehm, wenn ihre persönlichen Daten von Organisationen ohne ihr Wissen genommen und gewinnbringend verwendet würden.
Winlo wies auch darauf hin, dass Verbraucher bei der Interaktion mit KI eine unrealistische Erwartung in Bezug auf den Schutz der Privatsphäre entwickeln können, da sie sich nicht bewusst sind, dass die von ihnen preisgegebenen Informationen von Menschen und Organisationen abgerufen und verwendet werden können
Sie kommentierte: „Menschen, die mit Tools wie Chatbots interagieren, können eine Erwartung an die Privatsphäre haben, weil sie glauben, dass sie ein Gespräch mit einem Computerprogramm führen. Es kann sie überraschen, wenn sie feststellen, dass Menschen diese Nachrichten lesen, um Programme zur Verbesserung der KI zu testen oder sogar die am besten geeignete KI-generierte Antwort zu posten.
Ein weiterer Bereich, der von Lyons erörtert wurde, war die mögliche zukünftige Rolle von ChatGPT im Bereich des Datenschutzes. Sie merkte an, dass die Hauptfunktion von GPT, Fragen zu beantworten und Texte zu formulieren, „im Wesentlichen das ist, was Datenschutzexperten tun“, insbesondere bei der Erstellung von Datenschutzrichtlinien.
Daher geht sie davon aus, dass die Technologie, wenn sie gelernt und weiterentwickelt wird, das Potenzial hat, die Ansätze von Organisationen im Bereich des Datenschutzes erheblich zu verbessern.
Das Vertrauen der Verbraucher in KI stärken
Mehr als neun von zehn (92 %) Sicherheitsexperten in Ciscos Datenschutz-Benchmark-Bericht 2023 gaben zu, dass sie mehr tun müssen, um den Kunden zu versichern, dass ihre Daten nur für beabsichtigte und legitime Zwecke verwendet werden, wenn es um den Einsatz von KI in ihren Lösungen geht.
Allerdings gibt es große Unterschiede bei den Prioritäten für den Aufbau dieses Vertrauens und der Sicherheit zwischen Verbrauchern und Unternehmen. Während 39 % der Verbraucher angaben, dass klare Informationen darüber, wie ihre Daten verwendet werden, am wichtigsten sind, um Vertrauen aufzubauen, waren nur 26 % der Sicherheitsexperten derselben Meinung.
Während 30 % der Sicherheitsexperten der Meinung sind, dass die Einhaltung aller einschlägigen Datenschutzgesetze für die Vertrauensbildung in ihrem Unternehmen die höchste Priorität hat, ist dies nur für 20 % der Verbraucher eine Priorität.
Mehr als drei Viertel (76 %) der Verbraucher gaben an, dass die Möglichkeit, sich von KI-basierten Lösungen abzumelden, sie mit dem Einsatz dieser Technologien besser vertraut machen würde. Allerdings glauben nur 22 % der Unternehmen, dass dieser Ansatz am effektivsten wäre.
In Anbetracht dieser Ergebnisse kommentierte Waitman: „Die Einhaltung von Vorschriften wird meist als Grundvoraussetzung angesehen, aber sie reicht nicht aus, wenn es darum geht, Vertrauen zu gewinnen und aufzubauen. Die klare Priorität der Verbraucher in Bezug auf ihre Daten ist Transparenz. Sie wollen wissen, dass ihre Daten nur für die beabsichtigten und rechtmäßigen Zwecke verwendet werden, und sie vertrauen Unternehmen mehr, die ihnen dies klar mitteilen.“
Das Unternehmen riet Organisationen, ihre Online-Datenschutzerklärungen zusätzlich zu den gesetzlich vorgeschriebenen Datenschutzinformationen zu veröffentlichen, um das Vertrauen der Verbraucher zu stärken.
Waitman fügte hinzu: „Unternehmen sollten in klarer Sprache genau erklären, wie sie Kundendaten verwenden, wer Zugang zu ihnen hat, wie lange sie sie aufbewahren und so weiter.“
In Bezug auf den Einsatz von KI sagte Winlo, dass es von entscheidender Bedeutung sei, dass Organisationen, die an der Entwicklung und Nutzung von KI-Tools beteiligt sind, Maßnahmen zum Schutz der Privatsphäre ergreifen, da sonst die Gefahr bestehe, dass diese Technologien ihr enormes Nutzenpotenzial nicht entfalten können.
„Wir fangen gerade erst an, die Anwendungsfälle für diese Systeme zu identifizieren. Es ist jedoch wirklich wichtig, dass diejenigen, die die Tools entwickeln, die Art und Weise, wie sie dies tun, und die Auswirkungen für den Einzelnen und die Gesellschaft bedenken, wenn sie es gut oder schlecht machen. Auch wenn eine neue Technologie noch so beliebt sein mag, wird sie sich langfristig nicht durchsetzen, wenn die Menschen nicht darauf vertrauen, dass ihre persönlichen Daten – und ihr Leben – damit sicher sind“, fügte sie hinzu.
Veränderte Einstellung der Unternehmen zum Datenschutz
Erfreulicherweise hat die Cisco-Umfrage 2023 ergeben, dass fast alle Unternehmen die Bedeutung des Datenschutzes für ihre Geschäftstätigkeit anerkennen. 95 % der Befragten gaben an, dass der Datenschutz eine geschäftliche Notwendigkeit ist. Im letzten Jahr waren es noch 90 %.
Darüber hinaus gaben 94 % der Befragten an, dass ihre Kunden nicht bei ihnen kaufen würden, wenn ihre Daten nicht ordnungsgemäß geschützt wären, und 95 % erklärten, dass der Datenschutz ein integraler Bestandteil der Unternehmenskultur ist.
Die Unternehmen erkennen auch die Notwendigkeit eines unternehmensweiten Ansatzes zum Schutz personenbezogener Daten. 95 % der Befragten gaben an, dass „alle ihre Mitarbeiter“ wissen müssen, wie man den Datenschutz schützt.
Etwa vier von fünf Befragten (79 %) gaben an, dass sich die Datenschutzgesetze positiv auswirken, nur 6 % gaben an, dass sie sich negativ ausgewirkt haben.
Diese Einstellungen führen zu veränderten Geschäftspraktiken. Waitman stellte fest: „Während vor einigen Jahren nur sehr wenige Unternehmen Datenschutzkennzahlen verfolgten und weitergaben, berichten heute 98 % der Unternehmen ihrem Vorstand über Datenschutzkennzahlen. Vor einigen Jahren wurde der Datenschutz in der Regel von einer kleinen Gruppe von Anwälten gehandhabt – heute glauben 95 % der Unternehmen, dass der Datenschutz ein integraler Bestandteil ihrer Kultur ist.“
Einige Teile dieses Artikels stammen aus:
www.infosecurity-magazine.com