Laat privacywetgeving je niet verlammen en blijf innoveren met AI
26 februari 2019 [11:33], 4855 views
Door Rein Mertens

Laat privacywetgeving je niet verlammen en blijf innoveren met AI

Kunstmatige intelligentie (AI) biedt veel kansen, mogelijkheden en voordelen voor innovatie. Zo kunnen we verkeersstromen met behulp van AI in betere banen leiden, kunnen we grote mensenmassa’s bij evenementen op veilige wijze sturen en geautomatiseerd MRI-scans analyseren op zowel bepaalde ziektes en aandoeningen als de effectiviteit van een behandeling. Nieuwe privacywetgeving zoals de Europese Algemene Verordening Gegevensbescherming (AVG) stelt echter strengere eisen aan de verwerking van persoonsgegevens door bedrijven. Wat is de impact van deze nieuwe privacywetgeving op AI-projecten? En hoe kunnen we AI inzetten om (maatschappelijke) toegevoegde waarde te creëren en tegelijkertijd de privacy van de betrokkenen (identificeerbare natuurlijke personen) beschermen?

Vanuit mijn netwerk van data privacy professionals hoor ik dat een groot aantal organisaties behoorlijk veel werk heeft gestoken in het AVG-compliant zijn. Denk hierbij aan de aanstelling van een functionaris gegevensbescherming (FG), het opzetten van het register van verwerkingen, het uitvoeren privacy impact assessments en het afsluiten van verwerkersovereenkomsten, inclusief het creëren van awareness en procedures op de diverse niveaus in de organisatie. Ik constateer echter ook, dat organisaties vooral in control zijn rondom de primaire processen en operationele systemen. Onderwerpen als advanced/predictive analytics, big data, data lakes, data science en AI zijn vaak nog onderbelicht gebleven.

Tegenwoordig zien we dat bedrijven steeds vaker toegevoegde waarde leveren aan hun (potentiële) klanten door data met behulp van AI op slimme wijze te analyseren. Deze innovatie kan op gespannen voet staan met de strengere eisen die de AVG stelt aan de zorgvuldige verwerking van deze gegevens, en de uitlegbaarheid en transparantie van de gebruikte algoritmes. Hoe zorg je ervoor dat deze adequaat en transparant worden ingezet en de betrokkenen geen slachtoffer worden van vooroordelen en discriminatie? Binnen het analytics en data science werkveld wordt dit ook wel ‘bias’ genoemd.

Richtlijnen om bias tegen te gaan
Bias kan leiden tot oneerlijke beslissingen. Het is bekend dat mensen bevooroordeeld zijn in hun besluitvorming. Aangezien tegenwoordig echter veel gebruik wordt gemaakt van data-gestuurde machine learning technieken om beslissingen te nemen, is het essentieel dat de gebruikte input-/trainingsdata zowel compleet is alsook de juiste kwaliteit heeft. Anders wordt het zelflerend systeem simpelweg aangeleerd om verkeerde beslissingen te nemen!

Bias kan ook optreden als gevolg van data privacy. Om de privacy van individuen te waarborgen wordt vaak vanuit de privacywetgeving dataminimalisatie toegepast, waarbij alleen de daadwerkelijk benodigde data wordt opgeslagen. Lokke Moerel van de Katholieke Universiteit Brabant stelt echter dat we ons hiermee in de vingers snijden en het juist moeilijker maken bias te bestrijden. Volgens Moerel zouden we juist in veel gevallen meer data moeten opslaan om gerichter bias te kunnen voorkomen. In haar recente publicatie 'Algorithms can reduce discrimination, but only with proper data' geeft zij namelijk aan dat bias niet wordt veroorzaakt door het algoritme, maar door de data, of het gebrek eraan, waarop dit algoritme wordt losgelaten.

Vanuit verschillende hoeken worden inmiddels artikelen gepubliceerd met adviezen hoe deze bias in AI-algoritmes kan worden voorkomen. Daarnaast zie ik de laatste tijd veel publicaties rondom ‘Ethical AI’, met als ondertoon: ‘technisch kan ik het, juridisch mag ik het, maar wil ik het ethisch ook?. Een recent voorbeeld is een artikel van ethicus Piek Visser-Knijff.

Daarnaast heeft de European Data Protection Board (EPDB) - de opvolger de vroegere Artikel 29 werkgroep waarin Europese privacy toezichthouders zijn verenigd – zeer recent hiervoor de richtlijn ‘AI Ethics Guidelines produced by the European Commission’s High-Level Expert Group on Artificial Intelligence (AI HLEG)’ opgesteld.

Anoniem is niet altijd anoniem
Een voorbeeld dat bovenstaande onderschrijft is een incident bij Amazon, dat CV's blind behandelde en hierdoor niet wist of het CV van een man of vrouw was. Om sollicitanten gerichter te kunnen uitnodigen voor een sollicitatiegesprek zette Amazon speciale software in om CV's van sollicitanten te analyseren. Bij deze analyses bleek echter een voorkeur te bestaan voor mannen, die de software wist te identificeren aan de hand van onder meer hobby's en voormalige studentenverenigingen. Doordat niet is vastgelegd of een CV van een man of een vrouw is, kon een dergelijke voorkeur voor het algoritme moeilijk worden opgespoord en tegengegaan. Door bewust meer data te verzamelen en in dit geval het geslacht van sollicitanten juist wel mee te nemen in de analyse, zou dat beter mogelijk moeten zijn. Amazon is hier inmiddels mee gestopt.

Profiling – ‘nuttige informatie over de onderliggende logica’ en AI interpretability
In de AVG wetgeving zijn meerdere artikelen gewijd aan profiling, inclusief de verplichting om onder andere 'nuttige informatie over de onderliggende logica' te kunnen overleggen. Dit is een serieuze uitdaging voor organisaties en overheden, zeker als gebruik wordt gemaakt van geavanceerde machine-/deep-learning technieken die zich als ‘black-box’ gedragen. Eind 2018 heeft minister Dekker hierover een interessant document naar de Tweede Kamer gestuurd over ‘Transparantie van algoritmes in gebruik bij de overheid’.

Vanuit SAS kijken we bij voorkeur pragmatisch naar deze abstract omschreven eis, waarbij we ons op drie onderdelen richten:

  • datatransparantie: welke data is gebruikt in het algoritme en wat is de kwaliteit van deze data? 
  • modeltransparantie: welke versie van een algoritme is gebruikt en met welke parameters? 
  • beslissingstransparantie: in wat voor bedrijfs-/systeembeslissingen is het model gebruikt?

Een van de meer recente mogelijkheden om complexe modellen qua werking en uitkomsten visueel inzichtelijk te maken is onder andere Local Interpretable Model-agnostic Explanations (LIME). Een aantal collega’s van mij heeft een serie interessante blogs geschreven over de interpreteerbaarheid van AI.

Het SAS Platform biedt gelukkig standaardfunctionaliteit voor zowel de transparantie van data, modellen en beslissingen, evenals het verklaren van de modellen via LIME. Andere technieken zijn in ontwikkeling. Hiermee ondersteunen wij onze klanten om aan deze lastige AVG-verplichting te kunnen voldoen.

Conclusie
Dat privacy impact heeft op AI staat buiten kijf. Het is echter van belang dat we door nieuwe wetgeving zoals de AVG niet verlamd raken, maar blijven innoveren. Kijk goed naar het soort AI-project dat je wilt opzetten en analyseer of je voldoende juridische grondslag hebt om dit te doen. Zijn er bijvoorbeeld andere manieren om hetzelfde doel te bereiken die minder impact hebben op de privacy van individuen?

Breng daarnaast in kaart welke maatregelen je moet nemen om dit proces afdoende te bewaken en transparant te maken. Denk hierbij aan dataminimalisatie en ‘privacy by design’. Ondanks de extra eisen die de AVG stelt aan de verwerking van gegevens van individuen blijft het - met de juiste maatregelen, inclusief ethische afwegingen - mogelijk hier slimme algoritmes op los te laten en zal AI toegevoegde waarde kunnen leveren voor organisaties.

Over de auteur

Rein Mertens is Head of Customer Advisory SAS Platform en werkt sinds 1995 bij SAS Nederland, momenteel in de rol van Head of Analytical Platform. Met zijn team pre-sales consultants en data scientists adviseert hij nieuwe en bestaande klanten over de toegevoegde waarde van de inzet van SAS oplossingen voor informatie management, business analytics en visualisatie, machine learning en AI vraagstukken. Als gecertificeerde Data Privacy Officer is Rein tevens nauw betrokken bij de impact van de nieuwe data privacy wetgeving per mei 2018 (AVG) op data management en data science projecten. Rein is inhoudelijk betrokken bij de verschillende SAS User group events en zit in internationale werkgroepen om op basis van klantinput mee te denken met de prioriteitsstelling en verbetering van de SAS-producten.

Reacties

E-health hub houdt zorg betaalbaar en voorkomt eenzaamheid
13 november 2019 [09:00], 190 views

E-health hub houdt zorg betaalbaar en voorkomt eenzaamheid

E-health hub houdt zorg betaalbaar en voorkomt eenzaamheid.

 

Lees meer  

Meer rendement uit analytics-investering met ModelOps
21 oktober 2019 [10:46], 899 views

Meer rendement uit analytics-investering met ModelOps

Volgens IDC slaagt slechts 35% van organisaties erin om analytische modellen volledig in productie te nemen. Dit resulteert in onnodige inspanningen en verspilling van gel [...]

 

Lees meer  

Geek blog series - part 3
29 juli 2019 [04:07], 1421 views

Geek blog series - part 3

In this ‘Geek blog series’ these Geeks share their expertise and insights on the latest AI and Analytics topics. Read the third part of this series.

 

Lees meer  

Geek blog series - part 2
22 juli 2019 [03:48], 1816 views

Geek blog series - part 2

In this ‘Geek blog series’ these ‘Geeks’ share their expertise and insights on the latest AI and Analytics topics. Read now the blogs of the second part of this series.

 

Lees meer  

Hoogtepunten van het SAS Analytics Forum ‘Be Curious’
24 juni 2019 [04:53], 1587 views

Hoogtepunten van het SAS Analytics Forum ‘Be Curious’

Op 6 juni stond het NBC Congrescentrum in Nieuwegein bol van Analytics en AI. Met ruim 1.200 bezoekers kijken we terug op een succesvol SAS Analytics Forum 2019.

 

Lees meer  

Geeks of the world: unite!
3 juni 2019 [06:00], 2321 views

Geeks of the world: unite!

Geeks unite at the SAS Analytics Forum and at SAS Curiosity Forum! They will broadcast all their expertise and insights they have gathered from the marvelous world of Mach [...]

 

Lees meer  

Algoritmes, de illusie van objectiviteit
6 mei 2019 [11:30], 3741 views

Algoritmes, de illusie van objectiviteit

Een vooroordeel is een typisch menselijk verschijnsel. We zijn allemaal bevooroordeeld, door onze eigen aard, en elke dag nemen we talloze beslissingen die ge [...]

 

Lees meer  

De impact van AI in de zorg
3 mei 2019 [10:45], 3242 views

De impact van AI in de zorg

Toonaangevende bedrijven in het bankwezen, de gezondheidszorg en andere branches gebruiken de advanced analytics en AI-gedreven mogelijkhed [...]

 

Lees meer  

Blue Jay: je toekomstige drone assistent
16 april 2019 [09:34], 4307 views

Blue Jay: je toekomstige drone assistent

Studententeam Blue Jay Eindhoven, die tot doel heeft om de toekomstige drone assistant te maken, probeert intelligentie te integreren in haar autonome drones.

 

Lees meer  

SAS Analytics Forum 2019: Be Curious
2 april 2019 [01:00], 5921 views

SAS Analytics Forum 2019: Be Curious

Tijdens het SAS Analytics Forum hoor je alles over de nieuwste ontwikkelingen en innovaties op het gebied van analytics, artificial int [...]

 

Lees meer