Hva Facebook sin forretningsmodell kan fortelle oss om hvordan vi skal vurdere personvernrisiko i ny teknologi som AI

Photo by Glen Carrie on Unsplash

Facebook eller Meta er i vinden igjen. I fjor sommer bestemte EU-domstolen at de ikke lenger kunne bruke «berettigede interesser» som behandlingsgrunnlag for adferdsbasert reklame, vårt eget Datatilsynet fattet vedtak om å gi dem dagsbøter på 1 million NOK, Facebook tok tilsynet til retten, ble ikke hørt, innførte “Pay eller okay”, som tilsynet har sendt videre til EDPB, i tillegg til at forbrukerrådet har klagd inn modellen deres.

I det siste har jeg tenkt mye på Facebook sin forretningsmodell. Den er ikke ny, men på et tidspunkt var den det. Og det får meg til å spørre om forretningsmodellen kan fortelle oss noe om hvordan vi skal vurdere personvernrisiko i ny teknologi som AI.

Hva er egentlig Facebook sin forretningsmodell?

Men før vi kan si noe om risiko, må vi forstå Facebook sin forretningsmodell.

Facebook er ikke til for å tilby deg en måte å holde kontakten med venner og bekjente. Grunnen til at Facebook fortsatt er til, er at de tjener penger på reklame. Og ikke hvilken som helst form for reklame.

Facebook har bygget sin inntektsmodell på å vite så mye om deg at de kan selge tilgang til oppmerksomheten din i form av målrettet reklame som dukker opp i feeden din. Det er med andre ord ikke du som er kunden. Kunden til Facebook er de selskapene som kjøper reklameplass i feeden din, og du er produktet.

Hva har konsekvensene vært?

Konsekvensene av denne forretningsmodellen er at Facebook ikke har et incentiv til å gjøre plattformen sin et fint sted å være for deg. De har et større incentiv til å få deg til å tilbringe mest mulig tid på plattformen. Uavhengig om det er bra for deg som menneske.

Hvis det som får deg til å falle ned et Facebook-hull der tid og rom forsvinner er at du oppdager en ny konspirasjonsteori om at Bill Gates har planet en microchip i Covid19-vaksinen, er det det Facebook sin algoritme vil vise deg.

Og det har fått konsekvenser som vi ikke forutså da Facebook begynte å tjene penger på adferdsbasert reklame:

Høy usikkerhet fordrer forsiktighet

Og det er dette som er en del av problemet med ny teknologi: det er notorisk vanskelig å forutse konsekvensene av den. Dette gjelder også for AI i form av store språkmodeller som ChatGPT: det er vanskelig for oss å forutse den fremtidige personvernrisikoen ved å bruke dem.

Sagt på en annen måte er det stor usikkerhet forbundet med bruk av AI som ny teknologi. Jeg mener at den usikkerheten i seg selv bør taler for at ny teknologi som store språkmodeller automatisk innebærer en særskilt risiko etter GDPR.

Betyr det at vi ikke skal bruke dem? Nei, ikke nødvendigvis. Jeg tror ikke svaret er å unngå det, men å bruke det med forsiktighet. Dette betyr å gjøre alle personvernvurderingene man må når man har å gjøre med særskilt risiko.

Og å sette rammer for bruken. Er det ok at man bruker store språkmodeller til plagiatkontroll i skolen? Åpenbart ikke. Store språkmodeller gir oss det mest sannsynlige svaret ut ifra en matematisk formel vi ikke helt forstår (det er et av kjennetegnene med maskinlæring, vi vet ikke hvordan maskinen kommer til det resultatet den kommer til). Det betyr at de VIL ta feil, og da kan vi ikke la dem få beslutningsmyndighet i f.eks. plagiatsaker. Men det skjer. Og derfor må bli fortalt hvordan denne teknologien skal og ikke skal brukes, og så må de reglene håndheves. 

Jeg har ikke på langt nær alle svarene. Den kjipe realiteten er at jeg kommer til å se tilbake på dette tidspunktet om 10 år og tenke: «Hvorfor klarte vi ikke å forutse dette…».

Previous
Previous

3 ting du bør vite om ansiktsgjenkjenningsteknologi

Next
Next

Hvorfor satte EU-domstolen Privacy Shield til side?