Forskning på nedkjølingseffekten og personvern (Lit. review of research on the chilling effect and privacy)

I’m a member of Personvernskommisjonen, a committee appointed by the Norwegian government to write a report that assesses the state of current privacy regulations and practices and gives recommendations on policies to meet current challenges to privacy (here is our mandate). I was asked to have a look at research on the “chilling effect” and privacy, and to be honest, I got a bit carried away, because I really love exploring new research areas and seeing all the new connections, and constructing new searches and seeing how everything interconnects. This is the informal summary I wrote for the commission, with an annotated bibliography at the end. It’s in Norwegian, but if you don’t read Norwegian, Google will translate it reasonably well, and the bibliography mostly references English language research so you can scroll down to that as well.

Please let me know if you have suggestions or more to add! We have almost a year more to finish the report so will definitely be looking for more material.

Nedkjølingseffekten (“the chilling effect”) oppstår “i situasjoner hvor utøvelse av legitime handlinger innskrenkes eller motvirkes gjennom trusselen om mulige sanksjoner” (NOU 2016:19: Samhandling for sikkerhet).

Det er svært vanskelig å skaffe sikker kunnskap om sammenhengene mellom overvåkning, profilering og en evt nedkjølingseffekt, og det er vanskelig å kvantifisere dette. Som Datatilsynet skriver i kapittelet om nedkjølingseffekten i Personvernundersøkelsen 2019/2020: “Det er i hovedsak lettere å måle aktive handlinger enn fravær av handlinger.” Spørreundersøkelser gir ikke alltid informasjon om hva folk faktisk gjør, og det er vanskelig å forske empirisk på dette. (Personvernskommisjonen fikk presentert denne undersøkelsen i første møtet, derfor går jeg ikke videre inn på den her, men den er altså veldig interessant.)

Et hovedfunn i flere studier er at vår bevissthet om statlig og kommersiell overvåkning av nettet ikke bare fører til en nedkjølingseffekt på våre ytringer men også at vi begrenser vår oppførsel (Büchi et.al. 2020 og en rekke andre). Jusprofessor Paul Bernal argumenterer for at datainnsamling og overvåkning på internett ikke bare truer en individuell rett til personvern men også et kollektivt behov for sikkerhet som inkluderer menneskerettigheter som ytringsfrihet, forsamlingsfrihet, organisasjonsfrihet og forbud mot diskriminering (Bernal 2016). (Bernals nye bok What Do We Know And What Should We Do About Internet Privacy (Sage, 2020) virker svært relevant). Vår oppførsel påvirkes trolig selv om vi forstår hvordan profiler blir brukt (Büchi et.al. 2020, s 7). Automatisert manipulering av individers oppførsel skader individets autonomi (Büchi 2020 s. 7, og Büchi et al siterer to andre). 

Mange endrer oppførsel for å unngå å skape persondata de ikke ønsker at statlige og kommersielle overvåkningssystemer skal få adgang til. (Bilde: Colourbox)

Det er relativt få empiriske studier av nedkjølingseffekten i digitale medier, men det er to som ofte siteres. Penney (2017) fant at besøkstallene til Wikipediaartikler om terrorisme gikk markant ned etter Snowdonavsløringene i 2013, og argumenterer for at dette viser en klar nedkjølingseffekt: folk unngår å oppsøke informasjon fordi de vet at de overvåkes (se figur fra Penney 2017, s. 158). En annen undersøkelse (Marthews & Tucker 2017) startet med å vise informanter en liste søkeord som innehold ord på Dept of Homeland Security’s varselsliste (“Anthrax”, “agriculture”, “attack”), ord som var flaue på forskjellige måter (“erectile dysfunction” og “My Little Pony”) og noen helt vanlige ord. Så spurte de informantene hvilke av disse søkeordene de ville vært flau for at venner og familie så, hvilke ord de tenkte kunne få dem i trøbbel med myndighetene osv. Forskerne brukte så Google Trends for å se hvorvidt søkeordene informantene fant var “sensitive” var blitt mindre søkt på etter Snowdon-avsløringene. Det viste seg at det på tvers av 41 land i denne perioden var en 4% nedgang i søk på termer som informantene hadde sagt kunne gi dem problemer med myndighetene. Det overrasket forskerene at de fant en sammenheng, men de fant ingen andre årsaksforklaringer enn at det var en nedkjølingseffekt som konsekvens av Snowdonavsløringene om statlig overvåkning. En annet studie finner at informanter som har blitt eksponert for informasjon om overvåkning sier de er mindre tilbøyelige til å delta i politiske aktiviteter på nettet (Stoycheff et.al. 2019). Büchi et.al. 2020 har flere eksempler.

Det er enda vanskeligere å påvise eller avkrefte en nedkjølingseffekt av algoritmisk profilering fordi det er så diffust. Algoritmisk profilering omgår personvernsreglementer ved å bruke statistiske inferenser framfor håndfaste persondata. Dette betyr at GDPR kan omgås fullstendig fordi identifisering av individet ikke lenger er nødvendig for profilering (Büchi et.al. 2020 s 8). Stoilova et. al. (2019) finner i en gjennomgang av forskning på barns oppfatting av personvern at forskningen stort sett ser på data som er delt med vilje, og ikke på metadata og andre dataspor, som jo er det som brukes til algoritmisk profilering. Dette er en ny utvikling vi i Personvernkommisjonen bør mene noe om! Er det et brudd på personvernet at Google har betalt MasterCard millioner av dollar for å kunne se om nettbasert reklame på Google fører til kjøp i fysiske butikker? Dette skjer ifølge dem uten å bruke personidentifiserbar informasjon (Büchi et.al. 2020, s 5; mediesak fra Bloomberg 2018). 

Våre “digitale fotavtrykk” kan være en kilde til økt diskriminering og “digital ulikhet” (Micheli et.al. 2018). Tilpasset reklame kan være diskriminerende – USA anklaget Facebook i 2019 for å bryte U.S. Fair Housing Act ved å selge tilpasset reklame som skilte på grunnlag av rase. 

Kildevern er ifølge Jon Wessel-Aas “langt på vei illusorisk” når kommunikasjonen skjer elektronisk (2014, s 57), både pga norsk regulering og enda mer ved kommunikasjon over landegrensene. Her er kanskje Anders Brennas bok Digitalt kildevern (2012) relevant, men jeg har ikke lest den, og det er en stund siden 2012. Søk på “reporter’s privilege”|”source protection” + “chilling effect” + “privacy” på Google Scholar gir mest juridiske artikler som ikke ser ut til være særlig relevante for personvern, med unntak av Bradshaw 2017 som fant at britiske journalister ikke hadde god informasjonssikkerhet for digitalt kildevern, til tross for mye informasjon om overvåkning. 

Et beslektet tema er personvernsparadokset: hvorfor gir vi frivillig fra oss persondata til apper når vi sier vi misliker det så sterkt? Ny forskning avviser i stor grad at det er noe paradoks – det er flere logiske forklaringer(Kokolakis 2017). Begrepet “personvernsparadoks” var først brukt i 2001, i en studie hvor forbrukere som handlet på nett ga uttrykk for at de var bekymret for personvern men likevel var villige til å gi fra seg persondata til nettbutikker hvis de fikk noe i retur (Brown 2001). I 2004 foreslår Acquisti i et adferdsøkonomisk perspektiv at ““[p]eople may not be able to act as economically rational agents when it comes to personal privacy.” 

Personvernsparadokset utfordres av forskning på nedkjølingseffekten: Penney (2017) argumenterer for at vi begrenser vår oppførsel fordi vi vet at bestemte handlinger vil skape persondata om oss som samles inn av statlige eller kommersielle aktører. Så når vi sier ja til å gi fra oss persondata til apper osv så endrer vi også oppførsel slik at dataene vi gir fra oss blir mindre betente. Det er altså ikke noe paradoks. (Penney 2017; Büchi et.al. 2019). Penney 2017 er en grundig forskningsoversikt om personvernsparadokset. En annen forskningsoversikt (Baruh et.al. 2017) så på 166 forskningsstudier fra 34 land og fant at bekymringer omkring personvern ikke predikerer bruk av sosiale medier, men at de som er mer bekymret for personvern bruker netthandel og digitale offentlige tjenester mindre enn de som ikke er bekymret for personvern, og at de deler mindre informasjon og har større sannsynlighet for å bruke “privacy protective measures”. En annen respons til opplevelsen av å måtte gi fra seg persondata mot sin vilje er personvernsløgner, som Sannon et.al. (2018) definerer som “the deliberate provision of false personal information to protect some facet of an individual’s privacy”. Halvparten av amerikanske tenåringer har oppgitt falsk informasjon på profiler i sosial medier, og 40% av internettbrukere oppgir å lyge til kommersielle nettsteder. 

Jeg undersøkte også litt rundt doxing og dette at vanlige mennesker kan få personopplysninger om seg selv spredd som en hevnaksjon etter de har ytret seg offentlig eller i sosiale medier. Det er jo en litt annen sak, men magefølelsen min sier at de henger sammen. Særlig kvinnelige journalister og kvinner som har uttalt seg har mottatt trusler på nettet, og doxing, altså at personlige opplysninger om adresse og familie osv offentliggjøres, er en kjent strategi som sammen med “vanlig” netthetsing definitivt har en nedkjølende effekt på kvinners og minoriteters ytringer. Se Wikipedia om doxing. Dette skjer også med velmenende (?) aktivister som prøver å “hjelpe” politiet med å identifisere demonstranter ut fra bilder og videoer (f.eks. her fra stormingen av Captiol 06.02.2021) eller som vist i kunstneren Joana Moll sitt prosjekt The Virtual Watchers (2016) som tar utgangspunkt i en faktisk Facebookgruppe hvor folk “hjelper” immigrasjonspolitiet i USA med å identifisere ulovlige innvandrere ut fra overvåkningskameraer. 

Jeg fant ikke forskning som så på doxing eller det at amatører leter fram personopplysninger om andre i et personvernsperspektiv. Doxing blir sett som en del av netthetsing og i mindre grad diskutert i forhold til personvern. Netthets settes derimot i sammenheng med nedkjølingseffekten og ytringsfrihet ved at det ofte påstås at lover mot cyberharassment vil ha en “chilling effect” på ytringsfriheten, men Penney (2020) argumenterer tvert om for at slike lover vil gjøre at minoriteter og særlig kvinner vil kunne snakke friere.

Et annet tilgrensende felt er digitale seksuelle krenkelser (hevnporno), altså spredning av private nakenbilder uten samtykke. Patella-Rey (2018) argumenterer for at spredning av nakenbilder uten samtykke ikke handler om personvern  (privacy) men om vern av selve kroppen, altså at det oppleves som et brudd på kroppslig integritet, og mye verre enn bare spredning av informasjon om kropp/person. Det er interessant å tenke på hvor grensen mellom kropp og data går – hva er persondata og hva er rett og slett person? Blant homofile gir deltagelse på dating apper som Grindr økt fare for spredning av nakenbilder uten samtykke – slike datingapper har “powerful norms of disclosure that make sharing personal information all but required” (Waldman 2019).

Forskningsoversikter og metaanalyser

Følgende artikler gir systematiske oppsummeringer av forskning på spesifikke temaer:

Büchi, Moritz, Eduard Fosch-Villaronga, Christoph Lutz, Aurelia Tamò-Larrieux, Shruthi Velidi, and Salome Viljoen. “The Chilling Effects of Algorithmic Profiling: Mapping the Issues.” Computer Law & Security Review36 (April 2020): 105367. https://doi.org/10.1016/j.clsr.2019.105367.

En litteraturoversikt av forskning på profilering og på nedkjølingseffekten og hvordan de henger sammen. Slår fast at profilering kan føre til at folk endrer oppførsel – altså handler det ikke bare om ytringsfrihet, oppførsel. Nedkjølingseffekten innebærer å unngå oppførsel, som er det denne artikkelen fokuserer på. Profilering kan også gjøre at folk tillegger seg bestemte oppførsler (sørger for å få 10,000 skritt fordi de vet forsikringsselskapet eller arbeidsgiver følger med – dette er mitt eksempel ikke fra artikkelen).

Svært mye interessant i denne artikkelen, anbefalt lesning.

NB: en av forfatterne, Christoph Lutz, er sveitser men har vært førsteamanuensis ved BI i Oslo siden 2018. Han har personvern og internett som forskningsfelt.

Kokolakis, Spyros. “Privacy Attitudes and Privacy Behaviour: A Review of Current Research on the Privacy Paradox Phenomenon.” Computers & Security 64 (January 2017): 122–34. https://doi.org/10.1016/j.cose.2015.07.002.

Denne studien er veldig mye sitert. Den gir en oversikt over forskning i Scopus med nøkkelordene “privacy paradox”, men ikke juridisk og etisk forskning, samt relevante artikler sitert av de første artiklene. Tilsammen 51 artikler. 

Artikkelen har praktiske oversiktstabeller som viser forskning som bekrefter og som avkrefter personvernsparadokset. Konklusjonen er at forskning om personvernsparadokset har svært motstridende funn. Dette skyldes 1) Tolkning (er €7 å selge personopplysninger sine billig eller viser det at vi faktisk setter en verdi på dem? Hva betyr det at forbrukere allerede vet at personopplysningene deres er dårlig beskyttede?). 2) Kontekst: forskjell på folks holdning personvern i netthandel og i utdanningssammenheng, f.eks. Farlig å overføre resultater fra en sfære til en annen. Forskjellige typer persondata kan heller ikke lett sammenlignes. 3) Forskningsmetoder: En surveyundersøkelse er f.eks. lite egnet til å finne ut noe om faktisk adferd, og heller ikke til å samle info om handler vi foretar oss relativt sjeldent (f.eks. sikkerhetsinnstillinger) fordi vi husker for dårlig. Eksperimenter er ofte lite generaliserbare.

Fem forskningsfelt som bidrar til forskning på personvernsparadokset i dag: 1) privacy calculus theory: vi er rasjonale agenter som kalkulerer forholdet mellom antatt tap av personvern og fordelene vi får igjen for det. 2) Sosialteoretiske tolkninger: sosiale fellesskap svært viktige for mennesker, sosiale representasjoner (felles forståelser) av personvern i et digitalt fellesskap er ennå ikke nok utviklet. 3) Kognitive biaser og heuristikk: I motsetning til privacy calculus theory: [endel?] adferdsøkonomer mener vi ikke er rent rasjonelle agenter, men har en kognitiv bias når vi tar avgjørelser [Bør sjekkes med en økonom?] Artikkelen går gjennom en rekke slike biaser. 4) Bounded rationality, incomplete information, and information asymmetries Vi har ikke oversikt over alle konsekvensene 5) Kvanteteoretisk homomorfisme (!) Én studie ser på menneskelige beslutningsprosesser som analoge til usikkerhetsprinsippet i kvantemekanikk, altså at beslutningen er usikker inntil det er tatt. Denne siste er altså basert på en enkelt studie så ikke akkurat vanlig.

Lemi Baruh, Ekin Secinti, Zeynep Cemalcilar, Online Privacy Concerns and Privacy Management: A Meta-Analytical Review, Journal of Communication, Volume 67, Issue 1, February 2017, Pages 26–53, https://doi.org/10.1111/jcom.12276

Metaanalyse av 166 forskningsstudier fra 34 land: fant at bekymringer omkring personvern ikke predikerer bruk av sosiale medier, men at de som er mer bekymret for personvern bruker andre online tjenester (utenom sosiale medier) i mindre grad, deler mindre informasjon og har større sannsynlighet for å bruke “privacy protective measures”.  Sosiale medier har positive effekter på brukeres sosiale behov og behov for å uttrykke seg, og det er kanskje derfor personvernsopptatte brukere er villige til å bruke sosiale medier men ikke netthandel, offentlige tjenester m.m. som ikke oppfyller sosiale/emosjonelle behov (s. 28)  

Mariya Stoilova, Rishita Nandagiri & Sonia Livingstone (2019) Children’s understanding of personal data and privacy online – a systematic evidence mapping. Information, Communication & Society, DOI: 10.1080/1369118X.2019.1657164

  • Det er få studier av yngre barn og det vanskeliggjør kunnskapsbasert politikk og samfunnsutvikling
  • De fleste studiene fokuserer på mellommenneskelig privacy, altså deling av informasjon mellom individer, og ikke på kommersiell eller institusjonell innsamling av barns persondata.
  • De fleste studiene fokuserer på persondata som er delt med vilje, og ikke på metadata og dataspor, som også er viktige for barns personvern. 
  • De fleste empiriske studiene ser på barns oppførsel og praksis, og ikke på deres mediekompetanse, spesifikt deres kompetanse til å samtykke til personvernspraksiser. 
  • –> Vi trenger bedre forskning på barns personvern, særlig på disse feltene. 

Annotert bibliografi – andre relevante forskningsartikler

Acquisti, Alessandro. “Privacy in Electronic Commerce and the Economics of Immediate Gratification.” In Proceedings of the 5th ACM Conference on Electronic Commerce  – EC ’04, 21. New York, NY, USA: ACM Press, 2004. https://doi.org/10.1145/988772.988777.

Adferdsøkonom som argumenterte for at forbrukere ikke er i stand til å være rasjonelle aktører i forbindelse med personvern på nett: “we show why individuals who may genuinely want to protect their privacy might not do so because of psychological distortions well documented in the behavioral literature; we show that these distortions may affect not only ‘naive’ individuals but also ‘sophisticated’ ones; and we prove that this may occur also when individuals perceive the risks from not protecting their privacy as significant.”

Paul Bradshaw (2017) Chilling Effect, Digital Journalism, 5:3, 334-352, DOI: 10.1080/21670811.2016.1251329

Journalister i regionsaviser (i Storbritannia) ser ikke ut til å ha god informasjonssikkerhet for kildevern, til tross for stadige avsløringer om elektronisk overvåkning av staten og politiet.

Brown, B. Studying the internet experience. HP Laboratories Technical Report (HPL-2001-49) http://www.hpl.hp.com/techreports/2001/HPL-2001-49.pdf (2001)

Første gang begrepet “privacy paradox” ble brukt. Ellers er dette en ikke veldig spennende rapport fra Hewlett Packard om hvordan folk brukte nettet i 2001.

For online shopping we explored its popularity and in particular the concerns of users with regard to privacy and security. This uncovered something of a “privacy paradox” between users complaints regarding privacy and their use of supermarket loyalty cards.

Penney, Jonathon W. “Chilling Effects: Online Surveillance and Wikipedia Use.” Berkeley Technology Law Journal 31, no. 1 (2016): 117–74. (https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2769645)

Empirisk forskning som spesifikt utforsker nedkjølingseffekten av statlig overvåkning

Penney (2017) tar utgangspunkt i Wikipedias søksmål mot NSA i 2015 (se deres artikkel i NYTimes 10.03.2015, hvor Jimmy Wales og Lila Tretikov argumenterer for at overvåkning av aktivitet på nettet fører til en nedkjølingseffekt som hemmer ytringsfrihet og fri flyt av kunnskap: “Pervasive surveillance has a chilling effect. It stifles freedom of expression and the free exchange of knowledge that Wikimedia was designed to enable.” Søksmålet ble avvist, delvis fordi det er vanskelig å bevise en nedkjølingseffekt. 

Sammendrag av denne studien fra Büchi et.al. 2020 side 4 (avsnitt 3.2) (teksten som følger er nesten direkte oversatt fra Büchi, så NB pass på riktig sitering dersom dette brukes):

Denne studien av aktivitet på Wikipedia etter NSA/PRISM overvåkningsavsløringer i juni 2013 er den første empiriske studien av nedkjølingseffekten på nettet. Penney skiller mellom fire typer nedkjølingseffekter på nett, med forskjellig årsaksforklaring. Nedkjølingen skyldes enten

  1.  statutter eller reguleringer som forbyr en viss aktivitet på nett
  2. Statlig eller ikke statlig overvåkning
  3. Vag lovgivning med trusler om konsekvenser for individer
  4. “sekundære nedkjølingseffekter” hvor andre enn brukeren selv (f.eks. brukerens venner i sosiale medier) legger bånd på sin adferd

Funnene til Penney er i motsetning til forskning om “personvernsparadokset” (privacy paradox), altså det at folk klager over at de må gi fra seg for mye personopplysninger men at de likevel gir fra seg opplysningene frivillig. Penney utfordrer denne teorien: ja, vi gir fra oss persondata til apper, men vi legger også bånd på vår oppførsel fordi vi vet at appene får adgang til dataene.

Bernal, Paul. “Data Gathering, Surveillance and Human Rights: Recasting the Debate.” Journal of Cyber Policy 1, no. 2 (July 2, 2016): 243–64. https://doi.org/10.1080/23738871.2016.1228990.

Innsamling av persondata truer ikke bare personvernet, men også andre menneskerettigheter, som samlet svekker samfunnets sikkerhet.

I denne artikkelen i Journal of Cyber Policy argumenterer den britiske jusprofessoren Paul Bernal for at det er viktig å se hvordan datainnsamling og overvåkning på internett ikke bare truer en individuell rett til personvern men også et kollektivt behov for sikkerhet som inkluderer ytringsfrihet, forsamlingsfrihet, organisasjonsfrihet og forbud mot diskriminering. Det er også feilslått å skille kommersiell og statlig innsamling av persondata, argumenterer forfatteren. Han drøfter videre spørsmålet om når overvåkningen skjer: når data samles, når data analyseres algoritmisk eller når data sees eller analyseres av mennesker?

Hovedpoenget er altså at idéen om at personvern og sikkerhet må balanseres opp mot hverandre er feilslått, fordi de ikke står i motsetning til hverandre men påvirker hverandre sterkt. Økt personvern kan føre til økt sikkerhet. 

Bernal går gjennom en rekke forskjellige typer overvåkning, og noen relevante rettsaker. Han poengterer at profilering av individer er dypt problematisk, bl.a. I forhold til mennekserettigheter (tanke-, samvittighets- og religionsfrihet). Ytringsfrihet trues også. Han nevner en rekke saker hvor politiet søkte innsyn i konfidensiell kommunikasjon mellom journalister og kilder. Han siterer også en PEN-rapport (2013) som viser at mange har begrenset sine ytringer etter Snowden-saken.

Dette sitatet fra konklusjonen oppsummerer poengene i artikkelen bra:

Statements such as Theresa May’s that ‘the UK does not engage in mass surveillance’ though semantically arguable, are in effect deeply unhelpful. A more accurate statement would be that the UK engages in bulk data gathering that interferes not only with privacy but with freedom of expression, association and assembly, the right to a free trial and the prohibition of discrimination, and which puts people at a wide variety of unacknowledged and unquantified risks.

Bernal har også utgitt tre bøker som ser relevante ut: Internet Privacy Rights: Rights to Protect Autonomy (CUP, 2014), The Internet, Warts and All: Free Speech, Privacy and Truth (CUP, 2018) and What Do We Know And What Should We Do About Internet Privacy (Sage, 2020). 

Ashraf, Cameran. “Artificial Intelligence and the Rights to Assembly and Association.” Journal of Cyber Policy 5, no. 2 (May 3, 2020): 163–79. https://doi.org/10.1080/23738871.2020.1778760.

Lignende poeng som Bernal, men mindre direkte på personvern. Mens mye annen forskning har dreid seg om hvordan AI vil påvirke personvern og ytringsfrihet, fokuserer denne artikkelen på hvordan AI vil påvirke forsamlingsfriheten og organisasjonsfrihet, som begge er viktige menneskerettigheter. Denne artikkelen ser på hvordan AI påvirker hvilket innhold vi ser og hvilket innhold som eksisterer (fordi noe automatisk slettes eller modereres vekk). Artikkelen avsluttes med en rekke policy-anbefalinger.

Dexe, Jacob, and Ulrik Franke. “Nordic Lights? National AI Policies for Doing Well by Doing Good.” Journal of Cyber Policy, December 9, 2020, 1–18. https://doi.org/10.1080/23738871.2020.1856160.

Relevant fordi den tilbyr en sammenligning av offisielle strategidokumenter om kunstig intelligens i de nordiske landene (Norge, Danmark, Sverige og Finland) – men personvern er ikke et hovedpoeng. Artikkelen tar utgangspunkt i “AI4People”-taksonomien, som foreslår fem etiske prinsipper for KI: godhet (beneficience), ikke-ondskap (non-maleficience), autonomi, rettferdighet og forståelighet (explicability). 

Artikkelen har som mål å finne ut hvordan de nasjonale strategiene håndterer etikk: hvordan kan vi sikre at AI brukes for det gode, og ikke det onde? Nordiske og europeiske land ser etisk AI ikke bare som et moralsk imperativ men også som et konkurransefortrinn – se sitater fra relevante strategier i artikkelen.

Personvern kommer inn i dette i prinsippet om at AI ikke skal skal føre til misbruk (det skal være non-maleficient). Alle landene unntatt Danmark nevner personvern eksplisitt i sine AI-strategier. Danske, finske og norske strategier nevner også eierskap av data (autonomi) som viktig.  

Dessverre konkluderer artikkelen med at det ville vært fint om det stemmer at etisk bruk av AI er et konkurransefortrinn, men de nordiske strategidokumenter klarer ikke å komme med sterke argumenter for dette, og vil neppe overbevise noen som ikke allerede er overbevist om dette.

Han, Catherine, Irwin Reyes, Álvaro Feal, Joel Reardon, Primal Wijesekera, Narseo Vallina-Rodriguez, Amit Elazari, Kenneth A. Bamberger, and Serge Egelman. “The Price Is (Not) Right: Comparing Privacy in Free and Paid Apps.” Proceedings on Privacy Enhancing Technologies 2020, no. 3 (July 1, 2020): 222–42. https://doi.org/10.2478/popets-2020-0050.

En undersøkelse viser at forbrukere forventer bedre personvern i apper de kjøper enn i gratisapper, men en analyse av 5877 par gratisapper med sine betalte premiumversjoner viste at det i svært mange tilfeller ikke stemmer. 

Micheli, M., Lutz, C., & Büchi, M. (2018). Digital footprints: An emerging dimension of digital inequality. Journal of Information, Communication & Ethics in Society, 

16(3), 242-251. doi:http://dx.doi.org.pva.uib.no/10.1108/JICES-02-2018-0014

Våre digitale spor skaper en ny arena for diskriminering og digital ulikhet.

Patella-Rey, Pj. “Beyond Privacy: Bodily Integrity as an Alternative Framework for Understanding Non-Consensual Pornography.” Information, Communication & Society 21, no. 5 (May 4, 2018): 786–91. https://doi.org/10.1080/1369118X.2018.1428653.

Hevnporno handler ikke bare om personvern, det oppleves som et brudd på kroppslig integritet, og oppleves derfor som ekstremt krenkende. 

Penney, Jonathon, Online Abuse, Chilling Effects, and Human Rights (June 5, 2020). in Dubois, E. and Martin-Bariteau, F. (eds.), Citizenship in a Connected Canada: A Research and Policy Agenda, Ottawa, ON: University of Ottawa Press, 2020, Available at SSRN: https://ssrn.com/abstract=3620520

Det påstås ofte at lover mot cyberharassment vil ha en “chilling effect” på ytringsfriheten, men Penney argumenterer tvert om for at slike lover vil gjøre at minoriteter og særlig kvinner vil kunne snakke friere. 

Online harassment, bullying, hate, “doxxing,” and revenge porn all have a silencing effect on victims (Franks, 2018, p. 307; Citron, 2014, pp. 196-197). Such abuse has a “totalizing and devastating impact” upon victims (Citron, 2014, p. 29). In fact, silencing victims is often the primary motivation for such abuse (Citron, 2014, p. 196). Moreover, these chilling effects have a disproportionate impact on the speech and engagement of certain people, such as minority populations, already marginalized due to systematic and overt barriers (Franks, 2018, p. 307).

Qin, Bei, David Strömberg, and Yanhui Wu. 2017. “Why Does China Allow Freer Social Media? Protests versus Surveillance and Propaganda.” Journal of Economic Perspectives,31 (1): 117-40.DOI: 10.1257/jep.31.1.117

En analyse av 13.2 milliarder poster på Sina Weibo fra perioden 2009-2013 viste at det var MANGE sensitive poster, f.eks. om protester og anklager om korrupsjon – og postene kunne brukes til å forutsi protester/korrupsjonsskandaler før de faktisk skjedde. Altså vil overvåkning av sosiale medier være nyttig for en stat. Det er altså trolig ikke i en autoritær stats interesse å sensurere sosiale medier. Forskerne hadde gått ut fra at det ville være lite sensitivt materiale, fordi det er veldokumentert at kinesiske internettbrukere er blitt straffet etter å poste om protester m.m. (se side 123). Men i dette datasettet fant de INGEN nedkjølingseffekt, altså var det ingenting tydet på at brukere som postet slike poster ble idenfisert og straffet – de kunne se at brukerne fortsatte å poste også etter å ha publisert sensitive poster.

Shruti Sannon, Natalya N. Bazarova, and Dan Cosley. 2018. Privacy Lies: Understanding How, When, and Why People Lie to Protect Their Privacy in Multiple Online Contexts. In Proceedings of the 2018 CHI Conference on Human Factors in Computing Systems (CHI ’18). Association for Computing Machinery, New York, NY, USA, Paper 52, 1–13. DOI:https://doi.org/10.1145/3173574.3173626

En respons til opplevelsen av å måtte gi fra seg persondata mot sin vilje er personvernsløgner, som Sannon et.al. (2018) definerer som “the deliberate provision of false personal information to protect som facet of an individual’s privacy”. Halvparten av amerikanske tenåringer har oppgitt falsk informasjon på profiler i sosial medier, og 40% av internettbrukere oppgir å lyge til kommersielle nettsteder. 

Speicher, Till, Muhammad Ali, Giridhari Venkatadri, Filipe Ribeiro, George Arvanitakis, et al.. Potential for Discrimination in Online Targeted Advertising. FAT 2018 – Conference on Fairness, Accountability, and Transparency, Feb 2018, New-York, United States. pp.1-15. ?hal-01955343?

En kvantitativ analyse av hvordan Facebook lar reklamekjøpere diskriminere indirekte etter rase ved å velge andre karakteristikker. 

Stoycheff, Elizabeth, G. Scott Burgess, and Maria Clara Martucci. “Online Censorship and Digital Surveillance: The Relationship between Suppression Technologies and Democratization across Countries.” Information, Communication & Society 23, no. 4 (March 20, 2020): 474–90. https://doi.org/10.1080/1369118X.2018.1518472.

Kvantitativ undersøkelse av forholdet mellom statlig overvåkning av internett, sensur av internett og demokrati, i 63 land.Funn:  Sensur skjer både i demokratiske og ikke-demokratiske land, men mer overvåkning henger tett sammen med mindre demokrati. Protester skjer også i land med høy grad av overvåkning, men i disse landene er det mindre sannsynlig at nettet brukes for å fasilitere det. Altså skader overvåkning demokratiet mer enn sensur. Artikkelen har med en rekke eksempler på undertrykking av borgernes ytring/handling gjennom overvåkning (i delkapittelet Implications).

Stoycheff, Elizabeth. 2016. “Under Surveillance: Examining Facebook’s Spiral of Silence Effects in the Wake of NSA Internet Monitoring.” Journalism and Mass Communication Quarterly 93 (2): 296–311.

Stoycheff, Elizabeth, Juan Liu, Kai Xu, and Kunto Wibowo. “Privacy and the Panopticon: Online Mass Surveillance’s Deterrence and Chilling Effects.” New Media & Society 21, no. 3 (March 2019): 602–19. https://doi.org/10.1177/1461444818801317.

To studier:

  1. De viste halvparten av informantene en nyhetsartikkel om personvernsbrudd og overvåkning, og stilte så masse spørsmål som skulle avlede dem fra å skjønne hva forskerne egentlig var interessert, for så å spørre om planlagt online aktivitet. Det var signifikant FÆRRE som ville delta i politiske aktiviter på nettet den neste uken i gruppen som hadde sett nyhetssaken om statlig overvåkning.
  2. Med et utvalg amerikanske muslimer stilte de en rekke spørsmål, så viste de halvparten en “terms of service” forklaring om at staten kunne overvåke svarene deres, og stilte mer spørsmål – det var en tydelig effekt av at folk var mer “cautious”. Lignende effekt i gruppen med muslimer og den andre gruppen, hvor ingen sa de var muslimer.

Sitat fra Stoycheff et.al. 2019:

Panoptic-like surveillance has been widely criticized for violating citizens’ universal rights to privacy (e.g. Bernal, 2016Brown, 2015), and posing deleterious consequences for US democracy by deterring, or chilling, online information seeking (Penney, 20162017) disclosures (Dinev et al., 2008), political discussions (Stoycheff, 2016a), tolerance (Stoycheff et al., 2017), and may even pose ramifications for offline behavior (Marder et al., 2016).

Waldman, A. (2019). Law, Privacy, and Online Dating: “Revenge Porn” in Gay Online Communities. Law & Social Inquiry, 44(4), 987-1018. doi:10.1017/lsi.2018.29

Brukere av datingappen Grindr har langt høyere risiko for at deres nakenbilder blir delt uten samtykke. Datingapper for homofile krever høy grad av deling av personlig informasjon.

Wessel-Aas, Jon. “Pressefrihetens Kår i 2014: Ett Skritt Frem – Og to Tilbake?” Status for Ytringsfrihet i Norge – Fritt Ords Monitorprosjekt. Fritt ord, 2014. http://ytringsfrihet.no/publikasjon/rapport-pressefrihetens-kar-i-2014-ett-skritt-fram-og-to-tilbake-2014.

Det kan “trygt slås fast at utviklingen i retning av økte muligheter for statlig kontroll med og overvåkning av den generelle befolknin- gens fortrolige kommunikasjon, har vært dramatisk. (..) Dette utfordrer åpenbart den generelle kommunikasjonsfriheten, gjennom den potensielt nedkjølende effekt dette kan ha på viljen til å benytte alminnelige kommunikasjonskanaler til fortrolig kommunikasjon. For hva slags oppførsel er det egentlig som kan gi myndighetene grunn til å undersøke om du forbereder å utvikle et forsett som du ikke en gang selv er bevisst ennå? (s 56) 

Wessel-Aas om kildevernSlik disse forholdene er regulert i Norge – og internasjonalt – i dag, er reelt kildevern, når kommunikasjonen foregår elektronisk, langt på vei illusorisk. 

Rapporter

PEN America. 2013. Chilling Effects: NSA Surveillance Drives U.S. Writers to Self-Censor. New York: PEN American Center.

Interessante caser omtalt i medier

Caplan, Robyn. “Pornhub Is Just the Latest Example of the Move Toward a Verified Internet.” Slate, December 18, 2020. https://slate.com/technology/2020/12/pornhub-verified-users-twitter.html.

Morrison, Sara, and Rebecca Heilweil. “How Teachers Are Sacrificing Student Privacy to Stop Cheating,” December 18, 2020. https://www.vox.com/recode/22175021/school-cheating-student-privacy-remote-learning.

18. January 2021 by Jill
Categories: Uncategorized | Leave a comment

VR Narratives: A Workshop in VR, about VR

Now that I have a VR headset at home I’m both enjoying VR experiences and I’m exploring social interaction in VR spaces. I’ll write more about the pros and cons of VR meetings vs Zoom later, but right now I want to share this recording of a conference panel we organised in VR about VR narratives, for ELO2020 last week.

Continue Reading →

26. July 2020 by Jill
Categories: Uncategorized | Leave a comment

Can an algorithm feel emotion?

I gave a talk at the Moral Machines symposium in Helsinki last year, and just heard that a revised version of the talk will be published in an anthology tentatively titled The Ethos of Digital Environments: Technology, Literary Theory and Philosophy. The anthology is edited by Hanna-Riikka Roine and Susanna Lindberg and will be published by Routledge, presumably in 2021 or 2022. Here is an excerpt from my draft of the chapter, where I explore the idea that there might not be that much difference between a neural network that can predict when a human would cry and that involuntary tightness we humans sometimes feel in our chests when we watch a sad movie.

Emotions are often conceived as the determining difference between humans and machines, and indeed, between groups of humans and whatever or whoever they wish to define as non-human. “They don’t have the same feelings we do,” the narrator imagines the wives thinking of the handmaids in Margaret Atwood’s novel (1986, 215); “they don’t seem to feel anything, no pleasure, no pain”, the Terrans remark of the indigenous people they rape and beat in Ursula le Guin’s The Word for World is Forest (1972, 18).

Continue Reading →

25. June 2020 by Jill
Categories: Uncategorized | Leave a comment

Situated Data Analysis

My latest paper, “Situated data analysis: a new method for analysing encoded power relationships in social media“, started out as an analysis of the data visualisations in Strava, but ended up as something more ambitious: a method that I think can be used to analyse all kinds of digital platform using personal data in different contexts. Here is a video teaser explaining the key points of situated data analysis:

This paper has been a long time in the works, and started off as part of the INDVIL project on data visualisations, where I was tasked with thinking about the epistemology of data visualisations. Working through revision after revision of my analyses of data visualisations in Strava I found that what really interested me about Strava was the many different ways that the personal data it collects from runners and cyclists are presented—or, more precisely, how the data are situated. Once I’d analysed the different ways the Strava data was situated, I realised that the same method could be applied to any social media platform, app or digital infrastructure that uses personal data. So I decided to change the focus of the paper so it was about the method, not just about Strava.

Donna Haraway coined the term situated knowledges in 1988 to demonstrate that knowledge can never be objective, that it is impossible to see the world (or anything) from a neutral, external standpoint. Haraway calls this fiction of objectivity “the god trick,” a fantasy that omniscience is possible.

With Facebook and Google Earth and smart homes and smartphones vastly more data is collected about us and our behaviour than when Haraway wrote about situated knowledge. The god trick as it occurs when big data are involved has been given many names by researchers of digital media: Anthony McCosker and Rowan Wilken write about the fantasy of “total knowledge” in data visualisations, José van Dijck warns against an uncritical, almost religious “dataism“: a belief that human behaviour can be quantified, and Lisa Gitelman points out that “Raw Data” is an Oxymoron in her anthology on the digital humanities. There is also an extensive body of work on algorithmic bias analysing how machine learning using immense datasets is not objective but reinforces biases in the data sets and inherent in the code itself (there are heaps of references to this in the paper itself if you’re curious!).

Situated data analysis provides us with a method for analysing how data is always situated, always partial and biased. In my paper I use Strava as an example, but let’s look at a different kind of data: how about selfies?

Continue Reading →

22. June 2020 by Jill
Categories: Uncategorized | Leave a comment

Ancient visual technologies

Look, this is the oldest known mirror, reflecting the face of a woman holding it. It is 8000 years old and made from polished obsidian.

I’m working on a book on machine vision, and I want to edit it all enough before summer that I can send it off for feedback. It is so hard to keep just editing though when I keep discovering these new fascinating facts! I had no idea that mirrors have been around for 8000 years. Or that crystal rock was used 4500 years ago to create lenses for eyes for Egyptian statues that are remarkably anatomically correct, at least given possible knowledge of anatomy at the time.

Continue Reading →

16. June 2020 by Jill
Categories: Uncategorized | Leave a comment

Being seen by cinema itself

For my book on machine vision I’m writing a little about Vertov’s wonderful 1924 manifesto written half in the voice of the camera – “I am kino-eye … I, a machine, show you the world as only I can see it.”

I started wondering how involved the other Kinoks were in writing. It’s hard to tell, but Elisaveta Svilova, shown here, was definitely very involved in Vertov’s movies, as the editor who actually made all those fast transitions possible and as co-director later on. Here is an amazing meta-moment near the end of a documentary Kino-Pravda reel where she is shown selecting negatives for the very newsreel she is editing.

The camera shows her, then the negatives, back and forwards, showing the negatives in negative and finishing with an negative image of her face. Lilya Kaganovsky describes this as “a fusion of object and subject” and writes that Svilova looks directly at us. And yet it seems to me that in that last image it is the film itself somehow that is looking at Svilova?

Continue Reading →

29. May 2020 by Jill
Categories: Uncategorized | Leave a comment

How to build a nurturing, collaborative research environment

I have a fabulous research environment right now, and while obviously some of that is due to having had funding to employ brilliant researchers (thank you ERC) we’ve been doing a lot of other things that are working out really well, some formal (weekly research group meetings and a Digital Humanities Network with lunch meetings a few times a semester) and some informal. I’ve realized that developing a research environment that is good for us and makes researchers happy is one of my top priorities, and so I want to think more systematically about how to do it. I’m sure some researchers are quite happy alone in their dens, and that’s certainly been the model in the humanities, but a lot of us like collaboration and actually talking about our research with each other. So I asked people on Twitter what works for them, and here is the list I have compiled, from my own experience and from Twitter. We are doing some of this here at Digital Culture, but can certainly keep working at trying more of these tips!

Continue Reading →

03. December 2019 by Jill
Categories: Uncategorized | 1 comment

Thinking about larps for research dissemination about technology and society

I spent some of last week at a wonderful larp (live action roleplaying) camp for kids run by Tidsreiser, and had a wonderful time. I have secretly wanted to try larping since I was a teenager, but there weren’t any local ones, then I didn’t dare try, and then I sort of forgot and just settled into being a boring grownup. Luckily, one of the advantages of having kids is you get to try out new stuff. So after a year of sitting around watching the kids battling and sneaking around the forest with their latex swords, and dropping them off at the Nordic Wizarding Academy (Trolldomsakademiet), I’ve started joining in a bit, and I absolutely love it.

Kids with swords at Eventyrspill last winter.

After chatting with the fascinating game masters and larpwriters at last week’s camp, and trying out some more different kinds of larp there, I started thinking about what a great tool larping could be for teaching and research dissemination – perhaps especially in subjects like digital culture, or for our research on the cultural implications of machine vision, because one of our main goals is to think through ethical dilemmas – what kind of technologies do we want? What kinds of consequences could these technologies have? What might they lead to? A well-designed larp could give participants a rich opportunity to act out situations that require them to make choices about or experience various consequences of technology use. This post gathers some of my initial ideas about how to do that, and some links to other larps about technology people have told me about.

Continue Reading →

02. July 2019 by Jill
Categories: Uncategorized | Leave a comment

Lesson plan: DIKULT103 29.01.2019 – Video Game Aesthetics and Orientalism in Games

ReadingsUnderstanding Video Games Chapter 5, Woke Gaming Chapter 6 (Kristin Bezio: The Perpetual Crusade: Rise of the Tomb Raider, Religious Extremism, and the Problem of Empire. (p 119-138))

Learning goals: After doing the reading, taking the quiz and attending the class, students can

  • Explain how video game aesthetics incorporate game mechanics as well as visuals, sounds, etc. 
  • Use some of the terms in Understanding Video Games chapter 5 to describe games
  • Explain Said’s concept of orientalism and discuss it in relation to video games
Continue Reading →

18. February 2019 by Jill
Categories: Uncategorized | Leave a comment

Hostile machine vision

One of our goals in MACHINE VISION is to analyse how machine vision is represented in art, stories, games and popular culture. A really common trope is showing machine vision as hostile and as dangerous to humans. Machine vision is used as an effective visual metaphor for something alien that threatens us.

My eight-year-old and I watched Ralph Breaks the Internet last weekend. I found it surprisingly satisfying – I had been expecting something inane like that emoji movie, but the story was quite engaging, with an excellent exploration of the bad effects of neediness in friendships. But my research brain switched on in the computer virus scene , towards the end of the movie, because we see “through the eyes of the virus”. Here is a shot of the virus, depicted as a dark swooshing creature with a single red eye:


And here you see the camera switch to what the virus sees. It is an “insecurity virus”, that scans for “insecurities” (such as Vanellope’s anxious glitching and Ralph’s fear of losing Vanellope) and replicates them.

Continue Reading →

11. February 2019 by Jill
Categories: Machine Vision | 2 comments

← Older posts