I dag har Universitetet i Bergen invitert alle avgangselever i videregående skole til en åpen dag på universitetet. Fagmiljøene har laget smakebit-forelesninger og aktiviteter, og det har vi selvfølgelig gjort her på Digital kultur også. Daniel Jung skal snakke om memes, Kathi snakker om digitale tekster, og jeg snakker litt om hvordan algoritmene ser oss, etterfulgt av en workshop hvor vi lager og analyserer selfies på en delt Instagramkonto. Her kan du se bilder og lenker fra miniforedraget mitt og (nederst på denne siden) opplegget for workshoppen.

Miniforedraget mitt handler om hvordan maskinene og algoritmene ser oss. Jeg vil vise noen bilder fra James Bridle’s bloggpost i 2011 hvor han definerte “the new aesthetic” med en billedsamling. Noen av bildene hans viser estetisk utforming som er designet for å sees av kameraer og algoritmer, ikke av mennesker, som kamoflasjen på oversiden av dette jagerflyet:

new-aestheticc-jet-camophlage

Eller CVdazzle-sminken som er ment å lure ansiktsgjenkjenningsprogrammer:

cvdazzle

Ansiktsgjenkjenning blir mer og mer vanlig, og det er også stadig flere apps og mer utstyr som automatiserer bilder for oss. I fjor brukte jeg Narrative Clip, det første forbrukerkameraet beregnet for å ta kontinuerlige bilder, hele tiden. Bildene den tok var ikke akkurat et uttrykk for min opplevelse av verden, selv om jeg hadde kameraet på min kropp. Som James Bridle skriver, forteller maskinene sin egen historie, ikke nødvendigvis vår.

Ofte tilpasser vi oss maskinenes syn på verden. I 2006 ble time-lapse selfies store. Ahree Lees var den første:

Noah Kalinas Everyday, som ble postet til YouTube tre uker seinere, ble enda mer populær. Og den ble raskt etterlignet: dette startet en hel sjanger.  

Sjangrer har regler. En sonnette skal rime på en bestemt måte. Men i dette tilfellet er sjangeren i stor grad bestemt av mediet. For å sette sammen bildene mest mulig sømløst, må ansiktet holdes i ro. Vi smiler ikke. Skjønt seinere eksempler på sjangeren har vist at det er mulig å smile – litt. Eller i hvert fall være litt mer urolig:

Vi smiler heller ikke på passfoto lenger, fordi datamaskinen ikke klarer å gjenkjenne ansiktet vårt om vi smiler.

Ganske snart etter de første time-lapse selfies kom i 2006 kom det websider hvor du kunne lage dine egne. Nå fins det apps, selvsagt. Appen Everyday er laget av Noah Kalina, som laget en av de første time-lapse selfies. Her prøver jeg å få ansiktet mitt på plass slik appen vil for at bildene jeg tar hver dag skal kunne enkelt settes sammen til en video.

me-aligning-my-face-for-the-everyday-app

Et annet eksempel på hvordan vi må føye oss etter kameraene våre er Google Photosphere. Her lager du fotosfærer ved å bevege telefonen rundt deg. Appen sparer på det som ikke beveger seg, og gjør sitt beste for å redigere ut mennesker i bildene.

Google-Photosphere-tries-to-edit-me-out-of-the-picture

Selv da jeg gjorde mitt aller beste for å sørge for at føttene mine kom med på bildet, forble de usynlige for Google Photosphere sitt mekaniske øye.

Et viktig spørsmål er hvorvidt vi indirekte ledes til å fotografere oss på bestemte måter også når teknolgien ikke er fullt så fremtredende som i disse eksemplene. Det kan selvfølgelig være kulturelle i tillegg. Som en overgang til workshopdelen av programmet, vil jeg snakke litt om Beyonce-selfiesene Mark Marino (tidligere gjestelærer hos oss gjennom Fulbright-programmet) bruker som eksempler i sin undervisning, for så å gå videre til oppgavene.

Elevene deles inn i grupper på 3-4 personer, hvor vi må sørge for at det er noen med smarttelefon på alle gruppene. Vi sjekker at alle får koblet seg til UiBs gjestenett og at Instagram er installert på alle telefonene, og at alle får logget seg på felleskontoen jeg har satt opp for anledningen.

Hver gruppe får tildelt en liten lapp med rollene de skal spille i bildene sine:

  • dere er overklassemennesker som er opptatt av å vise status
  • dere har veldig lite penger og gjerne skulle hatt mer
  • dere tror på gjenbruk og mener overforbruk er forferdelig
  • dere er seriøse studenter som først og fremst er opptatt av kunnskap
  • dere er supersosiale studenter, feststudenter
  • dere er opptatt av sunnhet og helse
  • dere er opptatt av spiritualitet (religion? yoga? zen?)
  • dere er en gruppe professorer
  • dere er et band (velg sjanger selv)

Så får de oppgaven:

GRUPPEOPPGAVE:

  1. Bruk fem minutter på å diskutere hva slags Instagram-bilder personene deres ville ha postet. Tenk på motiver, farger, hvilke filter som ville vært brukt, hva slags tagger og tekster vedkommende ville brukt. Hva ville kontonavnet vært?
  2. Gå ut og ta bilder som om dere var denne karakteren! Prøv å ta bilder av forskjellige motiv:
  • individuell selfie
  • gruppeselfie
  • en ting som representerer dere selv
  • en del av kroppen deres (ikke hele ansiktet) (15 min)
  1. Post de beste bildene til Instagram på digitalkultur15-kontoen. Bruk filter om det passer! Husk å skriv en passende tekst til. (5 min)
  2. Vær klar til å diskutere HVORFOR dere har valgt å komponere og redigere bildene slik som dere har gjort. Hva viser bildene? Hvilken rolle spiller filter? Komposisjon? Motivvalg?

 

 

 

Leave A Comment

Recommended Posts

Triple book talk: Watch James Dobson, Jussi Parikka and me discuss our 2023 books

Thanks to everyone who came to the triple book talk of three recent books on machine vision by James Dobson, Jussi Parikka and me, and thanks for excellent questions. Several people have emailed to asked if we recorded it, and yes we did! Here you go! James and Jussi’s books […]

Image on a black background of a human hand holding a graphic showing the word AI with a blue circuit board pattern inside surrounded by blurred blue and yellow dots and a concentric circular blue design.
AI and algorithmic culture Machine Vision

Four visual registers for imaginaries of machine vision

I’m thrilled to announce another publication from our European Research Council (ERC)-funded research project on Machine Vision: Gabriele de Setaand Anya Shchetvina‘s paper analysing how Chinese AI companies visually present machine vision technologies. They find that the Chinese machine vision imaginary is global, blue and competitive.  De Seta, Gabriele, and Anya Shchetvina. “Imagining Machine […]

Do people flock to talks about ChatGPT because they are scared?

Whenever I give talks about ChatGPT and LLMs, whether to ninth graders, businesses or journalists, I meet people who are hungry for information, who really want to understand this new technology. I’ve interpreted this as interest and a need to understand – but yesterday, Eirik Solheim said that every time […]