Bruk av kunstig intelligens blir stadig mer vanlig i cyberangrep. Et område som skaper voksende bekymring, er bruk av såkalte «deepfakes». Deepfakes bruker AI (kunstig intelligens) for å etterligne ekte lyd- og videomateriale av virkelige personer med hensikt i å lure mottakere.
Begrepet «deepfake» kommer fra den underliggende teknologien «deep learning», som bruker maskinlæring og kunstig intelligens for å skape lyd eller video av en syntetisk person. Deep learning-algoritmer gjenkjenner mønstre fra en omfattende database, som deretter brukes til å manipulere bilder, videoer eller lyd for å skape et falsk realistisk utseende.
Hvordan brukes deepfakes, og hva er farene?
Evnen til å automatisk bytte ansikter for å skape manipulerte videoer med ekte og troverdig utseende, har flere interessante bruksområder. Eksempler på dette kan være til bruk i filmer og spill. Samtidig er bruk av AI og deepfake teknologier som bringer med seg noen åpenbare problemer.
Bruk av deepfake til å manipulere bilder av politikere og kjendiser var de første og mest kontroversielle erfaringene med denne teknologien. I 2018 spredte et politisk parti i Belgia en video av USAs daværende president, Donald Trump. I den falske videoen holder presidenten en tale, hvor han ber Belgia om å trekke seg fra Parisavtalen. Trump holdt derimot aldri denne talen, og videoen var et tidlig og godt eksempel på mulighetsrommet bruk av deepfake-teknologi kan gi. Dette er også en av de klart største farene med bruk av denne teknologien: å spre falskt innhold som ekte innhold.
I en bedriftssammenheng kan bruk av deepfakes være en faktor som øker sosial manipulering, ved å manipulere mennesker for å få uautorisert tilgang til systemer, infrastrukturer eller informasjon. Denne teknologien åpner eksempelvis for at angripere kan kombinere en phishing e-post med falske lydmeldinger. Ved å bruke flere angrepsvektorer, økes sjansene for å lure brukere.
Hvordan oppdage en deepfake?
Økt bevisstgjøring rundt bruk av deepfake-teknologi som svindel- og bedragerimetode bidrar til å gjøre flere oppmerksom på dens teknikker og bruk. Vi har derfor samlet noen triks og indikatorer som kan avsløre deepfakes. Mottar du en mistenkelig video, vær observant på disse faktorene:
- Øyne: Deepfakes har tidligere hatt problemer med å animere ansikter på en realistisk måte. Dette har resultert i videoer der øynene enten aldri blunker, blunker for mye eller blunker på en unaturlig måte. Etter at forskere ved Albany University publiserte en studie om å oppdage denne anomalien, har det imidlertid blitt lansert nye deepfakes som ikke lenger har dette problemet.
- Ansikt: Se etter hud- eller hårproblemer, eller ansikter som fremstår som mer utydelige enn omgivelsene. Er huden for glatt eller for rynkete? Virker ansiktsuttrykkene rare? Ser ansiktshår (skjegg, bart, øyebryn) ekte ut? Noen ganger er endringene små og nesten umerkelige.
- Belysning: Virker belysningen unaturlig? Er skyggene på rett sted? Deepfake-algoritmer opprettholder vanligvis den originale belysningen fra modellene for den falske videoen, som ikke vil stemme overens med belysningen i den faktiske videoen.
- Lyd: Lyden samsvarer sannsynligvis ikke med personen, særlig hvis videoen er forfalsket og den opprinnelige lyden ikke har blitt manipulert grundig.
Den viktigste regelen er likevel denne: Dersom innholdet virket merkelig, mistenkelig eller tvilsomt – undersøk om avsender faktisk har sendt det, og få dem til å bekrefte innholdet.
I hjemmevideoer kan feil ofte oppdages med det blotte øye, men AI-teknologier utvikles så raskt at det fremover vil bli vanskelig å skille deepfakes fra virkeligheten.
Les mer om teknikker og forebygging av sosial manipulasjon her.