Home » Deepfakes: mellom teknologisk innovasjon og en stor sikkerhetsrisiko

Deepfakes: mellom teknologisk innovasjon og en stor sikkerhetsrisiko

by Roald Amundsen

Teknologien som fører til deepfakes (sammentrekning mellom «Deep Learning» og «Fake») ble opprettet i 2014 av forskeren Ian Goodfellow. Kalt GAN (Generative Adverarial Networks), er den designet på grunnlag av to algoritmer, en som prøver å reprodusere og falske videoer og en annen som søker å oppdage forfalskninger. Takket være dette geniale systemet jobber de to algoritmene sammen for å alltid forbedre seg og dermed skape en video som er så nær virkeligheten som mulig. De er basert på databaser som bilde- eller videobanker funnet på Internett. Derfor, jo mer en person publiseres og jo lettere det er å finne innhold om vedkommende, jo mer realistisk vil deepfake være. Derfor utgjør denne teknologien mange problemer, spesielt når det gjelder bilder eller manipulasjon.

De første virale videoene ble lagt ut i 2017 på fellesskapssiden. Reddit. Disse formerer seg eksponentielt til de når, ifølge kilder, flere titusenvis av falske videoer på nettet.

Bruken av denne teknologien er imidlertid ikke bare til skadelige formål. Faktisk ville opprettelsen gjennom en AI av «realistiske» videoer være veldig nyttig på kino. For eksempel ville det tillate avdøde karakterer å bli gjenopplivet. CGI-oppretting av skuespillervideoer eksisterer allerede og har vist seg å være svært nyttig:

på settet til Rask og rasende 7 etter Paul Walkers død (en av hovedpersonene), var slutten av filmen mulig takket være produksjonen av syntetiske bilder med skuespilleren i hovedrollen. Deepfake-teknologi lar oss gå lenger ved å tilby både realistisk bilde og lyd.

Denne teknologien, selv om den av mange oppfattes som revolusjonerende, reiser en rekke spørsmål og bekymringer i både offentlig og privat sektor. Tilfeller av overgrep blir faktisk flere og kan i noen tilfeller være svært alvorlige. I tillegg blir kontrollen veldig kompleks på grunn av flere faktorer:

  • Først, enkel tilgang til mange verktøy/applikasjoner å generere deepfakes (Face App, ZAO, Reface, SpeakPic, DeepFaceLab, FakeApp, etc.) Denne lette tilgangen gjør denne typen praksis tilgjengelig for alle, inkludert personer med dårlige intensjoner.

  • Men også vanskeligheten med å spore så vel som implementering av kontrollverktøy, faktisk GAN-teknologien (basert på prinsippet om maskinlæring) Å være autonom gjennom konstant læring med sine to motkrefter, er sporing enda mer komplisert. Kontrollverktøy har et sent tog. For malware, for eksempel, reagerer kontrollteknologien på nye deepfakes, så skaperne har alltid en fordel.

Risikoen forbundet med denne nye teknologien er flere, faktisk genererer dens anvendelse nye problemer påpekt av mange selskaper og stater.

det er en risiko kjøring og feilinformasjon. Videoer av visse innflytelsesrike personligheter (offentlige eller private) kapret gjennom deepfakes kan utgjøre en alvorlig risiko. Dette er tilfellet med Gabon, i 2018 etter en sykdom presidenten Ali Bongo han hadde ikke vist seg offentlig på flere måneder. I desember samme år dukket det opp en video som viser Ali Bongo som forsikrer befolkningen sin om helsetilstanden hans. Hans politiske motstandere erklærte umiddelbart at denne videoen var forfalsket. Hysteriet skapt av denne videoen førte til å fremskynde et kupp med sikte på å styrte presidenten. (Videoen var ikke en deepfake.)

Risikoen for tyveri av data eller pengemidler er også svært høy, spesielt gjennom dypstemmer (basert på dype faker som gjør at en stemme kan reproduseres takket være kunstig intelligens). En leder av en stor bank i De forente arabiske emirater ble offer for denne svindelen, faktisk gjenga forbryterne stemmen til en av hans viktigste kunder, noe som førte til at han godkjente en overføring på opptil 35 millioner euro, noe som har forårsaket store skade på ditt image og din virksomhet.

Slik sett er identitetstyveri og ydmykelse av motstandere blant de største risikoene. Dette er for eksempel det som skjedde med Rana Ayuub, en indisk journalist som forsvarer kvinners rettigheter. I en svertekampanje mot ham, ble funnet i flere pornografiske filmer laget med ansiktet hans. Denne praksisen er stadig mer utbredt og er hovedsakelig rettet mot kvinner.

Enkelheten av å lage dype forfalskninger, så vel som deres eksponentielle vekst, alarmerer offentlig og privat sektor som nå prøver å komme unna med det. beskytte. Dette er spesielt tilfelle for Google, som i 2019 lanserte en database med mer enn 3000 refererte deepfakes. Selskapet har lansert, parallelt med støtte fra andre selskaper i den digitale sektoren, konkurranser rettet mot å oppdage disse forfalskningene. Noen selskaper går lenger og setter opp AI-er som muliggjør «avidentifikasjon». Dette er tilfelle for Facebook, som med sitt FAIR-forskningslaboratorium jobber med dette filteret som kan brukes på videoer publisert på plattformen.

Stater prøver på sin side å lovfeste for å gi et regulatorisk rammeverk for å begrense spredningen av deepfakes. Den 22. oktober 2018 ble en antimanipulasjonslovgivning («falske nyheter») går inn i det franske juridiske arsenalet. Begrens spredningen av falsk informasjon på Internett. Dette har imidlertid flere begrensninger, som folkets ytringsfrihet, nøytraliteten til hovedplattformene (Facebook, Twitter, etc.) samt retten til anonymitet for brukerne. Alle disse vanskelighetene gjør implementeringen av kontrollspaker komplisert.

Forsinkelsen i utviklingen av disse kontrollverktøyene er bekymringsfull. Faktisk er den største frykten å se videooppretting uten noen rotkilder. I dag er visse eksperter i stand til å gå tilbake til kilden etter å ha tillatt opprettelsen av disse falske videoer. Men i nær fremtid er eksperter enige om at etter hvert som teknologien stadig forbedres, er risikoen for at videoer dukker opp uten en rotkilde svært høy og vil gjøre enhver kontroll svært kompleks.

» Vi er ikke langt unna å kunne generere helt kunstig innhold fra en tekstlig beskrivelse », avslutter Laurent Amsaleg, forskningsdirektør og teamleder i LinkMedia.

pierre parant for han AEGE Risikoklubb

For å gå videre:

You may also like