Savršene lažne videozapise prepoznat će umjetna inteligencija
Savršene lažne videozapise prepoznat će umjetna inteligencija

Video: Savršene lažne videozapise prepoznat će umjetna inteligencija

Video: Savršene lažne videozapise prepoznat će umjetna inteligencija
Video: Шпаклевка стен под покраску. Все этапы. ПЕРЕДЕЛКА ХРУЩЕВКИ от А до Я #20 - YouTube 2024, Travanj
Anonim
Premijera opere o trovanju Litvinenka počinje u Engleskoj
Premijera opere o trovanju Litvinenka počinje u Engleskoj

Prije godinu dana, Stanfordova Manish Agrawala pomogla je u razvoju tehnologije sinkronizacije usana koja je omogućila video urednicima da gotovo neprimjetno promijene riječi govornika. Alat može lako umetnuti riječi koje osoba nikada nije izgovorila, čak ni usred rečenice, ili izbrisati riječi koje je izgovorila. Sve će golim okom pa čak i mnogim računalnim sustavima izgledati realno.

Ovaj alat je uvelike olakšao ispravljanje grešaka bez ponovnog snimanja cijelih scena, a također je prilagodio TV emisije ili filmove za različitu publiku na različitim mjestima. No, ta je tehnologija također stvorila uznemirujuće nove mogućnosti za teško pronaći lažne videozapise, s jasnom namjerom iskrivljavanja istine. Na primjer, nedavni republikanski video zapis koristio je grublju tehniku za intervju s Joeom Bidenom.

Ovog ljeta, Agrawala i kolege sa Stanforda i UC Berkeley predstavili su pristup tehnologiji sinkronizacije usana zasnovanoj na umjetnoj inteligenciji. Novi program točno otkriva više od 80 posto krivotvorina, prepoznajući i najmanje razlike između zvukova ljudi i oblika njihovih usta.

No Agrawala, ravnatelj Stanfordskog instituta za medijske inovacije i profesor računalstva u Forest Baskettu, koji je također povezan sa Stanfordskim institutom za umjetnu inteligenciju usmjerenu na čovjeka, upozorava da ne postoji dugoročno tehničko rješenje za duboke lažne.

Kako lažni djeluju

Postoje legitimni razlozi za manipulaciju videom. Na primjer, svatko tko snima izmišljenu TV emisiju, film ili reklamu može uštedjeti vrijeme i novac korištenjem digitalnih alata za ispravljanje grešaka ili prilagođavanje scenarija.

Problem nastaje kada se ti alati namjerno koriste za širenje lažnih informacija. I mnoge su tehnike prosječnom gledatelju nevidljive.

Mnogi duboki lažni videozapisi oslanjaju se na zamjenu lica, doslovno nanoseći lice jedne osobe na videozapis druge osobe. No, iako alati za promjenu lica mogu biti uvjerljivi, relativno su grubi i obično ostavljaju digitalne ili vizualne artefakte koje računalo može otkriti.

S druge strane, tehnologije sinkronizacije usana manje su vidljive i stoga ih je teže otkriti. Oni manipuliraju mnogo manjim dijelom slike, a zatim sintetiziraju pokrete usana koji se točno podudaraju s načinom na koji bi se usta zapravo kretala da je izgovorila određene riječi. Prema Agrawalu, s obzirom na dovoljno uzoraka slike i glasa osobe, lažni producent može natjerati osobu da "kaže" bilo što.

Otkrivanje krivotvorina

Zabrinut zbog neetičke uporabe takve tehnologije, Agrawala je radio s Ohad Freedom, doktorandom na Stanfordu, na razvoju alata za otkrivanje; Hani Farid, profesorica na Kalifornijskom sveučilištu, Berkeley School of Information; i Shruti Agarwal, doktorandica na Berkeleyu.

U početku su istraživači eksperimentirali s čisto ručnom tehnikom u kojoj su promatrači proučavali video zapise. Djelovao je dobro, ali u praksi je bio naporan i dugotrajan.

Znanstvenici su zatim testirali neuronsku mrežu temeljenu na umjetnoj inteligenciji koja bi bila mnogo brža za napraviti istu analizu nakon treninga na videu s bivšim predsjednikom Barackom Obamom. Neuronska mreža otkrila je više od 90 posto Obamine vlastite sinkronizacije usana, iako je točnost ostalih govornika pala na oko 81 posto.

Prava provjera istine

Istraživači kažu da je njihov pristup samo dio igre mačke i miša. Kako se tehnike dubokog krivotvorenja poboljšavaju, ostavit će još manje ključeva.

U konačnici, kaže Agrawala, pravi problem nije toliko borba protiv duboko lažnih video zapisa koliko borba protiv dezinformacija. Zapravo, napominje, velik dio dezinformacija proizlazi iz iskrivljavanja značenja onoga što su ljudi zapravo rekli.

"Da bismo smanjili dezinformacije, moramo poboljšati medijsku pismenost i razviti sustave odgovornosti", kaže on. "To može značiti zakone koji zabranjuju namjerno stvaranje dezinformacija i posljedice njihova kršenja, kao i mehanizme za uklanjanje nastale štete."

Preporučeni: