Istraživači koriste tehnike iz astronomije za stvaranje računalno generiranih “Deepfake” slike prepoznati – što na prvi pogled može izgledati identično pravim fotografijama.
Analizirajući slike lica koje se obično koriste za proučavanje dalekih galaksija, astronomi mogu izmjeriti kako nečije oči reflektiraju svjetlost, što može ukazivati na znakove manipulacije slikom.
"To nije lijek jer imamo lažno pozitivne i lažno negativne rezultate", kaže Kevin Pimbblet, direktor Centra za podatkovnu znanost, umjetnu inteligenciju i modeliranje na Sveučilištu Hull, UK. Predstavio je istraživanje na Nacionalnom astronomskom skupu Kraljevskog astronomskog društva 15. srpnja. "Ali ovo istraživanje nudi potencijalnu metodu, važan korak naprijed, za potencijalni dodatak testovima koji se mogu koristiti da se otkrije je li slika stvarna ili lažna."
Izražene fotografije
Napredak u umjetnoj inteligenciji (AI) sve teže razlikuje stvarne slike, videozapise i zvuk one koje stvaraju algoritmi, prepoznati. Deepfakeovi zamjenjuju značajke jedne osobe ili okoline drugima i mogu učiniti da se čini kao da su pojedinci rekli ili učinili stvari koje nisu. Vlasti upozoravaju da ova tehnologija militarizira i pridonosi širenju dezinformacija, primjerice za vrijeme izbora, može se koristiti.
Prave fotografije trebale bi imati "dosljednu fiziku", objašnjava Pimbblet, "pa bi refleksije koje vidite u lijevoj očnoj jabučici trebale biti vrlo slične, iako ne nužno identične, refleksijama u desnoj očnoj jabučici." Razlike su suptilne, pa su se istraživači okrenuli tehnikama razvijenim za analizu svjetlosti u astronomskim slikama.
Rad, koji još nije objavljen, predstavljao je osnovu za magistarski rad Adejumoke Owolabi. Owolabi, podatkovni znanstvenik sa Sveučilišta u Hullu, UK, došao je do stvarnih slika iz Flickr Faces HQ skup podataka i stvorio lažna lica pomoću generatora slika. Owolabi je zatim analizirao refleksije od izvora svjetlosti u očima na slikama koristeći dva astronomska mjerenja: CAS sustav i Ginijev indeks. Sustav CAS kvantificira koncentraciju, asimetriju i glatkoću distribucije svjetlosti objekta. Ova tehnika je omogućila astronomima, uključujući Pimbleta, da desetljećima karakteriziraju svjetlost izvangalaktičkih zvijezda. Ginijev indeks mjeri nejednakost raspodjele svjetlosti na slikama galaksija.

Uspoređujući odraze u nečijim očnim jabučicama, Owolabi je mogao točno predvidjeti je li slika lažna u oko 70% slučajeva. Naposljetku, istraživači su otkrili da je Ginijev indeks bolji od CAS sustava u predviđanju je li slika bila manipulirana.
Brant Robertson, astrofizičar sa kalifornijskog sveučilišta u Santa Cruzu, pozdravlja istraživanje. "Međutim, ako možete izračunati vrijednost koja kvantificira koliko realistična deepfake slika može izgledati, također možete istrenirati AI model da proizvodi još bolje deepfakeove optimizacijom te vrijednosti", upozorava on.
Zhiwu Huang, istraživač umjetne inteligencije na Sveučilištu Southampton u Velikoj Britaniji, kaže da njegovo vlastito istraživanje nije identificiralo nikakve nedosljedne svjetlosne uzorke u očima deepfake slika. Ali "iako specifična tehnika korištenja nedosljednih refleksija u očnim jabučicama možda nije široko primjenjiva, takve tehnike bi mogle biti korisne za analizu suptilnih anomalija u rasvjeti, sjenama i refleksijama u različitim dijelovima slike", kaže on. "Otkrivanje nedosljednosti u fizičkim svojstvima svjetlosti moglo bi nadopuniti postojeće metode i poboljšati ukupnu točnost detekcije dubokih krivotvorina."
