Výskumníci používajú techniky z astronómie na vytvorenie počítačom generovaných „Deepfake“ obrázky rozpoznať – ktoré na prvý pohľad môžu vyzerať identicky so skutočnými fotografiami.

Analýzou obrázkov tvárí, ktoré sa zvyčajne používajú na štúdium vzdialených galaxií, môžu astronómovia zmerať, ako ľudské oči odrážajú svetlo, čo môže naznačovať známky manipulácie s obrázkami.

„Nie je to všeliek, pretože máme falošne pozitívne a falošne negatívne výsledky,“ hovorí Kevin Pimbblet, riaditeľ Centra pre vedu o údajoch, umelú inteligenciu a modelovanie na University of Hull vo Veľkej Británii. Svoj výskum prezentoval na Národnom stretnutí astronomickej spoločnosti Royal Astronomical Society 15. júla "Tento výskum však ponúka potenciálnu metódu, dôležitý krok vpred, ktorý môže potenciálne pridať k testom, ktoré možno použiť na zistenie, či je obrázok skutočný alebo falošný."

Vyjadrené fotografie

Pokroky v umelej inteligencii (AI) sťažujú rozlíšenie medzi skutočnými obrázkami, videami a zvukom ktoré vytvárajú algoritmy, rozpoznať. Deepfakes nahrádzajú črty jednej osoby alebo prostredia inými a môžu vyvolať dojem, že jednotlivci povedali alebo urobili veci, ktoré neurobili. Úrady varujú, že táto technológia sa militarizuje a prispieva k šíreniu dezinformácií, napríklad počas volieb, možno použiť.

Skutočné fotografie by mali mať "konzistentnú fyziku," vysvetľuje Pimbblet, "takže odrazy, ktoré vidíte v ľavom oku, by mali byť veľmi podobné, aj keď nie nevyhnutne identické, ako odrazy v pravom oku." Rozdiely sú jemné, takže výskumníci sa obrátili na techniky vyvinuté na analýzu svetla v astronomických obrázkoch.

Dielo, ktoré ešte nebolo publikované, vytvorilo základ pre diplomovú prácu Adejumoke Owolabiho. Owolabi, dátový vedec z University of Hull vo Veľkej Británii, získal skutočné obrázky z Flickr Faces HQ Dataset a pomocou generátora obrázkov vytvorili falošné tváre. Owolabi potom analyzoval odrazy od svetelných zdrojov v očiach na obrázkoch pomocou dvoch astronomických meraní: systému CAS a Giniho indexu. Systém CAS kvantifikuje koncentráciu, asymetriu a plynulosť rozloženia svetla objektu. Táto technika umožnila astronómom, vrátane Pimbbleta, charakterizovať svetlo extragalaktických hviezd po celé desaťročia. Giniho index meria nerovnosť rozloženia svetla na obrázkoch galaxií.

Eine Serie klarer und annotierter Bilder von Deepfake-Augen, die inkonsistente Reflexionen in jedem Auge zeigen.

Porovnaním odrazov v očných bulvách človeka dokázal Owolabi správne predpovedať, či je obraz falošný približne v 70 % prípadov. Nakoniec vedci zistili, že Gini index bol lepší ako systém CAS pri predpovedaní toho, či bol obrázok zmanipulovaný.

Brant Robertson, astrofyzik z Kalifornskej univerzity v Santa Cruz, výskum víta. „Ak však dokážete vypočítať hodnotu, ktorá kvantifikuje, ako realisticky môže vyzerať hlboký falošný obraz, môžete tiež trénovať model AI tak, aby produkoval ešte lepšie hlboké sfalšovanie pomocou optimalizácie tejto hodnoty,“ varuje.

Zhiwu Huang, výskumník AI na University of Southampton vo Veľkej Británii, tvrdí, že jeho vlastný výskum nezistil žiadne nekonzistentné svetelné vzory v očiach hlboko falošných obrázkov. Ale „zatiaľ čo špecifická technika používania nekonzistentných odrazov v očných bulvách nemusí byť široko použiteľná, takéto techniky by mohli byť užitočné pri analýze jemných anomálií osvetlenia, tieňov a odrazov v rôznych častiach obrazu,“ hovorí. "Detekcia nezrovnalostí vo fyzikálnych vlastnostiach svetla by mohla doplniť existujúce metódy a zlepšiť celkovú presnosť detekcie deepfake."