Lustra duszy: Nowa metoda wykrywania deepfake

W ciągu kilku lat współczesne generatywne systemy AI zrobiły ogromne postępy w tworzeniu realistycznie wyglądających ludzi. Największym wyzwaniem okazały się oczy i dłonie, ale modele takie jak Stable Diffusion stają się coraz lepsze w generowaniu postaci ludzkich, które, jeśli nie są doskonałe, to przynajmniej łatwe do edycji. Wzbudza to jednak obawy o potencjalne nadużycia.

Refleksy w oczach jako detektor deepfake

Naukowcy z University of Hull niedawno ujawnili przełomową metodę identyfikacji obrazów deepfake generowanych przez AI poprzez analizę odbić w ludzkich oczach. W zeszłym tygodniu zespół zaprezentował technikę na Narodowym Zjeździe Astronomii Royal Astronomical Society. Metoda wykorzystuje narzędzia, którymi astronomowie posługują się do badania galaktyk, aby zbadać spójność odbić światła w gałkach ocznych. Prowadzącą zespół badawczy była Adejumoke Owolabi, studentka studiów magisterskich na University of Hull, pod nadzorem profesora astrofizyki dr. Kevina Pimbbleta.

Technika wykrywania deepfake oparta na odbiciach w oczach

Technika działa na zasadzie, że para gałek ocznych odbija źródła światła w podobny sposób. Na autentycznych zdjęciach umiejscowienie i kształt odbić świetlnych są spójne w obu oczach, podczas gdy obrazy generowane przez AI często tego nie uwzględniają. Owolabi wykorzystała techniki z astronomii do kwantyfikacji odbić w gałkach ocznych. Jednolitość odbić ocenia się za pomocą współczynnika Gini, który wskazuje na równomierne rozłożenie światła (wartość bliska 0) lub jego skupienie (wartość bliska 1).

Podsumowanie

Chociaż technika oparta na odbiciach w oczach jest obiecująca, może okazać się mniej niezawodna, jeśli AI zacznie uwzględniać dokładne odbicia. Wymaga też wyraźnego widoku gałek ocznych, by była skuteczna. Metoda może generować fałszywe pozytywy i negatywy, co oznacza, że nie wykryje wszystkiego. "Ale dostarcza nam podstaw, plan ataku w wyścigu zbrojeń mającym na celu wykrywanie deepfake" - ostrzega Pimbblet.

Udostępnij ten artykuł
Link został skopiowany!