Przejdź do menu Przejdź do treści

FakeApp

popularna aplikacja komputerowa, która pojawiła się w styczniu 2018 r. i która za pomocą obliczeniowej karty graficznej jest w stanie stworzyć algorytm wstawiający do dowolnego wideo twarz z przeanalizowanych zdjęć. Program ten umożliwia użytkownikom łatwe zmanipulowanie wideoklipów oraz pozwala na tworzenie i udostępnianie filmów. Aplikacja wykorzystuje sztuczną sieć neuronową i moc obliczeniową nowoczesnego procesora graficznego oraz 3 do 4 GB przestrzeni dyskowej do generowania fałszywego wideo. Aby uzyskać szczegółowe informacje, wymagana jest duża ilość materiału wizualnego pochodzącego od osoby, której wizerunek ma zostać użyty.

FakeApp wykorzystuje algorytmy sztucznej inteligencji, które najpierw uczą się twarzy, by móc następnie przeprowadzić ich podmianę. Do zastosowania tej metody potrzebnych jest minimum 500 dobrej jakości zdjęć portretowych osoby, która ma zostać wprowadzona do filmu (bardzo dobre efekty można uzyskać, mając 2–3 tysiące ujęć). „Nowa” twarz zachowuje się tak jak oryginał. Generowane przez internetową społeczność tą metodą montaże zostały nazwane deepfake’ami i na początku koncentrowały się na wstawianiu twarzy aktorek, piosenkarek i celebrytek do scen z filmów dla dorosłych. Zostało to wykorzystane do stworzenia fałszywych, lecz czasami bardzo przekonujących pornograficznych klipów z udziałem aktorek takich jak G. Gadot. Nie brakowało także czysto humorystycznych filmików, np. takich, w których innym aktorom wstawiano twarz N. Cage’a. Nic dziwnego, że tego typu wideo zostały błyskawicznie rozpowszechnione przede wszystkim w mediach społecznościowych.

Program korzysta z zasobów ogólnie dostępnych serwisów Google, które generują rezultaty o niespotykanej dotychczas jakości. Ponieważ zaś całość funkcjonuje sprawnie, fałszerze już od dawna nie ograniczają się do filmików z B. Obamą: gwiazdy Hollywood pojawiają się w filmach pornograficznych, w których nigdy nie zagrały, a aktorzy pojawiają się w filmach, w których nigdy nie zagrali. Na stronach internetowych znajdują się całe kolekcje takich klipów. Z tego powodu niektóre platformy, takie jak Reddit albo Twitter, zbanowały już takie treści.

Technologia, która stoi za tymi filmami, istnieje już od jakiegoś czasu, ale różnica polega na tym, że dziś oprogramowanie to jest dostępne wszędzie i łatwe w użyciu. Wystarczy pobrać program FakeApp i postępować zgodnie z instrukcją. Z kolei aplikacja FaceApp automatycznie generuje bardzo realistyczne transformacje twarzy przedstawionej na zdjęciach. Pozwala na zmianę fryzury, płci, wieku i innych cech za pomocą smartfona.

Fala „zakazanych” scen z udziałem gwiazd kina, muzyki i celebrytek powstałych dzięki zastosowaniu zaawansowanej sztucznej inteligencji nie tylko pokazuje możliwości tej technologii, ale także dowodzi, że może z niej korzystać każdy. W sieci coraz popularniejsza staje się aplikacja oparta na skrypcie, który powoli zbliża nas do rzeczywistości, w której wszystko jest możliwe. Sfabrykowanych materiałów z politykami nie rozpozna nikt, a wideo przestanie służyć jako dowód sądowy.

Niedawne postępy w rozwoju sztucznej inteligencji wywołały nowe sposoby tworzenia fałszywych i zmanipulowanych filmów. Korzystając ze specjalnego oprogramowania, takiego jak Face2Face i Project Voco, naukowcy mogli zamienić zdjęcie śnieżnego krajobrazu na wiosenne ujęcie, sfabrykować mimikę twarzy i ruch warg, a nawet stworzyć oryginalną treść mówioną na podstawie głosów polityków. Przykładem jest fałszywe nagranie prezydenta Obamy mówiącego o przepłacaniu pracowników, na którym jego wizerunek wygląda i brzmi jak prawdziwa osoba.

Zdarzały się przypadki, w których młode dziewczyny były szantażowane i zmuszane do samobójstwa z powodu sfałszowanych obrazów i profili. Wiele osób ma bardzo rozbudowaną obecność w mediach społecznościowych lub tworzy i przesyła wideo na YouTube’a, co może ułatwić gromadzenie danych na ich temat i stanowić dla nich zagrożenie, np. uczynić z nich cel nękania, kampanii nienawiści i szantażu.

Produkcja i odbiór wirtualnej pornografii dziecięcej albo z udziałem całkowicie wygenerowanych komputerowo nastolatków, albo z wygenerowanymi komputerowo twarzami nałożonymi na prawdziwe ciała dorosłych rodzi ważne pytania etyczne. Ochrona ofiar i konieczność usunięcia szarej strefy sprawiają, że konieczne będzie stworzenie nowych przepisów.

Obecnie używanie fałszywej aplikacji można co najwyżej uznać za naruszenie prywatności i danych, naruszenie praw autorskich, nękanie lub zniesławienie. Ponieważ większość szkód jest dokonywana w miarę krążenia materiału i dzielenia się nim, zapobieganie im jest prawie niemożliwe. Dokładne motywacje twórców i widzów są niejasne i należy się zastanowić, czy konsumenci mediów uczestniczą w tworzeniu popytu na tego typu treści. Ofiary, zdegradowane i odhumanizowane, cierpią z powodu obrażeń psychicznych i zszarganej reputacji oraz podlegają alternatywnej narracji, której nie mogą się sprzeciwić. Te nowe zastosowania technologii wywołują dyskusje i wszyscy – prawodawcy, badacze i widzowie – będą musieli współpracować, aby zapobiec negatywnemu wykorzystaniu zaawansowanych technologii.

W rzeczywistości fake newsów znacznie większe obawy budzi jednak możliwość tworzenia takich materiałów z udziałem ważnych osób świata polityki, biznesu czy sportu. Wklejeniu twarzy Trumpa w przemówienie A. Merkel trudno odmówić walorów humorystycznych, lecz nietrudno się domyślić, co mógłby zrobić ktoś pozbawiony poczucia humoru i zdeterminowany do osiągnięcia celu politycznego. Jeden podstawiony gest, grymas czy jedno wypowiedziane zdanie mogą momentalnie zmienić nastawienie opinii publicznej, a przy dzisiejszym tempie rozprzestrzeniania się fałszywych informacji w sieci – także wpłynąć na relacje międzynarodowe.

Aplikacja FakeApp jest obecnie dostępna w wersji dla Windows. Po jej pobraniu i zainstalowaniu potrzebne są także darmowe narzędzia deweloperskie, takie jak CUDA firmy NVIDIA i Visual C++ Microsoftu oraz FFmpeg – kompletny pakiet elementów umożliwiających nagrywanie, konwertowanie oraz streaming audio i wideo (warto dodać, że ten zbiór narzędzi umożliwia konwersję pomiędzy różnymi formatami wideo i jest całkowicie wolny i rozpowszechniany na licencji GPL). Potem następuje proces uczenia oprogramowania twarzy, która ma zostać zastąpiona tą należącą do przyszłej ofiary. Wymagane jest przygotowanie odpowiedniej liczby ujęć, przeprowadzenie ich dopasowania i „treningu” sztucznej inteligencji – to właśnie w tym momencie oprogramowanie poznaje detale wyglądu i mimikę charakterystyczną dla obu twarzy. Kolejny element to wyodrębnienie z filmu poszczególnych klatek i poddanie ich w aplikacji konwersji, po której trzeba złożyć film na nowo.

Sztuczna inteligencja potrafi m.in. tworzyć trójwymiarowe modele twarzy ze zwykłych zdjęć, tworzyć oryginalne obrazy w odpowiedzi na żądanie (narysuj wulkan, ptaka, uliczkę), ocenić wartość estetyczną obrazu i zmodyfikować go tak, aby ją podnieść (oceny SI porównywano z tymi wystawionymi przez ludzi), samodzielnie zmieniać źródło oświetlenia i cienie na zdjęciu, tworzyć podkład dźwiękowy na podstawie obrazu filmu niemego, zmieniać detale wyglądu osoby (pozbawienie Trumpa włosów ) podczas transmisji na żywo czy sprawiać, by znane osoby uśmiechały się na twitterowych portretach (smile vector).

Nietrudno sobie wyobrazić sytuację, w której z tej samej technologii korzysta ktoś, kto chce osiągnąć jakiś polityczny lub ekonomiczny cel, sprowokować agresję wymierzoną przeciwko konkretnej osobie lub grupie społecznej albo wykorzystać ją do wywołania politycznych napięć. Jedyną obroną przed wprowadzeniem w błąd jest zwiększanie świadomości odbiorców.

Sergiusz Wasiuta

Y. Aafer, D. Wenliang, H. Yin, DroidAPIMiner: Mining API-Level features for robust malware detection in Android. [w:] Security and Privacy in Communication Networks, T. Zia, A. Zomaya, V. Varadharajan et al. (eds.), Springer, Heidelberg 2013; Cyberspace Safety and Security: 9th International Symposium, CSS 2017, Xi’an China, October 23–25, 2017, Proceedings, S. Wen, W. Wu, A. Castiglione (eds.), Springer, 2017; D.R. Des Autels, Social Networking Safety: It All Starts with the User, Book Country, New York 2013; A. Dodge, L. House, E. Johnstone, Using Fake Video Technology To Perpetrate Intimate Partner Abuse Domestic Violence Advisory Ridder, Costa & Johnstone LLP1 [b.r.];  A. Echamea, Mastering Backbone.js, Packt Publishing, Birmingham 2016; FakeApp, Malavida.com (dostęp 18.04.2019); R. Heartfield, G. Loukas, Protection Against Semantic Social Engineering Attacks, „Versatile Cybersecurity” 2018; Ł. Kruczkowski, FakeApp – czy powinniśmy obawiać się aplikacji, która z każdego może zrobić gwiazdę filmów dla dorosłych?, [b.d.], Onet.pl (dostęp 18.04.2019); FakeApp ponownie prezentuje swoje przerażające możliwości. Tym razem „ofiarą” jest Obama, 18.04.2018, KomputerSwiat.pl (dostęp 18.04.2019); P. Lehr, Counter-Terrorism Technologies: A Critical Assessment, Springer, Cham 2018; D. Rivera, A. García et al., Secure Communications and Protected Data for a Internet of Things Smart Toy Platform, „IEEE Internet of Things Journal” 2019, vol. 6, no. 2.