Deepfake może być nowym etapem wojny informacyjnej
To może być kolejny etap wojny informacyjnej przed wyborami prezydenckimi w 2020 roku. Technologia deepfake daje praktycznie nieograniczone możliwości, a można ją wykorzystywać domowymi sposobami. Zmanipulowane filmy wideo, dzięki sztucznej inteligencji są nie do odróżnienia od prawdziwych nagrań. Mogą służyć do produkcji na masową skalę fake newsów. Trwają pracę nad oprogramowaniem, które ma pomóc ocenić prawdziwość pojawiających się filmów.
– Deepfake używa bardzo zaawansowanych narzędzi sztucznej inteligencji, które mogą być używane w różnych celach. Generuje zawartość medialną, która nie jest prawdziwa. Może ludzi po prostu oszukiwać, wprowadzać w błąd. To przykład tworzenia fake newsów, przy czym deepfake koncentruje się na generowaniu kontentu wideo – tłumaczy w rozmowie z agencją Newseria Innowacje dr hab. Dominik Ślęzak z Instytutu Informatyki Uniwersytetu Warszawskiego.
Amerykańska Izba Reprezentantów ostrzega, że technologia deepfake może być wykorzystywana przez wywiady wrogich państw i stanowić zagrożenie dla dyskusji publicznej i bezpieczeństwa narodowego USA. O technologii pozwalającej wyprodukować w pełni profesjonalne filmy wideo zrobiło się głośno już w 2017 roku. To wtedy w sieci zaczęły krążyć sfałszowane filmy pornograficzne, gdzie aktorkom cyfrowo podmieniono twarze na te należące do celebrytek. To jednak był dopiero początek.
– Sztuczną inteligencję, a konkretnie sieci neuronowe, można wykorzystać też pozytywnie. To np. ulubiona gra online, gdzie główny bohater może mnie przypominać. Innym przykładem są symulacje w medycynie. Np. możemy mieć bazę danych zapisów wideo przypadków bardzo poważnych schorzeń i spróbować dostosować te zapisy do parametrów nowego pacjenta – wymienia dr hab. Dominik Ślęzak.
Ostatnie przykłady pokazują jednak, że technologia deepfake to przede wszystkim niemal nieograniczone możliwości do wypuszczania fałszywych informacji. Niedawno w internecie można było obejrzeć rzekomą pijaną Nancy Pelosi, spikerkę Izby Reprezentantów. Mówiła niewyraźnie i bardzo powoli, tymczasem okazało się, że po prostu jej wypowiedź została spowolniona o kilkadziesiąt procent. Wcześniej jednak filmik z jej udziałem udostępnił choćby były burmistrz Nowego Jorku Rudy Giuliani. W sieci krążyły też fałszywe nagrania z Barackiem Obamą, Donaldem Trumpem czy Markiem Zuckerbergiem.
– Jeżeli ktoś używa tej technologii bez zgody osób, których zdjęcia są wykorzystywane, np. do tworzenia nieprawdziwych filmów czy właśnie przekręcania czyichś orędzi, czyli nie tylko wyciągania z kontekstu jakiejś wypowiedzi, ale wkładanie w czyjeś usta zupełnie nowych wypowiedzi, to są to narzędzia bardzo niebezpieczne – wskazuje ekspert.
Kilka tygodni temu pojawiła się aplikacja DeepNude. Dzięki niej można było „rozebrać” kobiety – wystarczyło zdjęcie, by dzięki sztucznej inteligencji zobaczyć, jak wygląda ona nago. Po licznych protestach aplikacja została zamknięta, ale w sieci krążą jej kolejne wersje. To tylko przykład aplikacji, która mogła być bardzo pomocna i służyć np. do skanowania ludzi do celów bezpieczeństwa, tymczasem była wykorzystana zupełnie inaczej.
– Sztuczna inteligencja będzie nam dawała coraz silniejsze narzędzia, analizę danych, symulowania rzeczywistości, zmieniania rzeczywistości. Jest to jednak nasza odpowiedzialność, jak będziemy tych narzędzi używać – podkreśla dr Ślęzak.
Pojawiają się aplikacje, które mają pomóc rozpoznać fałszywe materiały. Niektóre bardzo dokładnie sprawdzają mimikę, inne – częstotliwość mrugania i na tej podstawie oceniają stopień prawdopodobieństwa, że nagranie zostało spreparowane. Dopóki jednak nie zostaną opracowane takie przepisy, które pozwolą całkowicie unieszkodliwić technologię, wyścig będzie trwał.
– To podobnie jak w branży cyberbezpieczeństwa. Z jednej strony są hakerzy, którzy atakują nasze maszyny, próbują je zawirusować, a my próbujemy to wykryć i przeciwdziałać. Tak samo w dziedzinie deepfake’a można do tego podejść. Trzeba się nauczyć odróżnić prawdziwy kontent od tego spreparowanego i odpowiednio reagować – mówi dr hab. Dominik Ślęzak.
Komentarze