Centrum wiedzy o technologiach i pracy w IT

Deepfake – jakie niebezpieczeństwa za sobą niesie?

W świecie opanowanym przez fake newsy kwestią czasu było to, że coś takiego jak deepfake upowszechni się jako jedna z bardziej niebezpiecznych technik dezinformacyjnych.

Ostatnia aktualizacja: 18.05.2022. Dodaliśmy fragment o metodzie wykrywania deepfake.

Na czym polega deepfake?

Technika deepfake polega na spreparowaniu materiałów audiowizualnych za pomocą sztucznej inteligencji w taki sposób, aby widoczne na nich osoby jak najbardziej realistycznie przypominały faktycznie istniejące.

Za pomocą algorytmów można wygenerować nie tylko postaci fikcyjne. Realne zagrożenie dla informacji i bezpieczeństwa niesie za sobą manipulacja wizerunkiem prawdziwych osób.

Do gromadzenia informacji używanych w tworzeniu spreparowanego wizerunku wykorzystuje się deep learning, czyli głębokie uczenie się, będące podzbiorem uczenia maszynowego.

Deep learning to główny fundament kognitywnego przetwarzania danych, pozwalający zrozumieć programowi  ludzką mowę czy mimikę. Obecnie w Internecie mamy szeroką dostępność różnego rodzaju informacji na temat osób prywatnych i publicznych – zdjęć, próbek głosowych, autentycznych nagrań wideo. Sieć neuronowa, inspirowana połączeniami neuronowymi ludzkiego mózgu, ma niemal nieskończone możliwości przetwarzania tych danych.

Sprawdź: Aparat polaroid – jak działa? Dla kogo będzie odpowiedni?

Zagrożenia wynikające z używania techniki deepfake

Na YouTube jest mnóstwo tutoriali z obsługi aplikacji takich jak FakeApp i DeepFaceLab, co oznacza, że dzisiaj każdy może stworzyć spreparowany materiał.

Deepfake, oprócz kreatywnych możliwości, przede wszystkim stwarza wiele niebezpieczeństw. W XXI wieku borykamy się z przytłaczającą skalą informacji. Coraz trudniej jest odsiewać fake newsy, ponieważ dodatkowym problemem jest także szybkość, z jaką się szerzą.

W świecie, w którym nie ma żadnego problemu, aby wygenerować deepfake’owe przemówienia głów państw (warto obejrzeć nagranie z 2018 roku, w którym wystąpił „Obama”), stajemy przed potencjalnym problemem coraz łatwiejszej manipulacji politycznej czy historycznej.

Deepfake to także kolejne zagrożenie w temacie cyberprzemocy. Wykorzystanie cudzego wizerunku w kontekście pornograficznym lub znieważającym staje się już sprawą na kilka kliknięć. Wprawdzie dzisiaj już uodporniliśmy się na popularne kiedyś fotomontaże. Jednakże ruchomy, realistycznie wyglądający materiał wideo to wciąż coś, co bardzo łatwo może nas wprowadzić w błąd.

W przyszłości deepfake może stanowić coraz większe niebezpieczeństwo związane z preparowaniem naszych danych biometrycznych, które mogą być wykorzystywane do uwierzytelniania.

Czy możemy się obronić?

Na poziomie prywatnym nadal aktualne jest to, co standardowo porusza się podczas szkoleń z cyberbezpieczeństwa. Rozwaga, edukacja i zasada ograniczonego zaufania powinna być na pierwszym miejscu. Zastanawianie się nad tym, co zamieszczamy w Internecie i jakie dostępy przyznajemy aplikacjom to podstawa.

Kilka lat temu popularnością cieszyła się aplikacja FaceApp, która umożliwiała modyfikowanie twarzy na różne sposoby. Mogliśmy zobaczyć siebie w wydaniu męskim, damskim, dziecięcym, postarzonym, w innym kolorze włosów, z uśmiechem lub bez. Ludzie bywają ciekawscy, więc przesłali do aplikacji niesamowitą liczbę zdjęć swoich i cudzych, budując pokaźną bazę danych. Równie szybko pojawiły się wątpliwości czy ta aplikacja na pewno jest bezpieczna.

Rzecznik aplikacji wyjaśnił wtedy, że zdjęcia usuwane są w ciągu 48 godzin, aby zaoszczędzić miejsce na serwerach. Dodatkowo korzystanie z  FaceApp nie wymaga logowania, co według rzecznika sprawia, że FaceApp nie jest w posiadaniu żadnych danych, które mogłyby umożliwić identyfikację użytkownika.

Tak czy inaczej te kontrowersje mimo wszystko skłaniają do zachowania wzmożonej ostrożności. W świetle tego, jak chętnie ludzie udostępniali swój wizerunek w zamian za chwilę zabawy, trzeba kłaść nacisk na weryfikowanie, dokąd wysyłamy nasze dane.

Wykrywanie fałszywych filmów z dokładnością na poziomie 99%

Informatycy z UC Riverside opracowali metodę pozwalającą na bardzo dokładne wykrywanie użycia deepfake w materiałach wideo. Trafność metody wynosi nawet 99%. Na czym polega?

Metoda opiera się na podzieleniu zadania na komponenty w ramach użycia głębokiej sieci neuronowej. Pierwsza część dotyczy rozpoznawania mimiki twarzy na bazie elementów wzorcowych, a następnie przekazania informacji na temat wyrazu oczu, ust czy mimiki czoła do drugiej części funkcjonującej jako encoder-decoder.

Architektura dekodująca odpowiada za wykrywanie manipulacji, a także może wskazywać obszary, które zostały w inny sposób zmienione. Dotychczas przeprowadzone eksperymenty z zestawem danych wzorcowych i zmanipulowanych pozwalają na uczenie wielozadaniowe. Dzięki tej metodzie poziom wykrywalności zmanipulowanych filmów wyniósł 99%.

W przyszłości możliwe będzie stworzenie automatycznych systemów do wykrywania fałszywych filmów, które mogłyby zawierać treści propagandowe lub siać dezinformację.

Total
0
Shares
_podobne artykuły