Centrum wiedzy o technologiach i pracy w IT

Spreparowany tekst groźniejszy niż fałszywe wideo?

Ostatnia aktualizacja 27 lipca, 2022

Nowe badania przeprowadzone przez MIT Media Lab wykazały, że sposób wypowiedzenia komunikatu ma większą moc oddziaływania niż wideo z wykorzystaniem manipulacji. To ciekawe wnioski, biorąc pod uwagę dotychczasową wiedzę na temat przewagi obrazu w kontekście przyciągania uwagi użytkowników w Internecie. Okazuje się, że odpowiednio przygotowany tekst może mieć większą siłę manipulacyjną niż deepfake. Jak to wyglądało w szczegółach?

Ostatnia aktualizacja: 27.07.2022. Dodaliśmy nowe informacje o nowych unijnych regulacjach w sprawie walki z deepfake’ami.

Sprawdź: Deepfake – jakie niebezpieczeństwa za sobą niesie?

Nie udało się zapisać Twojej subskrypcji. Spróbuj ponownie.
Udało się! Widzimy się niebawem – newsletter wysyłamy w każdy wtorek

Otrzymuj za darmo unikalne poradniki, dane i wiedzę o pracy w IT – dostarczane co tydzień

Klikając “Zapisz mnie” wyrażasz zgodę na otrzymywanie e-maili od redakcji, a także ofert partnerów oraz akceptujesz naszą Politykę prywatności.

Co ma większą siłę wpływu – tekst czy wideo?

Badania zostały przeprowadzone na 6000 osób. Naukowcy przedstawili 16 autentycznych przemówień oraz 16 spreparowanych za pomocą sztucznej inteligencji. Miały one różną formę: od nagrań audio, wideo po wideo z napisami i w końcu sam tekst. Uczestnicy zostali poinformowani o tym, że połowę z tych treści sfałszowano.

Wyniki pokazały, że sam tekst zidentyfikowano jako fałszywy w 57%. To nieznacznie więcej niż losowe zgadywanie. Dokładniejsze trafienia dotyczyły wideo z napisami (66%), a najdokładniej wypadło wytypowanie wideo połączonego z audio (82%).

Badacze wywnioskowali, że respondenci w swojej ocenie autentyczności bardziej polegają na ocenie sposobu wypowiedzenia komunikatu, niż na ocenie samej jego treści. Stopień dopracowania filmu z użyciem manipulacji deepfake zadecyduje o tym, czy odbiorca da wiarę komunikatowi, jaki zobaczył i usłyszał.

Mniej zaawansowane manipulacje obecnie bardziej niebezpieczne

Niedawno w sieci pojawiły się ostrzeżenia przed możliwymi nagraniami deepfake, w których prezydent Ukrainy ogłasza kapitulację. Nic dziwnego, obecna technologia umożliwia tworzenie bardzo mylących materiałów, które są szczególnie niebezpieczne w krytycznych sytuacjach.

Zobacz: Deep Nostalgia ożywi zdjęcia

Okazuje się jednak, że to nie deepfake jest odpowiedzialny za obecną skalę dezinformacji, a zwyczajne zdjęcia i treści produkowane przez nowo powstające konta w serwisach społecznościowych. Może to wynikać z faktu, że stworzenie wideo o wysokim stopniu autentyczności to wciąż dużo pracy. A skoro ludzie są podatni na znacznie mniej wyrafinowane formy manipulacji, to po co się męczyć?

Oczywiście to nie oznacza, że należy ignorować potencjał niebezpieczeństwa, jaki płynie z używania filmów z deepfake. Warto mieć na uwadze konieczność weryfikowania każdej informacji, zdjęcia i sposobu wyrażenia komunikatu, bo na ten moment to wciąż one sieją największy zamęt w sieci.

Nowe unijne regulacje w sprawie walki z deepfake’ami

Google, Twitter i Facebook będą zobowiązane do aktywnej walki z fałszywymi profilami i treściami deepfake. Nowe unijne regulacje przewidują wysokie grzywny za niepodejmowanie działań zapobiegających szerzeniu dezinformacji. 

To rozszerzenie europejskiego Kodeksu Dobrych Praktyk z 2018 roku. Dotychczas stosowanie zasad wypisanych w kodeksie było dobrowolne, teraz walka z dezinformacją staje się coraz bardziej istotna, szczególnie w świetle bieżących wydarzeń w Europie i na świecie.

Nowe zasady wchodzą w skład prawodawstwa unijnego. Mają chronić przed różnego rodzaju manipulacjami, deepfake’ami, a także podszywaniem się lub inną formą fałszowania profilu. Oprócz tego będą także stanowić podstawę do walki z reklamami, które mogą wprowadzać w błąd.

Wszystkie nowe zasady mają wzmocnić unijny Akt o usługach cyfrowych (DSA). W przypadku niestosowania zasad wynikających z kodeksu, firmy będą zobowiązane zapłacić karę w wysokości 6% globalnych przychodów.

Total
0
Shares
_podobne artykuły