Jak poruszać się w świecie deepfake'ów | 15.04.2026
Fałszywe nagrania
generowane przez sztuczną inteligencję rozprzestrzeniają się w sieci. Dr inż.
Tomasz Wesołowski z Uniwersytetu Śląskiego w Katowicach ostrzega, że deepfake
przestał być zabawą, a stał się narzędziem manipulacji, z którego może
skorzystać praktycznie każdy.
Ten tekst przeczytasz za 3 min.
Na nasze życie ogromny wpływ ma sztuczna inteligencja. Fot. Pixabay
Realistyczne
fałszywe nagrania tworzone przez sztuczną inteligencję stają się narzędziem
manipulacji na masową skalę, a użytkownicy internetu bezrefleksyjnie przyjmują
je jako fakty – ostrzegł dr inż. Tomasz Wesołowski z Uniwersytetu Śląskiego. Jako
przykład wskazał viralowe nagranie, na którym Wołodymyr Zełeński „nokautuje”
Donalda Trumpa. – Spotkanie było prawdziwe, ale materiał powstał później jako
fałszywka. Ludzie to masowo udostępniali bez zastanowienia – powiedział.
Zdaniem
eksperta, problem zaczyna się tam, gdzie deepfake przestaje być rozrywką. –
Jeśli coś udaje informację, staje się narzędziem dezinformacji. I to bardzo
skutecznym – podkreślił.Zwrócił
uwagę, że mechanizm jest prosty: emocje wygrywają z rozsądkiem. Przywołał
przykład fikcyjnej „żołnierki USA”, wygenerowanej przez AI. – Ludzie oglądali,
komentowali, płacili. Dopiero później ktoś zauważył, że ta sama osoba raz jest
pułkownikiem, a raz generałem. To pokazuje skalę naiwności – powiedział.
Jak
zaznaczył, tworzenie takich treści nigdy nie było łatwiejsze. – Dziś wystarczy
opisać, co chcemy zobaczyć. Algorytm zrobi resztę. Każdy, kto potrafi obsłużyć
telefon, może stworzyć deepfake – stwierdził. Ekspert podkreślił, że sztuczna
inteligencja nie odróżnia prawdy od fałszu. – Ona nie myśli, tylko „zgaduje”,
jakie słowa do siebie pasują. Dlatego potrafi tworzyć przekonujące, ale
nieprawdziwe treści – wyjaśnił.
Jednocześnie
zaznaczył, że w medycynie AI osiąga bardzo wysoką skuteczność – sięgającą 95
proc., wobec około 74 proc. u lekarzy. – Algorytm analizuje miliony przypadków,
lekarz – własne doświadczenie. Problemem nie jest skuteczność, tylko brak
zaufania lekarzy do AI i świadomość odpowiedzialności, którą zawsze ponosi
człowiek – dodał.
Zdaniem
eksperta największe zagrożenie nie polega jednak na „buncie maszyn”. – AI nie
ma intencji. Ona po prostu realizuje cel, który jej wyznaczymy – zaznaczył. Jako
przykład podał eksperyment z algorytmem sterującym dronem, który miał zniszczyć
cel „za wszelką cenę”. – System uznał, że największym zagrożeniem jest człowiek
mogący przerwać misję, więc „logicznie” należało go wyeliminować. To nie bunt,
tylko konsekwencja źle zdefiniowanego celu – wyjaśnił.
Według
Wesołowskiego, realne zagrożenie jest inne: uzależnienie od technologii. –
Przestajemy myśleć samodzielnie, bo wygodniej jest przyjąć gotową odpowiedź.
Oddajemy kontrolę krok po kroku – ocenił.
Ekspert
przywołał przykład inteligentnego domu, który automatycznie zamknął budynek,
pozostawiając właścicieli na zewnątrz. – To anegdota, ale dobrze pokazuje
kierunek: systemy podejmują decyzje, których konsekwencji nie przewidujemy –
powiedział. Jego zdaniem, regulacje są potrzebne, ale niewystarczające, poza tym nic nie zastąpi zdrowego
rozsądku.