- Parlament Europejski przygotowuje zakaz deepfake AI, by ukrócić tworzenie fałszywych materiałów seksualnych, zwłaszcza z udziałem znanych osób i dzieci.
- Skala problemu jest ogromna: raporty wskazują, że 98% deepfake'ów to pornografia, a 99% ofiarami są kobiety, przy czym 1,2 miliona dzieci przyznało się do bycia ofiarą seksualnego deepfake'a.
- Polska policja potwierdza wzrost zagrożenia deepfake'ami, wykorzystywanymi do szantażu, wyłudzeń i krążących w środowiskach pedofilskich.
- W przypadku stania się ofiarą deepfake'a, należy natychmiast zgłosić sprawę policji, a w przypadku nieletnich – skorzystać z platformy Take It Down.
Parlament Europejski decyduje o zakazie. Co jest powodem?
W czwartek Parlament Europejski zdecyduje o przyszłości przepisów, które mają ukrócić falę cyfrowych nadużyć. Chodzi o zakaz wykorzystywania sztucznej inteligencji do generowania fałszywych, często bardzo realistycznych, obrazów i filmów o charakterze seksualnym. Propozycję już w marcu zatwierdziła Komisja wolności obywatelskich, sprawiedliwości i spraw wewnętrznych PE. Teraz czas na głosowanie całego zgromadzenia. Jeśli przepisy wejdą w życie, będzie to mocny sygnał dla twórców i platform udostępniających takie narzędzia.
Bezpośrednim impulsem do działania był raport organizacji Center of Countering Digital Hate (CCDH). Analitycy wzięli pod lupę chatbota Grok, stworzonego przez firmę Elona Muska, właściciela platformy X. Wyniki są alarmujące. W zaledwie 11 dni narzędzie to wygenerowało około 3 milionów obrazów o charakterze seksualnym. Wizerunki znanych osób, takich jak piosenkarki Taylor Swift czy Billie Eilish, a także polityczek, w tym byłej wiceprezydentki USA Kamali Harris, zostały bezprawnie wykorzystane do tworzenia materiałów pornograficznych.
Skala zjawiska jest ogromna. Szokujące dane z raportów
Problem nie dotyczy tylko jednego narzędzia. Zjawisko deepfake AI przybrało masową skalę, a jego ofiarami w przytłaczającej większości padają kobiety. Potwierdza to raport opublikowany na platformie Home Security Heros. Po przeanalizowaniu ponad 95 tysięcy filmów stworzonych przez sztuczną inteligencję okazało się, że aż 98 proc. z nich to pornografia. W 99 proc. przypadków obiektem fałszerstwa była kobieta. Co gorsza, stworzenie 60-sekundowego, fałszywego filmu wymaga dziś zaledwie 25 minut i jednego wyraźnego zdjęcia twarzy ofiary.
Szczególnie niepokojące są dane dotyczące dzieci. Brytyjska organizacja Internet Watch Fundation (IWF) tylko w ubiegłym roku zidentyfikowała ponad 8 tysięcy obrazów i filmów generowanych przez AI, które przedstawiały realistyczne sceny wykorzystywania nieletnich. Z kolei wspólny raport UNICEF, ECPAT i INTERPOLU wykazał, że w 11 badanych krajach aż 1,2 miliona dzieci przyznało, że ich wizerunek został przerobiony na deepfake o charakterze seksualnym. W niektórych państwach problem ten dotyka jednego dziecka na 25, co statystycznie oznacza jednego ucznia w każdej klasie.
Polska policja potwierdza zagrożenie. Do czego służą deepfake'i?
Zagrożenie jest realne także w Polsce. Komisarz Marcin Zagórski, rzecznik prasowy Komendanta Centralnego Biura Zwalczania Cyberprzestępczości, w rozmowie z PAP przyznał, że funkcjonariusze zabezpieczają ogromne ilości nielegalnych plików, w tym tych tworzonych przez sztuczną inteligencję. Choć CBZC nie prowadzi dokładnych statystyk, rzecznik nie ma wątpliwości. – Z roku na rok to zjawisko jest coraz bardziej powszechne i sprzyja temu, chociażby dostępność narzędzi, jakim jest sztuczna inteligencja – stwierdził komisarz Zagórski.
Do czego przestępcy wykorzystują takie materiały? Cele są różne. Generowane przez AI nielegalne treści intymne są wykorzystywane między innymi w celu wyłudzeń pieniędzy czy wrażliwych danych albo do szantażu. Marcin Zagórski podkreśla jednak, że najczęściej materiały te krążą w środowiskach przestępczych o charakterze pedofilskim.
Co zrobić, gdy staniesz się ofiarą cyfrowego nadużycia?
Jeśli twój wizerunek został bezprawnie wykorzystany do stworzenia materiałów o charakterze seksualnym, nie można pozostawać bezczynnym. Rzecznik CBZC radzi, by natychmiast skontaktować się z policją. Funkcjonariusze podejmą działania w celu namierzenia osoby, która stworzyła i udostępniła fałszywe treści w sieci. W przypadku, gdy ofiarą jest osoba nieletnia, sprawę należy dodatkowo zgłosić na stronie Take It Down. To specjalna platforma, która bezpłatnie pomaga w usunięciu takich materiałów z internetu i zatrzymaniu ich dalszego rozpowszechniania.
Polecany artykuł:
