Przejdź do treści

Deepfake. Nowe narzędzie wspierające cyberprzemoc

Przyzwyczailiśmy się już do obecności sztucznej inteligencji, ale jeszcze nie każdy jest świadom jej mocy. Chociażby, na kanwie cyberbezpieczeństwa, przemocy rówieśniczej. Polskie szkoły nie są przygotowane na deepfake’i, aplikacje typu nudify – a te powoli stają się coraz powszechniejszą bronią.

Coraz więcej narzędzi do cyberprzemocy

Żyjemy w wymagających czasach. Dysponujemy coraz bardziej wyrafinowanymi narzędziami do robienia sobie wzajemnie krzywdy. Płaszczyzną szczególnie podatną na występowanie przemocy jest szkoła. I choć, na papierze, to tam dzieci powinny czuć się najbezpieczniej, zdobywać edukację niezbędną w dalszym życiu, dojrzewać i zawierać pierwsze przyjaźnie – często tak nie jest.

Szkoły tworzą traumy. W szkołach jest przemoc. Dzieci, gdy są do siebie negatywnie nastawione, potrafią być mocno zdeterminowane, by wyrządzać sobie ból. Dziś dysponują jeszcze silniejszą bronią. Sztuczna inteligencja otwiera nową przyszłość dla cyberprzemocy. Deepfake’i, aplikacje typu nudify – mamy je na wyciągnięcie ręki. A jako że młodzi ludzie szybciej chłoną nowe technologie, pokolenie rodziców i nauczycieli bardzo często zostaje w tyle.

Fot. Adrian Swancar I Unsplash

Nie jesteśmy w stanie zapobiec wielu niebezpiecznym sytuacjom. Problem jest systemowy, bo prawodawstwo w Polsce z wielkim trudem zaakceptowało istnienie przestrzeni zwanej Internetem jako miejsca, w którym może dziać się krzywda. Do „wynalezienia” sztucznej inteligencji jeszcze nie dotarło. Mamy już rok 2026, ale życie publiczne wciąż reguluje duch minionych czasów – niewątpliwie tych trochę łatwiejszych. Chcemy być poważni, chronić siebie nawzajem, dbać o młodsze pokolenia – musimy zaakceptować więc, że świat nie jest kolorowy.

Ofiara uznana za oprawcę. Cyberprzemoc, pornografia, sztuczna inteligencja

W Luizjanie, stanie USA, deepfake przedstawiający nagie zdjęcia 13-letniej dziewczynki obiegł całą szkołę. Jako że kanałem jego nadania był Snapchat, umożliwiający tylko jednorazowe wyświetlenie, zgłoszenie sytuacji było mocno utrudnione. Dyrektor początkowo podchodził do zgłoszeń dziewczynki z dużym dystansem. Później, już na ławach sądowych, twierdził, że dzieci kłamią.

Założenie to jest wygodne, bo usprawiedliwia bierność. A ta potrafi zabijać. Tak było także w tym przypadku – 13-letnia ofiara w autobusie szkolnym zaatakowała chłopaka, którego podejrzewała o stworzenie deepfake’u. Za karę na 10 tygodni przeniesiono ją do alternatywnej szkoły. Oprawca pozostawał bezkarny.

Dziewczyna nie radziła sobie dobrze. Z czasem jej rodzina zauważyła, że nie odrabia lekcji, mniej je. Wysłano ją na terapię. Jak czytamy na łamach AP News, zawieszeni uczniowie nie mają zbyt dużej przestrzeni na momenty słabości. Kolejne incydenty skutkują przedłużeniem zawieszenia. W efekcie mają zazwyczaj gorsze oceny i rzadziej udaje im się ukończyć szkołę.

Coraz więcej stanów USA walczy z deepfake’ami

Uczniowi, na mocy nowego prawa stanowego Luizjany, postawiono 10 zarzutów bezprawnego rozpowszechniania obrazów stworzonych przez sztuczną inteligencję. Szacuje się, że w ubiegłym roku co najmniej połowa stanów uchwaliła przepisy regulujące używanie pozornie realistycznych, sfabrykowanych materiałów. Nadziali się już na to uczniowie na Florydzie i w Pensylwanii. Jeden z nauczycieli w Teksasie również został skazany za wykorzystywanie AI do tworzenia pornografii dziecięcej na podstawie wizerunków swoich uczniów.

Fot. Nick Bolton I Unsplash

Oczywiście, Stany Zjednoczone są daleko; mamy tam do czynienia z nieco odmienną kulturą, tamtejsze dzieci i młodzież w wielu aspektach zachowują się w inny sposób niż nasze. Globalizacja sprawia jednak, że wiele współczesnych problemów staje się standardem na całym świecie. My także musimy się zmierzyć z używaniem sztucznej inteligencji jako broni do cyberprzemocy. Bo nie mamy prawa, takiego jak wiele stanów USA, które w jakiś sposób regulowałoby wykorzystywanie sztucznej inteligencji w celu czynienia przemocy wobec drugiej osoby. Strona stefaedukacji.pl podaje przepisy klasyfikujące czyny osób używających AI do generowania pornografii:

  • utrwalanie nagiego wizerunku bez zgody (art. 191a KK),
  • pornografia z udziałem małoletniego (art. 202 KK),
  • podszywanie się i naruszenie prywatności (art. 190a KK).

Postęp wymaga zmian w prawodawstwie, wyposażenie służb w odpowiednie narzędzia, które umożliwiłyby skuteczne działanie. Oczywiście, kluczowa jest także prewencja – w tej materii znów wychodzą na jaw braki w edukacji seksualnej i cyfrowej. Okazuje się, że momentami trudno nam nie tylko nadążyć za 2026 rokiem, ale i XXI wiekiem.

Cyberprzemoc generowana przez AI już obecna w polskich szkołach

W ramach badania pilotażowego, Beata Rajba i Bartosz Głowacki z Wyższej Szkoły Kształcenia Zawodowego we Wrocławiu zapytali uczniów szkół podstawowych w wieku 12-15 lat z gmin Trzebnica i Milcz o to, jak bliski jest im temat cyberprzemocy generowanej przez AI. 38,5% uczniów i 44,4% nauczycieli zgłosili, że mieli z nią bezpośrednie doświadczenia. Jak czytamy, „ankietowani uczniowie zadeklarowali, że AI była używana do przerabiania istniejących zdjęć (30,2%), generowania nowych obrazów (15,6%), tworzenia krótkich filmów lub innych rodzajów animacji (17,7%) oraz generowania nagrań audio symulujących głos ofiary (15,1%)”.

W tych samym badaniu czytamy, że materiały audiowizualne cieszą się większą popularnością wśród pokolenia Z i Alpha, bo są bardziej emocjonalne i lepiej zapadają w pamięć. Co za tym idzie, gdy służą do skompromitowania drugiej osoby, ślad po takim akcie przemocy w ofierze zostanie na dłużej.

Włochy biorą się za deepfake’i

Unia Europejska wprowadziła przepisy regulujące wykorzystanie AI – zakazuje wykorzystywanie chatbotów podszywających się pod ludzi czy tworzenia deepfake’ów wyborczych. Włochy są pierwszym krajem UE, który uznał „deepfake” za przestępstwo. Wprowadzono tam karę do 5 lat pozbawienia wolności za tworzenia treści obraźliwych i fałszywych wygenerowanych przez sztuczną inteligencję.

Deepfake’i czy aplikacje typu nudify mogą zrobić dużą popularność w polskich szkołach. Technologia, która może zrujnować niejedno ludzkie życie jest w zasięgu kilku kliknięć. Niestety, jest to to wciąż temat pojawiający się w polskiej przestrzeni publicznej bardzo rzadko – a także, przynajmniej na chwilę obecną, mało atrakcyjny dla mediów.

Zawsze jednak warto zachowywać spokój, nie panikować. Uczyć oraz uświadamiać siebie, jak i młodsze pokolenie, które wchodzi w świat, który – stety niestety – w dużej części zdefiniuje obecność sztucznej inteligencji.

Ważne telefony

116 123 – Całodobowy telefon zaufania dla osób dorosłych (czynny 7 dni w tygodniu, 24 h na dobę, połączenie bezpłatne).

116 111 – Całodobowy telefon zaufania dzieci i młodzieży (całodobowo, 7 dni w tygodniu, połączenie bezpłatne).

800 12 12 12 – Całodobowy telefon zaufania Rzecznika Praw Dziecka (całodobowo, 7 dni w tygodniu, połączenie bezpłatne).

800 100 100 – Telefon dla rodziców i nauczycieli w sprawie bezpieczeństwa dzieci (linia czynna od poniedziałku do piątku w godzinach 12:00-15:00 i dodatkowo w czwartki w godzinach 16:30-20:30, połączenie bezpłatne).

Fot. nagłówka: Tony Lam Hoang I Unsplash

O autorze

Piszę o polityce, sporcie, sprawach społecznych, kebabach, młodych ludziach i Polsce moich marzeń. Próbuję być publicystą. Lubię historię, od czasu do czasu coś pogotuję. Moje kibicowskie serce jest podzielone między Lecha Poznań a Liverpool FC. Torunianin z urodzenia, Poznaniak z wyboru.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *