Miało być nowocześnie, kreatywnie i wygodnie. Skończyło się na… no właśnie. Niewinna fotografia z apelu, zawodów sportowych czy dnia otwartego w szkole może zostać przerobiona przez algorytm w materiał służący do zastraszania uczniów.
Przestępcy wykorzystują zdjęcia uczniów ze stron internetowych i mediów społecznościowych do tworzenia seksualizowanych fałszywek generowanych przez AI.
Sztuczna inteligencja upokarza. Ofiarami kobiety i dzieci
Generatywna sztuczna inteligencja była reklamowana jako narzędzie demokratyzujące kreatywność. Każdy miał zyskać możliwość tworzenia grafik i filmów bez specjalistycznej wiedzy. Rzeczywistość brutalnie zweryfikowała ten entuzjazm. AI zaczęto wykorzystywać do pracy, ale też do upokarzania ludzi, zwłaszcza kobiet oraz dzieci. Niedawno internet obiegła fala zmanipulowanych obrazów, na których algorytmy Groka usuwały ubrania z prawdziwych fotografii.
Jak opisuje The Guardian, cyberprzestępcy pobierają fotografie dzieci z publicznych kanałów szkoły, a następnie przerabiają na upokarzające, a potem żądają pieniędzy, grożąc publikacją materiałów w przypadku nieotrzymania gotówki. To gorzka ironia czasów. Dotychczas szkoły publikowały zdjęcia uczniów, by chwalić sukcesy i pokazywać osiągnięcia. Tymczasem wirtualny aplauz może stać się pułapką.
Zdjęcie z zawodów sportowych materiałem dla szantażysty
Brytyjscy politycy zaczynają reagować ostrzej. Minister technologii Liz Kendall skrytykowała narzędzia pozwalające generować intymne deepfejki prawdziwych osób, wskazując, że państwo nie może tolerować poniżających materiałów uderzających w obywateli. I trudno się dziwić. Skala problemu jest duża, jeśli nawet zwykłe zdjęcie z biegu szkolnego można zmienić w narzędzie do szantażowania.
Z uwagi na fakt, że publiczne galerie zdjęć stały się katalogiem łatwych celów dla przestępców, warto wdrożyć przynajmniej podstawowy pakiet ochrony uczniów.
Najczęściej rekomendowane kroki to:
- usunięcie zdjęć pokazujących twarze uczniów z bliska,
- publikowanie fotografii z dystansu lub od tyłu,
- rezygnacja z podpisywania zdjęć imieniem i nazwiskiem,
- regularny audyt szkolnych stron internetowych i profili społecznościowych,
- ograniczenie widoczności treści poprzez ustawienia prywatności,
- ponowne weryfikowanie zgód na wykorzystanie wizerunku,
- natychmiastowy kontakt z policją w razie incydentu.

Rozsądek jest ważniejszy niż marketing. Lepiej pokazać puchar bez twarzy zwycięzcy niż tłumaczyć się z katastrofy.
Ofiara nie kliknęła, nie wysłała zdjęcia, nie zawiniła
Kilka lat temu publikacja zdjęcia z akademii była rutyną. Dzisiaj każda taka decyzja wymaga kalkulowania ryzyka. To smutny znak czasów, w których rodzinne zdjęcie, fotografia z wakacji czy portret szkolny mogą zostać wykorzystane przeciwko człowiekowi. Najbardziej niepokojące jest to, że ofiara często nie zrobiła nic złego. Nie wysłała prywatnych zdjęć, nie popełniła błędu, nie kliknęła w podejrzany link. Wystarczyło, że ktoś opublikował jej zwykłą fotografię, a resztę zrobił przestępca z pomocą AI.
Podobna utrata kontroli nad tym, co „o nas decyduje”, widoczna jest również w zupełnie innym obszarze – na rynku pracy. AI rządzi rekrutacją w UK. Kandydaci czują się odrzucani przez roboty. Rozmowa kwalifikacyjna przestaje mieć ludzki wymiar. Przynajmniej pierwszy etap selekcji odbywa się bez udziału człowieka. Zamiast rekrutera pojawia się algorytm analizujący CV, odpowiedzi czy strukturę wypowiedzi.
