W zeszłym tygodniu pojawiły się fałszywe zdjęcia Taylor Swift o charakterze jednoznacznie seksualnym podobno zrobione wykorzystania sztucznej inteligencji były rozpowszechniane w mediach społecznościowych. To był po prostu najnowszy i najgłośniejszy przykład rosnących zagrożeń związanych z deepfakes i nękaniem cyfrowym.
Swift nie jest pierwszą kobietą, której przydarzyło się to i nie ostatnią. Można śmiało powiedzieć, że prawie co druga ofiara pornograficznego deepfake'a ma mniej zasobów niż miliarder, gwiazda popu, mający miliony fanów na całym świecie, którzy są bardzo aktywni w Internecie i mają w tym dużą wiedzę. Ale fakt, że to może się zdarzyć nawet Taylor Swift ponownie zwrócił uwagę na tę kwestię i zwrócił uwagę szerszej publiczności. Zwolennicy twierdzą, że zapoczątkowało to nawet ustawodawstwo federalne mające na celu zwalczanie nadużyć.
We wtorek senatorowie amerykańscy wprowadzili rozwiązanie dwupartyjne Ustawa o zakłócaniu jawnie sfałszowanych obrazów i edycji bez zgody z 2024 r (Ustawa DEFIANCE), aby zająć się i powstrzymywać od rozpowszechniania głębokiej fałszywej pornografii bez zgody. Projekt ustawy umożliwiłby ofiarom „cyfrowego fałszerstwa” – „stworzonego przy użyciu oprogramowania, uczenia maszynowego, sztucznej inteligencji lub innych środków generowanych komputerowo lub technologicznych, które mogą fałszywie wyglądać na autentyczne” – pozywanie sprawców na drodze cywilnej, dając im możliwość dochodzenia sprawiedliwości po raz pierwszy.
Według Omny Mirandy Martone, która jako założycielka i dyrektor generalna Omny współpracowała z ustawodawcami nad ustawą, ofiary nielegalnej fałszywej pornografii nie odniosły dużego sukcesu w pozywaniu osób, które tworzą, rozpowszechniają fałszywą pornografię lub nagabywają ją. Stowarzyszenie na rzecz Zapobiegania Przemocy Seksualnej (SVPA) . Technologia jest wciąż dość nowa i podobnie jak w przypadku innych kwestii społecznych związanych z technologią, przepisy muszą nadrobić zaległości. W międzyczasie technologia rozwinęła się, dzięki czemu tworzenie deepfake’ów generowanych przez sztuczną inteligencję jest jeszcze łatwiejsze.
„Ilość przemocy seksualnej wobec zwykłych ludzi gwałtownie wzrosła”.
Aż do jakichś dwóch lat temu. . . ktoś musiał mieć komputer o dużej mocy, musiał dużo wiedzieć o technologii i być w stanie pracować nad skomplikowanym systemem, a potencjalnie nawet samodzielnie go zbudować. Potrzebowali też wielu zdjęć ofiary, żeby wyglądało to realistycznie” – wyjaśnia Martone. „Ale technologia sztucznej inteligencji znacznie się rozwinęła i obecnie każdy może stworzyć naprawdę realistycznie wyglądającą, bezsensowną, fałszywą pornografię, używając tylko jednego lub dwóch zdjęć. Nie muszą wiedzieć dużo o technologii, mogą po prostu wejść do aplikacji lub strony internetowej na swoim telefonie lub komputerze i po prostu zrobić to w ciągu kilku sekund.
Dziś jest to zadziwiające, biorąc pod uwagę, że do 2017 r. jeden na osiem użytkownicy mediów społecznościowych zgłosili, że są celem niechlubnej pornografii, a jeden na 20 dorosłych korzystających z mediów społecznościowych był sprawcą – wynika z badania Inicjatywa na rzecz praw obywatelskich w cyberprzestrzeni .
Biorąc pod uwagę postęp technologiczny — oraz fakt, że „każdy mający dostęp do Internetu może z łatwością go stworzyć” — „ilość przemocy seksualnej wobec zwykłych ludzi gwałtownie wzrosła” – mówi Martone. Najczęstszym celem ataków były gwiazdy, ze względu na dostępność ich zdjęć. „Ale teraz [sprawcy] potrzebują tylko kilku zdjęć, które mogą uzyskać z czyjegoś LinkedIn, mediów społecznościowych lub strony internetowej swojej firmy” – wyjaśnia Martone.
Zdaniem Margaret Mitchell, byłej współprzewodniczącej zespołu Google ds. etycznej sztucznej inteligencji, jest to nieproporcjonalnie szkodliwe dla kobiet. „To skrajnie naruszające zasady, które ma na ciebie niezwykle traumatyczny wpływ psychologiczny, jeśli jesteś jego ofiarą. Ma także charakter uprzedmiotawiający, więc wpływa na to, że inni ludzie będą postrzegać Cię przez pryzmat seksualności, a nie przez pryzmat profesjonalizmu. Oznacza to, że może to wpłynąć na możliwości” – mówi 247CM.
„Kobiety już teraz walczą o to, aby były postrzegane jako liderki i traktowane poważnie w miejscu pracy. Pojawienie się tego rodzaju treści może mieć wpływ na możliwość awansu kobiet i zajmowania większej liczby stanowisk kierowniczych” – kontynuuje Mitchell, obecnie główny naukowiec ds. etyki w Hugging Face, otwartej platformie dla twórców sztucznej inteligencji. „Przenika do wielu rzeczy w sposób, który czasami może być naprawdę trudny do wyśledzenia, ale zasadniczo wpływa na to, jak siebie postrzegasz, co o sobie myślisz i jak traktują Cię inni ludzie”.
W przypadku Swifta obrazy pochodzą z 4chan oraz grupa na Telegramie wykorzystywana do rozpowszechniania obelżywych zdjęć kobiet 404 Mediów . Według portalu Designer, bezpłatny generator sztucznej inteligencji firmy Microsoft, jest często używany do tworzenia treści bez zgody. W odpowiedzi na doniesienia Microsoft zamknął lukę co pozwoliło Designerowi stworzyć pornografię gwiazd generowaną przez sztuczną inteligencję.
Ale w międzyczasie zdjęcia szybko zalały X, wcześniej znany jako Twitter. W nietypowym przykładzie moderowania treści w epoce Elona Muska X wprowadził tymczasową blokadę wyszukiwania „Taylor Swift”, co spowolniło rozprzestrzenianie się, ale nie było w stanie usunąć wszystkich obrazów, CBS News zgłoszone . Odpowiedź X nastąpiła po tym, jak legiony Swifties zgłosiły posty i zażądały od witryny ich usunięcia. Stało się to również po tym, jak posty były już szeroko rozpowszechnione – jeden z nich miał już 45 milionów wyświetleń, 24 000 retweetów oraz setki tysięcy polubień i zakładek w ciągu 17 godzin przed zawieszeniem konta zweryfikowanego użytkownika, według Krawędź . W poniedziałek 29 stycznia blokada wygasła.
Chociaż SVPA współpracuje z Kongresem od jakiegoś czasu – Martone twierdzi, że w zeszłym roku wysłali list otwarty, wzywając ich do zajęcia się tą sprawą – Martone wydaje się, że „nie podjęli działań, dopóki wiadomość o Taylor Swift nie stała się naprawdę głośna”.
„Nawet jeśli masz wrażenie, że nikogo nie interesują Twoje zdjęcia, AI się tym przejmuje”.
Mimo to większość ofiar nielegalnej pornografii nie jest znana. Większość z nich to kobiety, a wiele z nich ma marginalizowaną tożsamość ze względu na rasę, pochodzenie etniczne i/lub orientację seksualną. Na przykład SVPA współpracowała z kobietą, która była studentką college'u ćwiczącą na siłowni, kiedy została uderzona przez mężczyznę, którego odrzuciła. Kilka tygodni później inny członek siłowni odciągnął kobietę na bok, aby poinformować ją, że mężczyzna, którego odrzuciła, nakręcił jej fałszywą pornografię, którą pokazywał innym członkom siłowni i opublikował to na Instagramie, gdzie udało jej się to usunąć. Martone twierdzi, że niedawno nakręcono z nich deepfake porno, biorąc pod uwagę ich pracę nad tą sprawą.
Bez przepisów trudno jest zastosować jakiekolwiek środki odwoławcze. Ponieważ problematyczne treści są uznawane za fałszywe, nie są uznawane za zniesławienie – dodaje Martone.
W każdym razie jako społeczeństwo wszyscy powinniśmy pracować nad zapobieganiem tworzeniu i udostępnianiu treści bez zgody – twierdzą eksperci. Myśl, że problem narasta i że nie da się włożyć dżina z powrotem do butelki, nie powinna budzić poczucia nieuchronności ani odrętwienia.
Tym, którzy myślą, że nigdy nie znaleźliby się w takiej sytuacji, Mitchell podkreśla również, że dzięki technologii stało się to tak powszechne, że każdy może zostać dotknięty.
Jak wyjaśnia Mitchell: „Ludzie powinni mieć świadomość, że wszelkie treści, które umieszczają w Internecie, mogą potencjalnie zostać przejęte przez osoby prywatne lub korporacje w celu wykorzystania ich w ramach szkoleń w zakresie sztucznej inteligencji. Może więc nie być tak, że zdjęcie rodzinne na Facebooku zainteresuje ogół społeczeństwa. Ale to nie jest pytanie. Pytanie brzmi, czy te treści zostaną przejęte przez ogromną korporację technologiczną w sposób, który może pomóc w dalszym uprzedmiotowianiu kobiet?
Ostatecznie jest to technologia, o której musisz wiedzieć i być ostrożny. „Nawet jeśli masz wrażenie, że nikogo nie interesują Twoje zdjęcia, AI się tym przejmuje” – mówi Mitchell. „Systemy sztucznej inteligencji nadal mogą je wychwycić, nadal można je wykorzystać do wprowadzenia w błąd i nadal można je wykorzystać w dowolnej sytuacji zemsty, a także w każdej sytuacji, w której ktoś, kto będzie złośliwy, może cię osobiście skrzywdzić”.