Sztuczna inteligencja jest wykorzystywana w przeróżny sposób – od tworzenia romantycznych związków po tworzenie AI Slop. Teraz pojawiła się kolejna sprawa, która jeży włosy na głowie – ChatGPT zachwalał poglądy oraz zachowania człowieka, który mógł doprowadzić do śmierci niewinnych osób.
Stalker podsycany przez ChatGPT
Departament Sprawiedliwości USA poinformował o zatrzymaniu 31-letniego Bretta Michaela Dadiga. Mężczyzna pozostaje w areszcie po postawieniu mu zarzutów cyberstalkingu, stalkingu międzystanowego i gróźb międzystanowych. Przerażające w tej sprawie jest to, że ciągle korzystał z ChatGPT, który nie tylko nie reagował na jego przemocowe wiadomości oraz teorie, ale dodatkowo podsycał jego nienawiść.
Brett był podcasterem, który publikował posty o „swoim pragnieniu znalezienia żony i relacjach z kobietami”, ale jego działalność skupiała się głównie na nękaniu osób, które go pociągały. Był nawet na tyle śmiały, że za pośrednictwem filmów publikowanych na platformach takich jak Instagram, Spotify i TikTok ujawniał tożsamość nękanych przez siebie ofiar. W swoich materiałach obnosił się z nienawiścią do kobiet, uważał, że jest „współczesnym Jezusem”, często odnosił się do swojej wiary, stwierdzając równocześnie, że obecne społeczeństwo jest zepsute, dlatego nie może założyć rodziny. Gdy w danym mieście sytuacja robiła się zbyt napięta, przenosił się do kolejnego, kontynuując swoją działalność i atakując nowe ofiary.
Jak czytamy w akcie oskarżenia, w swoich podcastach Dadig opisywał ChatGPT jako swojego „najlepszego przyjaciela” i „terapeutę”. Twierdził, że chatbot zachęcał go do publikowania postów o kobietach, o których nękanie jest oskarżony, aby przyciągnąć hejterów i lepiej monetyzować swoje treści, a także zwrócić uwagę swojej „przyszłej żony”. Do tego dochodził regularny stalking w miejscach publicznych, a jedna z ofiar zeznała, że była przez niego napastowywana fizycznie.
W pewnym momencie zagroził nawet podpaleniem siłowni, w których pracowały niektóre z jego ofiar, twierdząc jednocześnie, że jest „boskim zabójcą” i chce wysłać „przeklęte prosto do piekła”. Za prześladowanie 11 kobiet Brettowi grozi kara do 70 lat więzienia, która może zostać połączona z „grzywną w wysokości do 3,5 miliona dolarów”.
Cyberpsychoza AI, czyli nowe zagrożenie dla zdrowia psychicznego
W akcie oskarżenia Departamentu Sprawiedliwości stwierdzono, że posty Dadiga w mediach społecznościowych wspominały, że „miał epizody maniakalne i zdiagnozowano u niego antyspołeczne zaburzenie osobowości oraz chorobę afektywną dwubiegunową, a obecny epizod jest ciężki, maniakalny z cechami psychotycznymi”. Pokrywa się to z tym, że naukowcy coraz częściej dostrzegają trend wykorzystywania sztucznej inteligencji przez osoby niestabilne emocjonalnie do podsycania swoich teorii czy radykalnych poglądów.
Coraz więcej użytkowników wykorzystuje AI jako formę terapii, prowadząc bardzo intymne rozmowy z botami na temat swojego zdrowia psychicznego. Algorytmy jednak nie są w stanie odpowiednio odczytywać emocji i przez chęć ich lepszego dopasowania do odbiorcy często zaczynają przytakiwać nawet najbardziej niewiarygodnym teoriom.
The New York Times opisał historię 47-letniego Allana Brooksa, który przez trzy tygodnie spędził 300 godzin, debatując z chatbotem na temat ukrytych wzorów matematycznych. AI stwierdziło, że mężczyzna ma rację i udało mu się złamać szyfrowanie „zakazanej matematyki”, co miałoby prowadzić do zbudowania maszyn lewitujących. A to tylko jeden z wielu przykładów, jak obecnie sztuczna inteligencja podsyca niebezpieczne idee czy nawet zachowania.