Regulatorzy ds. bezpieczeństwa w Internecie w Australii wyrażają obawy wobec platformy AI Grok w związku z gwałtownym wzrostem skarg dotyczących niezgodnych z zgodą, wytworzonych przez sztuczną inteligencję obrazów seksualnych.

Komisarz ds. eBezpieczeństwa powiedział, że zgłoszenia nadużyć opartych na obrazach wytworzonych za pomocą sztucznej inteligencji podwoiły się od końca 2025 roku, co odzwierciedla szeroki globalny wzrost nadużywania narzędzi generatywnych AI. Niektóre z reklamacji omawianych przez regulacyjny organ dotyczyły dzieci, co podnosi ten problem do poziomu poważnego zagrożenia kryminalnego i bezpieczeństwa dzieci.

Zgodnie z komentarzem Komisarza, systemy AI zdolne do generowania realistycznych obrazów w dużych ilościach coraz częściej wykorzystywane są do tworzenia deepfake'ów seksualnych bez zgody. Ofiary często doświadczają silnego stresu emocjonalnego, szkody reputacyjnej oraz długotrwałego uszczerbku psychicznego, a usunięcie takiego materiału może być powolne i trudne po jego rozprzestrzenieniu w internecie.

Grok został wymieniony jako część szerszej analizy regulatora dotyczącej platform AI i ich środków zabezpieczających, a nie jako jedyna przyczyna nadużyć. Komisarz podkreślił, że wszyscy deweloperzy AI i operatorzy platform mają obowiązek wdrożenia skutecznych ochronnych środków, w tym silniejszego nadzoru treści, zabezpieczeń przed wykorzystaniem w sposób nieodpowiedni oraz szybkich procedur usuwania.

Australia posiada jedne z najbardziej zaawansowanych przepisów dotyczących bezpieczeństwa w internecie na świecie, nadając Komisarzowi ds. Bezpieczeństwa Internetowego uprawnienia do wydawania nakazów usunięcia i kar za platformy, które nie działają wobec szkodliwych treści. Jednak szybki rozwój AI generatywnego wyzwania granice istniejących ram regulacyjnych.

„Szybkość i realistyczność obrazów generowanych przez sztuczną inteligencję zmieniły podstawy skali nadużyć opartych na obrazach“, powiedział Komisarz, ostrzegając, że bez silniejszych środków zapobiegawczych liczba skarg będzie prawdopodobnie rosła.

Regulator aktualnie współpracuje z firmami AI, organami ścigania oraz partnerami międzynarodowymi w celu rozwiązania problemu, jednocześnie zachęcając użytkowników do zgłaszania szkodliwego treści oraz poszukiwania pomocy, gdy to konieczne.

W miarę jak narzędzia generatywne AI stają się coraz bardziej dostępne, rośnie presja na firmy technologiczne, by równoważyły innowacje z odpowiedzialnością – a na rządy, by dostosowywały prawa bezpieczeństwa do internetu opartego na AI.

$GMT $PIPPIN $US

#AIAbuse #Deepfakes #OnlineSafety #ArtificialIntelligence #TechRegulation