X ograničava uređivanje slika putem Groka nakon skandala
Društvena mreža X ograničila je mogućnost uređivanja slika putem svojeg AI alata Grok isključivo na korisnike koji plaćaju pretplatu. Odluka je donesena nakon što se platforma suočila s ozbiljnim kritikama zbog toga što su korisnici mogli stvarati seksualizirane deepfake sadržaje.
Putem službenog X profila alata Grok, tvrtka je objavila da su generiranje i uređivanje slika trenutačno dostupni samo pretplatnicima koji plaćaju uslugu, uz poveznicu za registraciju, što znači da za pristup toj funkcionalnosti moraju biti evidentirani ime i podaci o plaćanju. Pritisak na X da spriječi korisnike u traženju od Groka da stvara izmijenjene slike koje razodijevaju osobe bez njihova pristanka dodatno je pojačan prošlog tjedna.
Britanski premijer Keir Starmer izjavio je da vlada u potpunosti podržava regulatora Ofcom u poduzimanju mjera protiv takvog sadržaja, opisujući stvaranje seksualiziranih slika odraslih i djece kao sramotno i odvratno. Ofcom i Europska komisija zajednički su zatražili od X-a da se pozabavi širenjem takvih slika, optužujući tvrtku da dopušta nezakonito ponašanje na svojoj platformi.
Ovaj potez dodatno naglašava rastući pritisak regulatora na digitalne platforme u pogledu kontrole generativne umjetne inteligencije i njezine zlouporabe. Sve više država smatra da identifikacija korisnika i ograničavanje pristupa osjetljivim AI funkcijama može biti jedan od alata za smanjenje štetnog sadržaja. Istodobno se otvara rasprava o tome je li vezivanje AI mogućnosti uz plaćene račune učinkovita mjera ili tek privremeno rješenje.
Stručnjaci upozoravaju da tehnološke barijere same po sebi nisu dovoljne bez snažnih mehanizama moderacije i jasnih pravila korištenja. U Europi se paralelno provode Online Safety Act i Akt o umjetnoj inteligenciji, koji platformama nameću veću odgovornost za sprječavanje nezakonitog i štetnog sadržaja. Očekuje se da će slične mjere uslijediti i na drugim globalnim platformama koje nude generativne alate. Povjerenje korisnika i oglašivača sve više ovisi o sposobnosti mreža da spriječe ozbiljne zlouporabe tehnologije. Istodobno, kompanije balansiraju između regulatornih zahtjeva i zadržavanja inovacijskog tempa.
Ovakvi slučajevi dodatno ubrzavaju potrebu za jasnijim etičkim i tehničkim standardima u razvoju AI alata. Dugoročno, regulatorni pritisak mogao bi značajno oblikovati način na koji se generativna umjetna inteligencija nudi i koristi u javnom digitalnom prostoru.