NOVA APLIKACIJA

ODUVIJEK STE ŽELJELI POGLEDATI PORNIĆ S TAYLOR SWIFT, NATALIE PORTMAN ILI LIDIJOM BAČIĆ? Svi vaši mokri snovi sada mogu postati stvarnost...

Cara Delevingne, Taylor Swift, Sophie Turner i Margot Robbie samo su neke od zvijezda porno uradaka izrađenih novom aplikacijom
 gfycat
 

Želite li pogledati tvrdi pornić s Lidijom Bačić ili Jelenom Rozgom, Goranom Bogdanom ili Antom Ramljakom, ovisno o ukusu i spolnoj orijentaciji, sve što vam je potrebno je PC računalo, veća kolekcija fotografija željene osobe i minimum informatičke pismenosti.

Montirane fotografije zvijezda na tijelima pornoglumica i glumaca postoje otkad postoje alati za obradu fotografija. One imaju svoju brojnu i vjernu publiku na internetu, no za izraditi uvjerljivi lažni video bila je potrebna velika količina stručnog znanja, skupe opreme i vremena - tolika da se to gotovo nikada nije ni radilo. Sve do prije koji mjesec, kada je na internetu osvanula aplikacija Deepfakes - potpuno besplatan program koji koristi algoritme umjetne inteligencije. Deepfakes sam radi većinu posla, a uz minimum truda rezultati su jezivo uvjerljivi.

Print Screen

Aplikaciju je u međuvremenu preuzelo više od 100.000 ljudi, a novoosnovani forum na društvenoj mreži Reddit posvećen izradi lažnih videa u istom je vremenu okupio više od 70.000 članova. Nastala je zajednica entuzijasta koji međusobno razmjenjuju videe, kolekcije fotografija koje se mogu koristiti za izradu videa, dijele tehničke savjete i preporučuju porno glumice čija tijela nalikuju omiljenim holivudskim zvijezdama i slavnim pjevačicama ili sportašicama.

Duboko učenje

Natalie Portman, Scarlett Johansson, Taylor Swift, Margot Robbie, Daisy Ridley i Emma Watson samo su neke od zvijezda koje su proteklih tjedana osvanule u eksplicitnim pornografskim snimkama. Najviše je snimki “miljenica interneta”, poput glumica iz “Igre prijestolja” ili “Ratova zvijezda”, no kako se širi broj korisnika, pojavljuju se snimke sve opskurnijih zvijezda. Evoluirala je i popularna internetska šala u kojoj se montira lice Nicolasa Cagea na scene iz poznatih filmova pa je tako Cage osvanuo u isječcima iz “Supermana”, “Indiane Jonesa”, “Zvjezdanih staza” i brojnih drugih hitova. Međutim, videi s Cageom rijedak su primjer korištenja te tehnologije za išta osim pornografije.

Print Screen

U svijetu informacijskih tehnologija, tehnike “dubokog učenja” - deep learning - već se nekoliko godina usavršavaju i koriste za sve veći spektar poslova koje su nekada obavljali ljudi. Prepoznavanje najbitnijih željenih rezultata pri pretrazi interneta, ponuda marketinškog sadržaja posjetiteljima portala, upravljanje vozilima, strojevima, cijelim tvornicama, pa čak i kreativni poslovi poput pisanja novinskih članaka ili skladanja glazbe sve češće završavaju u rukama umjetne inteligencije.

Googleova umjetna inteligencija AlphaGo uspjela je svladati ljudskog prvaka u strateškoj igri go prije nešto manje od dvije godine, a krajem prošle godine od nule je razvijen potpuno novi algoritam - AlphaGo Zero - koji je nakon samo tri dana učenja “pomeo pod” sa svojim prethodnikom.

Algoritmi za duboko učenje stječu znanje i vještine na način sličan ljudskom učenju - isprobavanjem različitih akcija, pa ponavljanjem uspješnijih uz manje varijacije - uz tu razliku da računala imaju luksuz isprobavati tisuće kombinacija u sekundi. Najbolji rezultati nastaju uz dva odvojena algoritma - “učenika” i “tutora” - od kojih jedan pokušava izvesti neku radnju ili riješiti problem na tisuće različitih načina, dok drugi ocjenjuje uspješnost te radnje i odabire najbolji kao temelj za sljedeću rundu varijacija.

Print Screen

Deepfakes uči koristeći set fotografija željene osobe tako što polagano morfira lice u svakoj odvojenoj sličici videosnimke i uspoređuje sa setom fotografija dok ne postigne najveću moguću sličnost. Što je veća količina ponuđenih fotografija, pod različitim kutevima i osvjetljenjem, to je i konačni rezultat uvjerljiviji. Za sada je najlakše raditi lažne snimke s lažnim osobama iz jednostavnog razloga što je internet pun njihovih fotografija i snimaka, ali s napretkom tehnologije bit će moguće dobivati uvjerljive rezultate i uz znatno manji uzorak.

Čemu čuđenje?

Jednom kada je postala dostupna javnosti, ovakvu je tehnologiju nemoguće zaustaviti. Otvorena je Pandorina kutija u kojoj će se vrlo brzo svakoj snimci pristupati s nevjericom, no IT konzultant Radoslav Dejanović smatra da ta skepsa i nije nužno negativna stvar.

- Već samom činjenicom da znamo kako je tako nešto moguće uklonili smo većinu opasnosti od zloporabe te tehnologije - rekao nam je Dejanović. - Računalno manipuliranje fotografijama toliko je poznata stvar da se baš nitko ne čudi niti uznemirava kad se na internetu pojavi kakva lažirana fotografija. Tako će biti i s videozapisima, uvjeren je, no i napominje kako i dalje ostaju mogućnosti ucjenjivanja, difamacije ili izrade osvetničkih pornouradaka. U budućnosti će lažiranje snimki biti sve jednostavnije pa se s jedne strane otvara opasnost od montiranja lica političara ili javnih dužnosnika u snimke koje prikazuju nemoralne ili nezakonite radnje, ali i s druge strane da se osobe uhvaćene u nedjelu u javnosti brane da se radi o lažnim snimkama, kao što danas političari odbacuju “fake news”.

Print Screen

Ako i zanemarimo šire trendove i moguće opasnosti ove nove tehnologije, ostaje vrlo privatni problem osoba čija su se lica protiv njihove volje našla u snimkama pornografskog sadržaja. Mnogi će se osjećati izrabljeno, napastovano i maltretirano, no njihove su opcije vrlo ograničene, objasnio nam je pravni stručnjak Damir Primorac.

- Ako je lažni video postavljen na stranicu koja je registrirana u Hrvatskoj, žrtva bi se prvo morala obratiti vlasniku domene i zatražiti uklanjanje te ispravak netočne informacije. Tek ako snimka ne bude uklonjena na zahtjev može od suda tražiti privremenu mjeru uklanjanja - rekao nam je Primorac.

- Isto tako, može podnijeti i tužbu radi naknade psihičke boli protiv vlasnika registrirane domene, kao i protiv osobe koja je postavila sadržaj tog videa - rekao je i dodao da je teret dokazivanja štete na tužitelju.

Autorska prava

Ako je snimku na stranicu postavila anonimna osoba, žrtva koja se nalazi na lažnoj snimci može jedino zatražiti uklanjanje, ali i to samo ako stranica potpada pod hrvatske zakone. U slučaju popularnih stranih servisa, poput Pornhuba, bilo kakva tužba morala bi se voditi po američkim zakonima, koji isto nisu pisani s ovakvim zloporabama na umu.

Osoba bi se morala obratiti američkim sudovima i tražiti uklanjanje na temelju povrede časti i ugleda ili na temelju kršenja autorskih prava. Sudski presedani za sada ne postoje, ali stručnjak za visokotehnološko pravo Eric Goldman objasnio je za portal The Verge kako su tužbe za povredu časti skupe, a kršenje autorskih prava u slučaju nekomercijalne primjene lako je obraniti pozivanjem na prvi amandman. Teško bi bilo dokazati i povredu privatnosti u situaciji gdje video ne otkriva privatne dijelove tužitelja, nego se radi o tuđem tijelu. Lakše bi bilo pornozvijezdi čije je tijelo tužiti za povredu autorskih prava.

Zakoni, ni hrvatski ni američki, zapravo još nisu spremni za nove tehnologije ove vrste te će se u bliskoj budućnosti morati započeti javna rasprava o mogućim zloporabama i mogućim pravnim rješenjima, no najveći problem ostaje - jednom kada je neka snimka na internetu, nju je praktički nemoguće zauvijek izbrisati.

Postoji li išta čime se možemo zaštititi? Dejanović objašnjava kako su slavne osobe posebno ranjive čisto zbog dostupnosti njihovih fotografija, a svima ostalima savjetuje da svoje fotografije i videe ne objavljuju javno.

- Taj savjet vjerojatno vrijedi i za budućnost: čuvajte svoju privatnost za sebe pa ćete smanjiti rizik od neukusnih nepodopština - rekao je Dejanović.

Želite li dopuniti temu ili prijaviti pogrešku u tekstu?
Linker
23. travanj 2024 09:13