RIZICI AI-ja

Znanstvenici upozoravaju: Ovo je sedam najvećih opasnosti koje donosi umjetna inteligencija

Svakim danom raste popis znanstvenika koji istupaju u javnost upozoravajući na opasnosti od neregulirane umjetne inteligencije

Ilustrativna fotografija

 Kheng Ho Toh/Panthermedia/Profimedia

Svakim danom raste popis znanstvenika koji istupaju u javnost upozoravajući na opasnosti od neregulirane umjetne inteligencije koja se ubrzano razvija u najvećim svjetskim tehnološkim laboratorijima. Mnogi se pitaju čega se to točno stručnjaci boje kada je riječ o tehnologiji budućnosti koja je već dio svakodnevnog života.

Kratkoročni, srednjoročni i dugoročni rizik da nam AI neće donijeti ništa dobro odnosi se na smanjenje broja radnih mjesta, gubitak privatnosti, preplavljivanje prostora za javni diskurs lažnim ili iskrivljenim sadržajima, diskriminaciju, produbljivanje društveno-ekonomskog jaza, izazivanje šokova na tržištima i najapokaliptičniju mogućnost - uspon robota-ubojica ili u najmanju ruku njihov pad u pogrešne ruke.

Posljednji znanstvenik koji je poslao dramatičnu poruku svijetu, Geoffrey Hinton, jedan je od tvoraca sustava iza umjetne inteligencije. Hinton je upravo predao svoj otkaz u Googleu u kojem je radio kao istraživač, uz objašnjenje da "želi slobodu kako bi svijetu mogao reći o opasnostima daljnjeg razvoja AI-ja bez strogih pravila".

U fokusu kritičara nekoliko je rizika koje donosi umjetna inteligencija.

1. Društvena manipulacija

Ona je već dio svijeta u kojem živimo. Naime, društveni mediji putem svojih autonomnih algoritama vrlo su učinkoviti u ciljanom marketingu. Znaju tko smo, što volimo i izuzetno su vješti u pogađanju toga što mislimo.

Strah od toga što umjetna inteligencija može, i na koji je način sposobna manipulirati našim ponašanjem, izazivaju primjeri od kojih je najrecentniji onaj s Ferdinandom Marcosom mlađim koji je, koristeći vojsku trolova, na društvenoj mreži TikTok pridobio glasove mlađih Filipinaca na izborima prošle godine.

"Porota o tom slučaju još raspravlja", ali moguće je i da se kompanija Cambridge Analytica 2016. godine okoristila privatnim podacima 50 milijuna korisnika Facebooka kako bi utjecala na ishod predsjedničkih izbora u Americi na kojima je pobijedio Donald Trump te referenduma o Brexitu. Obje "odluke naroda" imale su dalekosežne posljedice. Recept je jednostavan: algoritmi i privatni podaci upotrebljavaju se za identifikaciju pojedinca na koje se usmjerava propaganda i vrši manipulacija.

Već je dovoljno teško razlikovati umjetnu inteligenciju od stvarnih osoba, što utjecaj AI u virtualnom svijetu čini strahovitim.

2. Gubitak radnih mjesta

Zbog umjetne inteligencije mnogi bi mogli ostati bez posla, a ta stvarnost mogla bi biti bliža nego što mnogi misle. To se ne odnosi samo na najteže poslove, nego i na one koji, prema riječima Maxa Erika Tegmarka, fizičara i velikog kritičara nekontroliranog razvoja AI, ispunjavaju smislom ljudske živote. Štoviše, umjetna inteligencija više prijeti poslovima "bijelih ovratnika" nego fizičkim radnicima. AI se već obilno upotrebljava u marketingu, proizvodnji i zdravstvu.

No, prema procjenama Goldman Sachsa, kompjutori bi u potpunosti na globalnoj razini mogli preuzeti 18 posto radnih mjesta. Strategist Chris Messina, tvorac hashtaga (#), navodi da su idući na meti za robotsko preuzimanje poslovi računovođa i pravnici. "U tom sektoru vidjet ćemo velika previranja", smatra Messina.

3. Gubitak privatnosti

Razvoj tehnologije omogućio je praćenje i analizu svega što pojedinci rade dok su online, ali i na fizičkom planu. Kamere su gotovo svugdje, a algoritmi za facijalno prepoznavanje znaju dobro tko je tko. Na temelju tih sustava sazidan je pomalo zastrašujući kineski program društvenog ocjenjivanja, prema kojem se pokušava bodovati ponašanje 1,4 milijarde Kineza. Ponašanja koja se bilježe kako bi se ocjenjivalo građane su pušenje u prostorima u kojima je to zabranjeno, prelazak ceste na mjestima na kojima to nije dopušteno ili, primjerice, koliko su vremena proveli igrajući videoigrice. Takav Big Brother ne znači samo zadiranje u privatnost, nego i mogućnost početka društvene opresije 2.0.

4. Diskriminacija

Nije riječ samo o diskriminaciji i društvenim predrasudama koje su primijećene kod strojnog učenja, a gdje su na Zapadu u lošijoj poziciji rasne manjine i žene. Budući da strojevi mogu prikupljati, pratiti i analizirati podatke o pojedincima, isto tako mogu te informacije upotrebljavati protiv njih. Kao primjer navode se osiguravajuća kuća koja "zna" da osoba često razgovara na mobitel ili poslodavac koji odbija zaposliti osobu zbog "niskog broja društvenih bodova". Jedan od primjera je američka policija koja koristi policijske algoritme za predviđanje mjesta zločina. Na te algoritme utječu stope uhićenja koje neproporcionalno pogađaju crnačke kvartove i proizvode opresivniju atmosferu u tim dijelovima gradova.

5. Slabljenje etičnosti i dobre volje

Na to je upozorio i papa Franjo govoreći o svijetu koji se rađa dolaskom umjetne inteligencije. Nova tehnologija promijenit će živote ljudi baš kao što je to učinio internet u devedesetima. "Ako tzv. tehnološki progres čovječanstva postane neprijatelj općeg dobra, to će dovesti do regresije na oblik barbarizma u kojem zakon jačeg ima diktat", izjavio je Papa.

Upravo je ChatGPT, umjetna inteligencija čije je otkriće nedavno uzburkalo svjetsku javnost, izazvao najveću zabrinutost. Naime, korisnici su upotrijebili novu tehnologiju da se izvuku, primjerice, od pisanja eseja, što je izazvalo rasprave o utjecaju na čestitost u akademskom životu, ali i na kreativnost i umjetnost.

6. Samoupravljajuće oružje

Mnogi su uvjereni da će utrka u nuklearnom naoružanju zamijeniti utrku u razvoju autonomnog oružja.

Ruski predsjednik Vladimir Putin prije više je godina, govoreći pred studentima na jednom ruskom sveučilištu, izjavio: "AI je budućnost ne samo za Rusiju, nego i za čovječanstvo. Tko postane lider na tom području, postat će vladar svijeta". Još 2016. godine je 30.000 znanstvenika potpisalo peticiju kojom se traži zaustavljanje istraživanja autonomnog oružja. No, osim što bi se ubojito oružje moglo oteti kontroli i razviti vlastitu volju, što pripada u domenu hipotetskog predviđanja i ZF filmova, objektivna je opasnost da bi takvo oružje moglo pasti u pogrešne ruke, pojedinaca ili skupina koje slabo cijene ljudski život. Jednom pokrenuti, teško bi ih bilo zaustaviti ili nadvladati.

7. Produbljenje socio-ekonomskih razlika i potresi na tržištu

Društveni jaz jedna je od opasnosti regrutacije na radnom mjestu koju provodi AI. Određivanje karakteristika kandidata za radno mjesto analizom glasa i lica u sebi nosi opasnost od diskriminacije u procesu zapošljavanja, smatraju stručnjaci. Također, već se pokazalo da su fizički radnici zbog uvođenja automatizacije doživjeli smanjenje plaća dok su "bijeli ovratnici" manje-više prošli neokrznuti, a neki čak i poboljšali platne liste.

Zbog automatiziranja poslovanja u financijskom sektoru javlja se bojazan da bi iduću veliku krizu mogao izazvati AI. To se već dogodilo u dva navrata zbog softvera koji su "poludjeli" i bezumnim ponašanjem izazvali kaos na tržištu.

Želite li dopuniti temu ili prijaviti pogrešku u tekstu?
Linker
18. srpanj 2024 03:25