U zadnjih deset godina svjedočimo značajnomu razvoju u području umjetne inteligencije. Naime, ne postoji gospodarski sektor koji do sada nisu zahvatili neki oblici promjena. U sektoru logistike već sada brojne tvrtke korištenjem različitih algoritama umjetne inteligencije pokušavaju skratiti vrijeme prijevoza robe ili umanjiti misiju CO2. U financijskome svijetu umjetna inteligencija doprinosi zaštiti potrošača, a u budućnosti potencijalno i boljoj usluzi koja će biti usko povezana s navikama i potrebama korisnika. Automobilska industrija sve više ulaže u autonomna vozila koja će biti u mogućnosti potpuno samostalno odvesti osobu od kuće do posla. Otvaraju se prilike poput individualnoga pristupa liječenju i kreiranju lijekova. Na burzama diljem svijeta već sada dobrim dijelom međusobno trguju algoritmi. Dakako, treba spomenuti i fascinantni ChatGPT koji je u pravilu pokrenuo svekolike rasprave u javnosti oko opće sigurnosti čovječanstva uslijed ovako brzoga razvoja ovih tehnologija. Iz svega navedenoga, očito je da umjetna inteligencija već sada mijenja diskurs poslovanja i života općenito na globalnoj razini.
Naravno, svaka nova tehnologija uzrokuje poremećaje u društvu različitih intenziteta. Umjetna inteligencija zasigurno će ostaviti traga na tržištu rada, načinu ratovanja čemu – već svjedočimo u Ukrajini. Također, ova tehnologija predstavlja brojne izazove za nacionalnu sigurnost. U ovome tekstu predstavlja se utjecaj umjetne inteligencije na kibernetičku sigurnost u Europskoj uniji (EU). Cilj je podrobnije upoznati područje umjetne inteligencije iz politološke perspektive te isprepletenost umjetne inteligencije i kibernetičke sigurnosti.
Kibernetičke prijetnje u području umjetne inteligencije
Svaka tehnologija u povijesti čovječanstva koristila se u konstruktivne i destruktivne svrhe. Isti je slučaj i s umjetnom inteligencijom. Uslijed sve značajnije količine kibernetičkih prijetnji u digitalnome svijetu, organizacije su počele pribjegavati metodama umjetne inteligencije kako bi se zaštitile (CEPS, 2021: 15). S druge strane, različite hakerske skupine kontinuirano kreiraju nove maliciozne programe kojima je u pravilu cilj stjecanje financijske koristi. Situacija je jasna. Kako bi se ubuduće zaštitili, pouzdavat ćemo se u modele umjetne inteligencije. U izvješću Europske agencije za sigurnost mreža i informacija (ENISA) spominje se sljedećih nekoliko natuknica kao primarnih koncepata koji su nužni za zaštitu umjetne inteligencije: razumjeti što treba zaštititi, razumjeti modele upravljanja podacima, upravljati prijetnjama u složenome prostoru na sveobuhvatan način koristeći se usuglašenim modelima i taksonomijom te je potrebno razviti posebnu kontrolu kojom će se uvidjeti sigurnost umjetne inteligencije (ENISA, 2020: 6). Zaštita modela umjetne inteligencije, pa i zaštita od modela umjetne inteligencije, ima svoje specifičnosti koje traže i zasebno definirane javne politike.
Razumijevanju umjetne inteligencije pripomaže shvaćanje njezinoga životnog ciklusa. Naime, životni ciklus dijeli se na definiranje poslovnih ciljeva, uzimanje podataka (data ingestion), istraživanje podataka (data exploration), procesuiranje podataka (data processing) na način koji pogoduje treniranju (model training) i doradi (model tuning) odabranih modela za učenje umjetne inteligencije (ENISA, 2020: 14). Nakon toga dolazi dio prijenosa učenja (transfer learning), koji u suštini predstavlja ishodišnu točku treniranja modela (ENISA, 2020: 20). Implementacija modela (model deployment) predstavljanje je istreniranoga modela krajnjim korisnicima (ENISA, 2020: 20). Naknadno je potrebno u kontinuitetu pratiti promjene u kvaliteti modela te ih pokušavati kompenzirati. Taj dio životnoga ciklusa zove se održavanje modela (model maintenance) (ENISA, 2020: 20). Zadnja je stavka životnoga ciklusa razumijevanje poslovanja (business understanding), a ona se odnosi na dio ciklusa u kojem organizacije procjenjuju utjecaj umjetne inteligencije na vlastito poslovanje te ga naknadno žele pozitivno maksimalizirati (ENISA, 2020: 21).
Foto: Pixabay
U izvješću ENISA-e prijetnje se dijele na osam skupina, a one su redom: zlouporaba, fizički napad, katastrofe, kvarovi, presretanje podataka, legalne prijetnje, zastarjeli sustavi i na kraju nenamjerne štete (ENISA, 2020: 29). Naravno, u ovome se poglavlju ne proučavaju sve moguće vrste prijetnji već samo kibernetičke prijetnje. Kibernetičke prijetnje umjetnoj inteligenciji ponajviše se nalaze u skupini zlouporabe. U sklopu te skupine pojavljuju se kibernetičke prijetnje poput unutarnje prijetnje, Distributed Denial of Service (DDoS), neovlaštenoga pristupa podacima ili bilo kakav neovlašteni pristup modelima strojnoga učenja i slično tome. Također, u drugim skupinama kao što je presretanje podataka nalaze se kibernetičke prijetnje krađe podataka. Isto tako, postoje presjeci kibernetičkih prijetnji koje se pojavljuju u više skupina, a to su u pravilu skupine zlouporabe, kvarova i nenamjernih šteta.
Nadalje, postoje kibernetičke prijetnje koje su kompleksnije, a jedna je takva vrsta prijetnje deepfake. Deepfakeovi su tehnologija u razvoju koja se koristi modelima dubokoga učenja prilikom kreiranja videa, slika, tekstova ili lažnih događaja (CEPS, 2021: 30). Ova se tehnologija najviše koristi za kreiranje sadržaja pornografskoga karaktera te na taj način pokušava omalovažiti žrtvu (CEPS, 2021: 32). Dakako, posljedice se mogu osjetiti na političkoj sceni, u propustima kibernetičke sigurnosti ili području vojske (CEPS, 2021: 33, 34). Dobar je primjer korištenja deepfakea lažna objava u kojoj predsjednik Ukrajine Zelensky poziva svoj narod i vojsku na predaju. Completely Automated Public Turing tests to tell Computers and Humans Apart (CAPTCHAs) stvoreni su kako bi spriječili maliciozno djelovanje automatiziranih programa, a danas maliciozni programi potpomognuti modelima strojnoga učenja mogu prevariti sustav CAPTCHAs u pola sekunde (CEPS, 2021: 35). Spominju se i kibernetički napadi poput skupine autonomnih dronova (swarming attacks) koji bi imali mogućnost prepoznavanja lica bez dobrovoljnoga pristanka ljudi (CEPS, 2021: 36).
Iz priloženoga se može uvidjeti postojanje kibernetičkih prijetnji koje predstavljaju rizik za daljnji razvoj umjetne inteligencije. Međutim, s druge strane, teško je još predvidjeti dinamiku kretanja i trendove kibernetičkih prijetnji za umjetnu inteligenciju s obzirom na trenutačno dostupne podatke i analize. Radi se o generaciji tehnologije koja je relativno nova te za koju već sada postoje dokazi o malicioznome korištenju. Promatrajući povijest razvoja tehnologija takvo maliciozno korištenje zasigurno će se nastaviti, ali treba još vremena kako bismo uvidjeli kojom će se dinamikom i intenzitetom to događati.
Normativni okvir umjetne inteligencije u EU
Za svako provođenje politike važno je stvoriti normativni okvir koji će omogućavati razvoj umjetne inteligencije. Prilika za EU leži u vrijednosnome pristupu tehnologiji umjetne inteligencije, a pouzdanost u tehnologiju i vladavina prava temelji su takvoga pristupa. U slučaju umjetne inteligencije temelj svega predstavlja praksa kojom se prikupljaju i obrađuju osobni i svi drugi podaci kao osnovno gorivo za bilo koji model strojnoga ili dubokoga učenja.
Važan preokret za obradu podataka na razini EU-a predstavlja donošenje Opće uredbe o zaštiti podataka (Europski parlament i vijeće, 2016). Ova uredba, koju su sve države članice morale uvesti u svoj zakonodavni okvir, detaljno i vrlo opširno definira način obrade osobnih podataka. Značaj ove uredbe leži upravo u tome što regulira jedan od temelja umjetne inteligencije. Drugim riječima, sve organizacije koje koriste nečije osobne podatke kako bi trenirale modele strojnoga ili dubokoga učenja moraju to raditi u skladu s ovom Uredbom. Nadalje, u 2020. godini donesena je i Europska strategija za podatke (Europska komisija, 2020a) koja prepoznaje važnost dostupnosti podataka te njihov potencijal za treniranje modela umjetne inteligencije. Također, napominju se određeni problemi koji mogu posljedično imati utjecaj na kvalitetu modela umjetne inteligencije, a to su prvenstveno slučajevi nedostupnosti podataka (Europska komisija, 2020: 6), interoperabilnost i kvaliteta podataka (Europska komisija, 2020a: 8).
Foto: Shutterstock
Jedan važan dokument koji je donijela Europska komisija 2018. godine je Umjetna inteligencija za Europu (Europska komisija, 2018). Ovaj dokument predstavlja strategiju umjetne inteligencije. Na samome početku dokumenta definira se pojam umjetne inteligencije te se napominje značaj koji ova tehnologija već ima na sveukupni razvoj društva i industrije (Europska komisija, 2018: 1). Ciljevi dotične strategije mogu se svesti na nekoliko stavki. Prvo, Europa treba biti konkurentna u prostoru umjetne inteligencije. Drugo, nitko ne zaostaje u procesu digitalne transformacije i treće, korištenje novih tehnologija treba se temeljiti na vrijednostima. Dakako, kreatori ovoga dokumenta svjesni su važnosti međunarodnoga položaja EU-a u kompetitivnome međunarodnom okružju u kojem Europa zaostaje u privatnim ulaganjima za Azijom i Sjevernom Amerikom (Europska komisija, 2018: 4). Daljnji načelni koraci koji će se poduzimati idu u smjeru jačanja tehnoloških i industrijskih kapaciteta EU-a i prihvaćanja umjetne inteligencije u svim područjima gospodarstva (Europska komisija, 2018: 6), prihvaćanja socioekonomskih posljedica uzrokovanih pojavom umjetne inteligencije i pripreme na njih (Europska komisija, 2018: 12), osiguravanja etičkoga i pravnoga okvira za dotičnu tehnologiju (Europska komisija, 2018: 15) i udruživanje snaga, odnosno zemalja članica EU-a (Europska komisija, 2018: 18).
U travnju 2021. godine Europska komisija predložila je prvu jaku regulativu o umjetnoj inteligenciji. U ovome se dokumentu, koji zemlje članice i Europski parlament tek trebaju ratificirati, prepoznaju različite razine rizika. Prva takva razina predstavlja neprihvatljivi rizik koji predstavlja modele poput klasificiranja ljudi s obzirom na njihovo ponašanje i ekonomski status ili biometrijsko prepoznavanje. Ovakvi bi primjeri modela u budućnosti trebali biti zabranjeni. Druga navedena razina rizika predstavlja visoki rizik i u ovu skupinu pripadaju modeli kao što su: modeli u sklopu igračaka, auta, medicinskih uređaja i sl. Nakon toga napominje se generativna umjetna inteligencija poput ChatGPT-a koja će morati zadovoljavati uvjete transparentnosti. Nakraju, posljednja skupina predstavlja ograničeni rizik koji mora poštovati minimalne zahtjeve transparentnosti. Naime, svaka osoba koja koristi ovakve modele mora biti informirana da se trenutno nalazi u interakciji s modelom koji koristi koncepte strojnoga ili dubokoga učenja. Aplikacije toga karaktera generiraju ili manipuliraju sadržajem slika, video ili audio zapisa. EU s ovom regulativom postaje svjetskim pionirom u reguliranju umjetne inteligencije. Zadaća ovakvoga akta ne bi smjela biti pretjerano reguliranje koje će zaustaviti razvoj umjetne inteligencije te naposljetku spriječiti EU članicama globalnu konkurentnost u ovoj vrsti tehnologije.
S obzirom na postojeću dokumentaciju može se zaključiti da su temelji normativnoga okvira za umjetnu inteligenciju u EU već postavljeni. Naime, korištenje osobnih podataka, kao temeljne imovine koja služi za pokretanje modela umjetne inteligencije, već je dobrano definirano na razini EU-a s Općom uredbom o zaštiti osobnih podataka (Europski parlament i vijeće, 2016) te Europskom strategijom za podatke (Europska komisija, 2020a). U narednim godinama, možda i mjesecima, može se očekivati i donošenje Uredbe o umjetnoj inteligenciji. Za sada, rasprava o umjetnoj inteligenciji, dinamici njezina razvoja i svim ostalim izazovima koji proizlaze iz doticaja s ovom tehnologijom rađaju plodom u obliku donošenja konsenzusa i akata. Međutim, ostaje nam vidjeti koliko će dobro ovi akti potpomagati ili kočiti razvoj umjetne inteligencije na terenu.