Napredak veštačke inteligencije potencijalno može značajno ubrzati istraživački rad u medicini i povećati mogućnost da se bolesti otkriju na vreme, ali bi mogao pomoći i štetnim licima.
Ovo piše u izveštaju ekipe naučnika i istraživača sa Univerziteta u Oksfordu, Univerziteta u Kembridžu, Stenfordskog univerziteta, Fondacije za elektronske granice, istraživačke grupe za veštačku inteligenciju OpenAI i drugih.
Autore ovog izveštaja ne brinu scenariji propasti sveta iz naučno-fantastičnih filmova poput "Terminatora", već praktični problemi. Na primer, kriminalci bi mogli iskoristiti mogućnost tehnologije mašinskog učenja da još više automatizuju hakovanje i time ionako prezaposlenim korporativnim bezbednjacima još više otežaju osiguranje računarskih sistema.
Cilj ovog izveštaja nije da odvrate kompanije, istraživače ili javnost od veštačke inteligencije, već da skrenu pažnju na najrealističnije scenarije, kako bi se ljudi bolje pripremili za sajber napade pomognute veštačkom inteligencijom, ili ih čak i sprečili.
Evo nekih zanimljivih zaključaka:
Prevare sa mrežnom krađom identita ("pecanje"), kada kriminalci šalju naizgled regularne mejlove prepune malicioznih linkova, mogle bi postati još rasprostranjenije i opasnije zahvaljući veštačkoj inteligenciji. U izveštaju se navodi scenario gde bi se informacije o određenoj osobi dostupne na internetu, kao i šabloni njenog onlajn ponašanja, mogli pokupiti sa socijalnih mreža poput Tvitera i Fejsbuka i iskoristiti da se automatski stvore mejlovi "po meri", koji bi te osobe namamile da kliknu na maliciozne linkove. Takvi mejlovi, loši sajtovi ili linkovi mogli bi biti poslati sa lažnih naloga koji bi mogli da oponašaju način pisanja prijatelja žrtve kako bi izgledali autentično.
Ako banke i kompanije za kreditne kartice usvoje mašinsko učenje kako bi poboljšale svoje usluge, isto će učiniti i hakeri. Na primer, u izveštaju se navodi da bi kriminalci mogli da iskoriste tehnologije veštačke inteligencije za automatizaciju zadataka kao što je obrada plaćanja, kako bi, na primer, lakše preuzeli isplatu od ucene.
Kriminalci bi takođe mogli da stvore botove za četovanje, koji bi komunicirali sa žrtvama rensomvera, što je situacija kada hakeri "drže kompjutere kao taoce" dok ne prime isplatu. Korišćenjem softvera koji može razgovarati ili četovati, hakeri bi mogli ciljati više ljudi odjednom bez potrebe da lično komuniciraju sa njima.
Ako ste mislili da je širenje lažnih vesti po društvenim mrežama previše rasprostranjeno, spremite se za budućnost. Napredak na polju razvoja veštačke inteligencije doveo je do toga da danas postoje programi koji mogu stvoriti realistične audio i video fajlove političara u kojima njihov izgled i govor deluju autentično. Na primer, naučnici sa Vašingtonskog univerziteta nedavno su napravili video snimak na kome bivši predsednik SAD Barak Obama drži govor. Taj snimak izgleda izuzetno realistično, ali zapravo je lažan.
Jasno je gde ovo vodi. Autori ovog izveštaja tvrde da je moguće stvoriti "lažne reportaže" korišćenjem lažiranih snimaka. Takve "reportaže" mogle bi prikazivati svetske lidere kako daju zapaljive izjave koje zapravo nikada nisu dali.
Autori izveštaja takođe tvrde da bi se veštačka inteligencija mogla iskoristiti zarad pravljenja "automatizovanih i personalizovanih kampanja dezinformacije"
Veštačka inteligencija mogla bi omogućiti ljudima, ili čak samo jednoj osobi, da izazovu veliko nasilje, navodi se u izveštaju. Autori izveštaja su zabrinuti da bi kriminalci mogli iskoristiti široku rasprostranjenost tehnologija otvorenog koda kao što su algoritmi koji prepoznaju lica ili upravljaju dronovima. Zamislite samo bespilotnu letelicu koja može prepoznati metino lice i izvesti napad.
Ono što brine je nedostatak zakonskih regulativa i tehničkih istraživanja o tehnikama za borbu protiv "globalne proliferacije robota koji se mogu koristiti kao oružje".