Tobi Volš, profesor na Univerzitetu Novi Južni Vels u Sidneju, jedan je od vodećih australijskih stručnjaka u oblasti veštačke inteligencije. On je u saradnji sa kolegama objavio izveštaj u kojem se potcrtava etička upitnost veštačke inteligencije.
Dr Volš (55) radi sa Kampanjom za zaustavljanje robota ubica, koalicijom naučnika i aktivista za ljudska prava koji nastoje da blokiraju razvoj autonomnog oružja. Njujork tajms je razgovarao sa dr Volšom na konferenciji i telefonom. U nastavku se nalazi uređena verzija tih razgovora.
Vi ste naučnik. Kako ste postali aktivista u borbi protiv “robota ubica”?
Dogodilo se postepeno, sa početkom oko 2013. godine. Čitao sam i istraživao o autonomnom oružju. Uvideo sam koliko malo mojih kolega razmišlja o opasnostima koje nosi nova klasa oružja. Ako su ljudi i mislili o tome, doživljavali su robote ubice kao stvar daleke budućnosti.
Ipak, budućnost je već bila ovde. Dronovi koji nose bombe već su leteli nebom iznad Avganistana. Iako su ljudi sa zemlje kontrolisali dronove, učiniti ih autonomnim bio je samo jedan mali tehnički iskorak. Zato sam na naučnoj konferenciji 2015. organizovao debatu o novoj klasi oružja. Nedugo potom, Maks Tegmar koji vodi Institut Budućnost života na MIT-u pozvao me je da mu pomognem u širenju pisma u kojem se međunarodna zajednica poziva da usvoji zabranu svih vrsta autonomnog robotskog oružja. Potpisao sam i na narednoj velikoj konferenciji ga podelio. Do kraja okupljanja, imali smo 5.000 potpisa, između ostalog i ljudi poput Ilona Maska, Danijela Deneta i Stiva Voznijaka.
Šta je bio vaš argument?
Da ne možete dopustiti mašinama da odlučuju o tome hoće li ljudi živeti ili umreti. To je potpuno nova teritorija. Mašine ne poseduju naš moralni kompas, saosećajnost i emocije. Mašine nisu moralna bića.
Tehnički argument je da je reč o potencijalnim oružjima masovnog uništenja, a da je međunarodna zajednica dosad zabranila bilo koje drugo takvo oružje.
Zašto zabraniti oružje koje još uvek nije ni proizvedeno?
Najbolji trenutak za uvođenje zabrane takvog oružja je upravo pre nego što ono postane dostupno. Mnogo je teže ukloniti ga kada već padne u pogrešne ruke ili postane prihvaćeni deo vojnog naoružanja.
Kome je vaša peticija upućena?
Ujedinjenim nacijama.
Ko se protivi sporazumu?
Očigledni kandidati su SAD, Velika Britanija, Rusija, Izrael i Južna Koreja. Kina je pozvala na zabranu upotrebe, ali ne i na zabranu proizvodnje oružja. Valjalo bi istaći da će kompanije koje budu proizvodile ovakvo oružje i trgovale njime obrtati ogromne svote novca.
Zagovornici robotskog oružja tvrde da bi ograničenjem broja ljudskih vojnika mašine učinile rat manje smrtonosnim.
Problem sa tom tvrdnjom je što ne postoji način da se programira nešto toliko fino kao međunarodno humanitarno pravo. Postoje situacije u kojima bi upotreba robotike za vojsku bila korisna, poput čišćenja minskog polja, recimo. Ako robot nagazi minu i ona eksplodira, imate drugog robota.
Roboti vojnici su dugo deo tematskog opusa naučne fantastike. Imate li omiljeni naučnofantastični film?
Ne, većini naučnika koji se bave veštačkom inteligencijom – i ja sam među njima – nimalo se ne dopada način na koji Holivud tretira tehnologiju. Kjubrikova “Odiseja u svemiru” je naročito pogrešna zato što je zasnovana na ideji da će postojati mašine koje će posedovati svest o samoočuvanju i da će krajnji rezultat biti agresija usmerena protiv ljudi.
Pogrešna je pretpostavka da će mašine želeti da zavladaju svetom ili da čak nastoje da očuvaju sebe. Inteligencija koju smo stvorili biće potpuno drugačija od ljudi i neće nužno posedovati ljudske mane. Ove mašine nemaju nikakvu svest niti instinkt za samoodržanjem. Uradiće tačno ono što smo im mi rekli da urade.
Od 2013. godine potrošili ste na aktivizam isto vremena koliko i na naučno istraživanje. Da li se kajete zbog toga?
Imam desetogodišnju ćerku. Kada bude odrasla, ne želim da me pita: “Tata, imao si načina i moći da to učiniš – zašto nisi pokušao da zaustaviš ovo?”
© 2019 The New York Times