Što umjetna inteligencija zapravo može učiniti danas
Što umjetna inteligencija zapravo može učiniti danas
Anonim

Upozorenje za spojler: Još je dosta vremena do ustanka strojeva.

Što umjetna inteligencija zapravo može učiniti danas
Što umjetna inteligencija zapravo može učiniti danas

Kada Elon Musk predstavi humanoidnog robota Tesla Bota, čini se da je nova znanstvena revolucija pred vratima. Još malo – i umjetna inteligencija (AI) će nadmašiti ljudsku, a strojevi će nas zamijeniti na poslu. Međutim, profesori Gary Marcus i Ernest Davis, obojica poznati stručnjaci za umjetnu inteligenciju, mole se da ne žure s takvim zaključcima.

U Reboot-u umjetne inteligencije, istraživači objašnjavaju zašto je moderna tehnologija daleko od idealne. Uz dopuštenje izdavačke kuće "Alpina PRO" Lifehacker objavljuje izvadak iz prvog poglavlja.

U ovom trenutku postoji ogroman jaz – pravi ponor – između naše ambicije i stvarnosti umjetne inteligencije. Taj je ponor nastao zbog neriješenosti tri specifična problema, od kojih se svaki mora pošteno rješavati.

Prvi od njih je ono što zovemo lakovjernost, a koja se temelji na činjenici da mi ljudi zapravo nismo naučili razlikovati ljude od strojeva, pa nas je lako prevariti. Inteligenciju pripisujemo računalima jer smo i sami evoluirali i živjeli među ljudima koji svoje postupke uvelike temelje na apstrakcijama kao što su ideje, uvjerenja i želje. Ponašanje strojeva često je površno slično ponašanju ljudi, pa strojevima brzo dodjeljujemo istu vrstu osnovnih mehanizama, čak i ako ih strojevi nemaju.

Ne možemo ne razmišljati o strojevima u kognitivnom smislu (“Moje računalo misli da sam izbrisao svoju datoteku”), bez obzira na to koliko jednostavna pravila koja strojevi zapravo slijede. Ali zaključci koji se opravdavaju kada se primjenjuju na ljude mogu biti potpuno pogrešni kada se primjenjuju na programe umjetne inteligencije. S obzirom na temeljno načelo socijalne psihologije, to nazivamo temeljnom greškom valjanosti.

Jedan od najranijih slučajeva ove pogreške dogodio se sredinom 1960-ih, kada je chatbot po imenu Eliza uvjerio neke ljude da stvarno razumije stvari koje su mu govorili. Zapravo, Eliza je samo pokupila ključne riječi, ponovila zadnju stvar koju joj je osoba rekla i u slijepoj situaciji pribjegla je standardnim konverzacijskim trikovima poput "Pričaj mi o svom djetinjstvu". Kad biste spomenuli svoju majku, pitala bi vas za vašu obitelj, iako nije imala pojma što je zapravo obitelj i zašto je ljudima važna. Bio je to samo skup trikova, a ne demonstracija prave inteligencije.

Unatoč tome što Eliza uopće nije razumjela ljude, mnoge korisnike zavarali su dijalozi s njom. Neki su proveli sate tipkajući fraze na tipkovnici, razgovarajući na ovaj način s Elizom, ali pogrešno tumačeći trikove chatbotova, pogrešno papagajin govor zamijenili za koristan, iskren savjet ili suosjećanje.

Joseph Weisenbaum Tvorac Elize.

Ljudi koji su dobro znali da razgovaraju sa strojem ubrzo su zaboravili na tu činjenicu, kao što ljubitelji kazališta nakratko odbace svoju nevjericu i zaborave da se radnja kojoj svjedoče nema pravo nazivati stvarnom.

Elizini su sugovornici često tražili dopuštenje za privatni razgovor sa sustavom i nakon razgovora inzistirali, unatoč svim mojim objašnjenjima, da ih stroj doista razumije.

U drugim slučajevima, pogreška u procjeni autentičnosti može biti fatalna u doslovnom smislu riječi. Godine 2016. jedan vlasnik automatiziranog Teslinog automobila toliko se pouzdao u prividnu sigurnost autopilota da se (prema pričama) potpuno udubio u gledanje filmova o Harryju Potteru, prepustivši automobilu da sve radi sam.

Sve je išlo dobro – dok u jednom trenutku nije postalo loše. Prešavši stotine ili čak tisuće milja bez nesreće, automobil se sudario (u svakom smislu te riječi) s neočekivanom preprekom: bijeli kamion prešao je autocestu, a Tesla je pojurio točno ispod prikolice, ubivši vlasnika automobila na licu mjesta. (Činilo se da je automobil nekoliko puta upozorio vozača da preuzme kontrolu, ali se činilo da je vozač previše opušten da brzo reagira.)

Moral ove priče je jasan: činjenica da se uređaj može činiti "pametnim" na trenutak ili dva (pa čak i šest mjeseci) uopće ne znači da je to stvarno tako niti da se može nositi sa svim okolnostima u kojima osoba bi reagirala adekvatno.

Drugi problem nazivamo iluzijom brzog napretka: pogrešan je napredak u umjetnoj inteligenciji, povezan s rješavanjem lakih problema, za napredak, povezan s rješavanjem stvarno teških problema. To se, na primjer, dogodilo sa sustavom IBM Watson: njegov napredak u igri Jeopardy! činilo se vrlo obećavajućim, ali se zapravo pokazalo da je sustav mnogo dalje od razumijevanja ljudskog jezika nego što su programeri očekivali.

Moguće je da će DeepMindov AlphaGo program slijediti isti put. Igra go, kao i šah, idealizirana je informacijska igra u kojoj oba igrača u svakom trenutku mogu vidjeti cijelu ploču i izračunati posljedice poteza grubom silom.

U većini slučajeva, u stvarnom životu, nitko ništa ne zna s potpunom sigurnošću; naši su podaci često nepotpuni ili iskrivljeni.

Čak iu najjednostavnijim slučajevima postoji mnogo neizvjesnosti. Kada odlučimo hoćemo li pješice otići liječniku ili podzemnom željeznicom (budući da je dan oblačan), ne znamo točno koliko će trebati čekati vlak podzemne željeznice, da li je vlak zapeo na cesti, da li nagurat ćemo se u kočiju kao haringa u bačvi ili ćemo se smočiti na kiši vani, ne usuđujući se ići podzemnom, a kako će liječnik reagirati na naše kašnjenje.

Uvijek radimo s informacijama koje imamo. Igrajući Go sam sa sobom milijune puta, DeepMind AlphaGo sustav se nikada nije nosio s neizvjesnošću, jednostavno ne zna što je nedostatak informacija ili njihova nepotpunost i nedosljednost, a da ne govorimo o složenosti ljudske interakcije.

Postoji još jedan parametar koji čini da se igre uma poput toga razlikuju od stvarnog svijeta, a to opet ima veze s podacima. Čak i složene igre (ako su pravila dovoljno stroga) mogu se gotovo savršeno modelirati, tako da sustavi umjetne inteligencije koji ih igraju mogu lako prikupiti ogromne količine podataka koje su im potrebne za treniranje. Dakle, u slučaju Go, stroj može simulirati igru s ljudima jednostavno igrajući protiv sebe; čak i ako sustav treba terabajte podataka, on će ih sam stvoriti.

Programeri tako mogu dobiti potpuno čiste simulacijske podatke uz male ili nikakve troškove. Naprotiv, u stvarnom svijetu savršeno čisti podaci ne postoje, nemoguće ih je simulirati (jer se pravila igre stalno mijenjaju), a tim je teže prikupiti mnogo gigabajta relevantnih podataka probnim putem i pogreška.

U stvarnosti imamo samo nekoliko pokušaja testiranja različitih strategija.

Nismo u mogućnosti, primjerice, 10 milijuna puta ponoviti posjet liječniku, postupno prilagođavajući parametre odluka prije svakog posjeta, kako bismo dramatično poboljšali svoje ponašanje u pogledu izbora prijevoza.

Ako programeri žele uvježbati robota da pomaže starijima (recimo, kako bi bolesnike smjestili u krevet), svaki će djelić podataka vrijediti pravog novca i pravog ljudskog vremena; ne postoji način prikupljanja svih potrebnih podataka pomoću simulacijskih igara. Čak ni lutke za crash test ne mogu zamijeniti prave ljude.

Potrebno je prikupiti podatke o stvarnim starijim osobama s različitim karakteristikama senilnog kretanja, o različitim vrstama kreveta, različitim vrstama pidžama, različitim tipovima kuća, i tu ne možete pogriješiti, jer ispustite osobu čak i na udaljenosti od nekoliko centimetara od kreveta bila bi katastrofa. U ovom slučaju u pitanju je određeni napredak (do sada najelementarniji) u ovom području postignut metodama uske umjetne inteligencije. Razvijeni su računalni sustavi koji igraju gotovo na razini najboljih ljudskih igrača u video igrama Dota 2 i Starcraft 2, gdje se u svakom trenutku sudionicima prikazuje samo dio svijeta igre i tako se svaki igrač suočava s problem nedostatka informacija – koji se Clausewitzovom laganom rukom naziva "magla nepoznatog". Međutim, razvijeni sustavi i dalje ostaju vrlo usko usmjereni i nestabilni u radu. Na primjer, program AlphaStar koji se igra u Starcraftu 2 naučio je samo jednu specifičnu rasu od širokog spektra likova, a gotovo nijedan od ovih razvoja nije moguće igrati kao bilo koja druga rasa. I, naravno, nema razloga vjerovati da su metode korištene u tim programima prikladne za uspješne generalizacije u mnogo složenijim stvarnim situacijama. stvarni životi. Kao što je IBM otkrio ne jednom, nego već dvaput (prvo u šahu, a zatim u Jeopardy!), uspjeh u problemima iz zatvorenog svijeta uopće ne jamči uspjeh u otvorenom svijetu.

Treći krug opisanog ponora je precjenjivanje pouzdanosti. Uvijek iznova vidimo da čim ljudi uz pomoć umjetne inteligencije pronađu rješenje za neki problem koji neko vrijeme može funkcionirati bez kvarova, automatski pretpostavljaju da revizijom (i uz nešto veću količinu podataka) sve radit će pouzdano.vrijeme. Ali to nije nužno tako.

Opet uzimamo aute bez vozača. Relativno je lako stvoriti demo autonomnog vozila koje će ispravno voziti jasno označenom trakom na mirnoj cesti; međutim, ljudi su to mogli učiniti više od jednog stoljeća. Međutim, mnogo je teže postići da ti sustavi rade u teškim ili neočekivanim okolnostima.

Kako nam je Missy Cummings, direktorica Laboratorija za ljude i autonomiju na Sveučilištu Duke (i bivša pilotka borbenog aviona američke mornarice), rekla u e-poruci, pitanje nije koliko kilometara automobil bez vozača može prijeći bez nesreće, već u opsegu kojima se ovi automobili mogu prilagoditi promjenjivim situacijama. Prema njezinoj Missy Cummings, e-poruci autorima 22. rujna 2018., moderna poluautonomna vozila "obično rade samo u vrlo uskom rasponu uvjeta, koji ništa ne govore o tome kako mogu raditi u uvjetima koji nisu idealni."

Izgledati potpuno pouzdano na milijunima probnih milja u Phoenixu ne znači imati dobre rezultate tijekom monsuna u Bombayu.

Ova temeljna razlika između ponašanja autonomnih vozila u idealnim uvjetima (kao što su sunčani dani na prigradskim cestama s više traka) i onoga što bi mogla raditi u ekstremnim uvjetima lako može postati pitanje uspjeha i neuspjeha za cijelu industriju.

Uz tako mali naglasak na autonomnu vožnju u ekstremnim uvjetima i da se trenutna metodologija nije razvila u smjeru osiguravanja da će autopilot raditi ispravno u uvjetima koji se tek počinju razmatrati u stvarnosti, uskoro bi moglo postati jasno da su milijarde dolara utrošene su na metode izrade samovozećih automobila koji jednostavno ne pružaju pouzdanost u vožnji poput ljudi. Moguće je da su za postizanje potrebne razine tehničkog povjerenja potrebni pristupi koji se bitno razlikuju od sadašnjih.

A automobili su samo jedan primjer mnogih sličnih. U suvremenim istraživanjima umjetne inteligencije, njezina je pouzdanost globalno podcijenjena. Djelomično je to zato što većina trenutnih događanja u ovom području uključuje probleme koji su vrlo tolerantni na pogreške, kao što je preporučavanje oglašavanja ili promicanje novih proizvoda.

Doista, ako vam preporučimo pet vrsta proizvoda, a vama se sviđaju samo tri, neće se dogoditi ništa loše. Ali u brojnim kritičnim AI aplikacijama za budućnost, uključujući automobile bez vozača, skrb za starije i planiranje zdravstvene skrbi, pouzdanost slična ljudima bit će kritična.

Nitko neće kupiti kućnog robota koji može sigurno odnijeti vašeg starijeg djeda u krevet samo četiri puta od pet.

Čak i u onim zadaćama gdje bi se moderna umjetna inteligencija teoretski trebala pojaviti u najboljem mogućem svjetlu, redovito se događaju ozbiljni propusti, koji ponekad izgledaju vrlo smiješno. Tipičan primjer: računala su, u principu, već prilično dobro naučila prepoznati što se (ili se događa) na ovoj ili onoj slici.

Ponekad ti algoritmi rade izvrsno, ali često proizvode potpuno nevjerojatne pogreške. Pokažete li sliku automatiziranom sustavu koji generira natpise za fotografije svakodnevnih prizora, često ćete dobiti odgovor koji je nevjerojatno sličan onome što bi čovjek napisao; na primjer, za scenu ispod, u kojoj grupa ljudi igra frizbi, Googleov vrlo popularan sustav za generiranje titlova daje mu točno pravo ime.

Slika 1.1. Grupa mladih ljudi koji igraju frizbi (uvjerljiv opis fotografije, automatski generiran AI)
Slika 1.1. Grupa mladih ljudi koji igraju frizbi (uvjerljiv opis fotografije, automatski generiran AI)

No pet minuta kasnije možete lako dobiti apsolutno apsurdan odgovor iz istog sustava, kao što se dogodilo, na primjer, s ovim prometnim znakom, na koji je netko zalijepio naljepnice: računalo pod nazivom Kreatori sustava nisu objasnili zašto je došlo do ove pogreške, ali takvi slučajevi nisu rijetki. Možemo pretpostaviti da je sustav u ovom konkretnom slučaju klasificirao (možda po boji i teksturi) fotografiju kao sličnu ostalim slikama (iz kojih je saznao) označene kao "hladnjak pun puno hrane i pića". Naravno, računalo nije razumjelo (što bi čovjek lako mogao razumjeti) da bi takav natpis bio prikladan samo u slučaju velike pravokutne metalne kutije s raznim (pa čak i ne svim) predmetima unutra. ova scena je "hladnjak s puno hrane i pića".

Riža. 1.2. Hladnjak ispunjen gomilom hrane i pića (potpuno nevjerojatan naslov, kreiran istim sustavom kao gore)
Riža. 1.2. Hladnjak ispunjen gomilom hrane i pića (potpuno nevjerojatan naslov, kreiran istim sustavom kao gore)

Isto tako, automobili bez vozača često ispravno identificiraju ono što "vide", ali ponekad se čini da zanemaruju očito, kao u slučaju Tesle, koji se redovito zabijao u parkirana vatrogasna vozila ili vozila hitne pomoći na autopilotu. Ovakve slijepe točke mogu biti još opasnije ako se nalaze u sustavima koji kontroliraju električne mreže ili su odgovorni za praćenje javnog zdravlja.

Kako bismo premostili jaz između ambicija i stvarnosti umjetne inteligencije, potrebne su nam tri stvari: jasna svijest o vrijednostima o kojima je riječ u ovoj igri, jasno razumijevanje zašto moderni sustavi umjetne inteligencije ne obavljaju svoje funkcije dovoljno pouzdano i, konačno, nova strategija razvoja strojnog razmišljanja.

Budući da su ulozi u umjetnu inteligenciju stvarno visoki u smislu poslova, sigurnosti i strukture društva, postoji hitna potreba da svi mi - profesionalci umjetne inteligencije, srodne profesije, obični građani i političari - razumijemo pravo stanje stvari u ovom području kako bi naučili kritički procijeniti razinu i prirodu razvoja današnje umjetne inteligencije.

Kao što je građanima koje zanimaju vijesti i statistike važno razumjeti koliko je lako zavesti ljude riječima i brojkama, tako je ovdje sve značajniji aspekt razumijevanja kako bismo mogli shvatiti gdje je umjetna inteligencija. samo oglašavanje, ali gdje je to stvarno; što je sada u stanju, a što ne zna i, možda, neće naučiti.

Najvažnije je shvatiti da umjetna inteligencija nije magija, već samo skup tehnika i algoritama, od kojih svaki ima svoje prednosti i mane, prikladan je za neke zadatke, a za druge nije. Jedan od glavnih razloga zašto smo krenuli pisati ovu knjigu jest taj što nam se većina onoga što čitamo o umjetnoj inteligenciji čini apsolutna fantazija, koja raste iz neutemeljenog povjerenja u gotovo magičnu moć umjetne inteligencije.

U međuvremenu, ova fikcija nema nikakve veze s modernim tehnološkim mogućnostima. Nažalost, rasprava o umjetnoj inteligenciji u široj javnosti bila je i jako je pod utjecajem nagađanja i pretjerivanja: većina ljudi nema pojma koliko je teško stvoriti univerzalnu umjetnu inteligenciju.

Pojasnimo daljnju raspravu. Iako će razjašnjavanje stvarnosti povezanih s umjetnom inteligencijom od nas zahtijevati ozbiljnu kritiku, mi sami nipošto nismo protivnici umjetne inteligencije, jako nam se sviđa ova strana tehnološkog napretka. Proživjeli smo značajan dio života kao profesionalci u ovom području i želimo da se ono što brže razvija.

Američki filozof Hubert Dreyfus jednom je napisao knjigu o tome kakve visine, po njegovom mišljenju, umjetna inteligencija nikada ne može doseći. Ova knjiga nije o tome. Djelomično se usredotočuje na ono što AI trenutno ne može učiniti i zašto ga je važno razumjeti, ali značajan dio govori o tome što bi se moglo učiniti kako bi se poboljšalo računalno razmišljanje i proširilo na područja u kojima sada ima poteškoća s prvim koracima.

Ne želimo da umjetna inteligencija nestane; želimo da se on, štoviše, radikalno poboljša, kako bismo zaista mogli računati na njega i uz njegovu pomoć rješavati brojne probleme čovječanstva. Imamo dosta kritika na račun trenutnog stanja umjetne inteligencije, ali naša kritika je manifestacija ljubavi prema znanosti kojom se bavimo, a ne poziv da odustanemo i napustimo sve.

Ukratko, vjerujemo da umjetna inteligencija doista može ozbiljno transformirati naš svijet; ali također vjerujemo da se mnoge osnovne pretpostavke o umjetnoj inteligenciji moraju promijeniti prije nego što možemo govoriti o stvarnom napretku. Naš predloženi "reset" umjetne inteligencije uopće nije razlog da se stane na kraj istraživanju (iako bi neki mogli razumjeti našu knjigu upravo u tom duhu), već prije dijagnoza: gdje smo sada zapeli i kako se izvući današnja situacija.

Vjerujemo da bi najbolji način da krenemo naprijed mogao biti pogled prema unutra, suočavajući se sa strukturom vlastitog uma.

Istinski inteligentni strojevi ne moraju biti točne replike ljudi, ali svatko tko iskreno pogleda umjetnu inteligenciju uvidjet će da se još puno toga može naučiti od ljudi, posebno od male djece, koja su u mnogočemu daleko superiornija od strojeva u njihovu sposobnost upijanja i razumijevanja novih pojmova.

Medicinski znanstvenici često karakteriziraju računala kao "nadljudske" (na ovaj ili onaj način) sustave, ali je ljudski mozak još uvijek znatno superiorniji od svojih silikonskih kolega u najmanje pet aspekata: možemo razumjeti jezik, možemo razumjeti svijet, možemo fleksibilno prilagođavati se novim okolnostima, možemo brzo naučiti nove stvari (čak i bez velike količine podataka) i možemo rasuđivati suočeni s nepotpunim, pa čak i proturječnim informacijama. Na svim tim frontama, moderni sustavi umjetne inteligencije beznadno zaostaju za ljudima.

Ponovno pokretanje umjetne inteligencije
Ponovno pokretanje umjetne inteligencije

Umjetna inteligencija: Reboot će zainteresirati ljude koji žele razumjeti moderne tehnologije i razumjeti kako i kada nova generacija AI može učiniti naše živote boljim.

Preporučeni: