Vsi so slišali o novem napredku umetne inteligence, predvsem pa o strojnem učenju. Slišali ste tudi utopične ali apokaliptične napovedi, kaj pomenijo ti napredki. Sprejeli so jih za predsmrtnost ali nesmrtnost ali konec sveta, o obeh možnostih pa je bilo že veliko napisanega. Toda najbolj izpopolnjeni AI so še vedno daleč od tega, da bi lahko rešili težave, ki jih človeški štiriletniki izvajajo z lahkoto. Kljub impresivnemu imenu umetna inteligenca večinoma obsega tehnike zaznavanja statističnih vzorcev v velikih zbirkah podatkov. Do človeškega učenja je veliko več.
Kako lahko sploh vemo toliko o svetu okoli nas? Ogromno se jih naučimo, tudi ko smo majhni otroci; štiriletniki že vedo za rastline, živali in stroje; želje, prepričanja in čustva; celo dinozavri in vesoljske ladje.
Znanost je naše znanje o svetu razširila na nepredstavljivo velike in neskončno majhne, na rob vesolja in začetek časa. In to znanje uporabljamo za oblikovanje novih klasifikacij in napovedi, predstavljanje novih možnosti in uresničevanje novih stvari v svetu. Toda vse, kar doseže katerega koli od nas iz sveta, je tok fotonov, ki zadenejo naše mrežnice in motnje zraka na naših ušesih. Kako se toliko naučimo o svetu, ko imamo dokaze tako omejene? In kako vse to storimo z nekaj kilogrami sive goo, ki sedi za našimi očmi?
Najboljši odgovor do zdaj je, da naši možgani izvajajo izračune na konkretnih, zmešanih podatkih, ki nam pridejo na pamet, in ti izračuni dajejo natančne predstavitve sveta. Zdi se, da so predstavitve strukturirane, abstraktne in hierarhične; vključujejo zaznavanje tridimenzionalnih predmetov, slovnice, na katerih temelji jezik, in miselne sposobnosti, kot je "teorija uma", ki nam omogoča razumevanje, kaj si drugi mislijo. Te predstave nam omogočajo široko paleto novih napovedi in na izrazito ustvarjalen človeški način predstavljamo veliko novih možnosti.
Tovrstno učenje ni edina vrsta inteligence, vendar je za človeka še posebej pomembna. In to je vrsta inteligence, ki je posebnost majhnih otrok. Čeprav so otroci pri načrtovanju in odločanju dramatično slabi, so najboljši učenci v vesolju. Velik del procesa pretvorbe podatkov v teorije se zgodi pred nami pet.
Od Aristotela in Platona obstajata dva osnovna načina reševanja problema, kako vemo, kaj vemo, in še vedno sta glavna pristopa pri strojnem učenju. Aristotel je k težavi pristopil od spodaj navzgor: Začnite s čutili - tok fotonov in zračnimi vibracijami (ali slikovnimi pikami ali zvočnimi vzorci digitalne slike ali posnetka) in poglejte, ali lahko iz njih črpate vzorce. Ta pristop so nadaljevali klasični asociacijski asisti, kot sta filozof David Hume in JS Mill, kasneje pa vedenjski psihologi, kot sta Pavlov in BF Skinner. Glede na to sta abstraktnost in hierarhična struktura reprezentacij nekaj iluzije ali vsaj epifenomen. Vsa dela je mogoče opraviti s povezovanjem in odkrivanjem vzorcev - še posebej, če je na voljo dovolj podatkov.
Možni razmisli: 25 načinov gledanja na AI
John Brockman, svetovalec znanosti, zbira petindvajset najpomembnejših znanstvenih umov, ljudi, ki že večino svoje kariere razmišljajo o umetni inteligenci, za neprimerljivo pregledovanje okrogle mize o umu, razmišljanju, inteligenci in kaj pomeni biti človek.
NakupSčasoma se je med tem pristopom od spodaj navzgor skrivnost učenja in Platonovim nadomestnim, od zgoraj navzdol, zasledila. Mogoče pridobimo abstraktno znanje iz konkretnih podatkov, ker že veliko vemo, predvsem pa zato, ker imamo zahvaljujoč evoluciji že vrsto osnovnih abstraktnih konceptov. Tako kot znanstveniki lahko tudi s temi pojmi oblikujemo hipoteze o svetu. Potem lahko namesto poskušamo izvleči vzorce iz surovih podatkov, predvideti, kako naj bi izgledali podatki, če so te hipoteze pravilne. Skupaj s Platonom sta ta »racionalistični« filozof in psiholog, kot sta Descartes in Noam Chomsky, upoštevala ta pristop.
Tu je vsakdanji primer, ki ponazarja razliko med obema načinoma: reševanje neželene pošte. Podatki so sestavljeni iz dolgega nerazvrščenega seznama sporočil v mapi »Prejeto«. Resničnost je, da so nekatera od teh sporočil pristna, nekatera pa nezaželena. Kako lahko podatke uporabite za razlikovanje med njimi?
Najprej razmislite o tehniki od spodaj navzgor. Opažate, da imajo ponavadi nezaželena sporočila posebne značilnosti: dolg seznam naslovnikov, poreklo v Nigeriji, sklicevanja na milijonske nagrade ali Viagra. Težava je v tem, da imajo lahko popolnoma uporabna sporočila tudi te funkcije. Če ste pogledali dovolj primerov neželene pošte in neželene pošte, boste morda videli ne le, da imajo nezaželena e-poštna sporočila te značilnosti, ampak da te funkcije gredo skupaj na posebne načine (Nigerija plus milijon dolarjev ukazuje težave). Pravzaprav lahko obstajajo nekatere subtilne korelacije višjega nivoja, ki ločujejo neželeno pošto od uporabnih - določen vzorec napačnih črkovanj in IP naslovov, recimo. Če zaznate te vzorce, lahko izločite vsiljeno pošto.
Tehnike strojnega učenja od spodaj navzgor počnejo prav to. Učenec dobi na milijone primerov, pri čemer ima vsak nabor funkcij in vsakega označi kot neželeno (ali kakšno drugo kategorijo) ali ne. Računalnik lahko izvleče vzorec funkcij, ki med seboj razlikujeta, četudi je precej subtilen.
Kako je s pristopom od zgoraj navzdol? Dobil sem e-sporočilo od urednika časopisa Journal of Clinical Biology . Navaja se na enega od mojih prispevkov in pravi, da bi radi objavili članek. Brez Nigerije, brez Viagre, brez milijona dolarjev; e-poštno sporočilo nima nobene funkcije neželene pošte. Če pa uporabim tisto, kar že vem, in abstraktno razmišljam o postopku, ki ustvarja neželeno pošto, lahko ugotovim, da je to e-poštno sporočilo sumljivo:
1. Vem, da pošiljatelji neželene pošte poskušajo izvleči denar iz ljudi s pozivom na človeški pohlep.
2. Vem tudi, da so legitimne revije »odprtega dostopa« začele pokrivati svoje stroške z zaračunavanjem avtorjev namesto naročnikov in da ne delam nič takega, kot je klinična biologija.
Zložite vse to in lahko ustvarim novo hipotezo o tem, od kod prihaja to e-poštno sporočilo. Zasnovan je tako, da akademike plačuje, da plačajo za "objavo" članka v lažni reviji. E-poštno sporočilo je bilo rezultat istega dvomljivega postopka kot ostala neželena pošta, čeprav ni bilo videti podobno. Ta sklep lahko izluščim iz le enega primera in lahko nadaljujem s preizkušanjem svoje hipoteze, in sicer izven e-pošte v samem e-poštnem sporočilu, in sicer tako, da googlingam »urednika«.
V računalniškem smislu sem začel z „generativnim modelom“, ki vključuje abstraktne koncepte, kot so pohlep in prevara, in opisuje postopek, ki povzroča prevare po e-pošti. To mi omogoča prepoznavanje klasične nigerijske neželene pošte, hkrati pa mi omogoča, da si predstavljam veliko različnih vrst možne neželene pošte. Ko dobim e-poštno sporočilo o dnevniku, lahko delam nazaj: "To se zdi kot samo vrsta pošte, ki bi prišla iz postopka ustvarjanja neželene pošte."
Novo navdušenje nad AI prihaja, ker so raziskovalci AI pred kratkim ustvarili zmogljive in učinkovite različice obeh teh metod učenja. Toda o samih metodah ni ničesar bistvenega novega.
Globoko učenje od spodaj navzgor
V osemdesetih letih prejšnjega stoletja so računalniški znanstveniki zasnovali domiseln način, kako naj računalniki zaznajo vzorce podatkov: povezovalno ali nevronsko omrežje, arhitekturo ("nevronski" del je bil in še vedno je metaforičen). Ta pristop je padel v zagate v devetdesetih letih prejšnjega stoletja, vendar je bil pred kratkim oživljen z močnimi metodami »učenja globokega učenja«, kot je Googlov DeepMind.
Na primer, lahko programu za poglobljeno učenje podarite kup internetnih slik z oznako mačka, druge z oznako "hiša" in tako naprej. Program lahko zazna vzorce, ki ločujejo dva niza slik in te podatke uporabi za pravilno označevanje novih slik. Nekatere vrste strojnega učenja, ki se imenujejo nenadzorovano učenje, lahko zaznajo vzorce v podatkih brez oznak; preprosto iščejo skupine lastnosti - kar znanstveniki imenujejo faktorska analiza. V strojih za globoko učenje se ti procesi ponavljajo na različnih ravneh. Nekateri programi lahko celo odkrijejo ustrezne funkcije iz neobdelanih podatkov slikovnih pik ali zvokov; računalnik se lahko začne z odkrivanjem vzorcev v surovi sliki, ki ustrezajo robom in črtam, nato pa poišče vzorce v tistih vzorcih, ki ustrezajo obrazom ipd.
Druga tehnika od spodaj navzgor z dolgo zgodovino je krepitev učenja. V petdesetih letih prejšnjega stoletja je BF Skinner, ki temelji na delu Johna Watsona, slavno programiral golobe, da izvajajo zapletene akcije - celo usmerjanje zračnih raket do svojih ciljev (moteč odmev nedavnega AI), tako da jim je določil časovni razpored nagrad in kazni . Bistvena ideja je bila, da se bodo dejanja, ki so bila nagrajena, ponovila, kazniva pa ne, dokler ne dosežemo želenega vedenja. Tudi v Skinnerjevem času bi ta preprost postopek, ki se ponavlja in vedno znova, lahko povzročil zapleteno vedenje. Računalniki so zasnovani za izvajanje preprostih operacij znova in znova v merilu, ki pritlika človeško domišljijo, računalniški sistemi pa se lahko na ta način naučijo izjemno kompleksnih veščin.
Na primer, raziskovalci Googlovega DeepMind-a so uporabili kombinacijo učenja globokega učenja in okrepitve, da bi računalnik naučili igrati Atari video igre. Računalnik ni vedel ničesar o tem, kako delujejo igre. Začelo se je z naključnim delovanjem in dobili smo informacije le o tem, kako je zaslon izgledal vsak trenutek in kako dober rezultat je dosegel. Globoko učenje je pomagalo razlagati funkcije na zaslonu, okrepljeno učenje pa je sistem nagradilo za višje ocene. Računalnik je postal zelo dober pri igranju več iger, hkrati pa je popolnoma bombardiral tudi druge, ki so jih človek prav tako enostavno obvladal.
Podobna kombinacija učenja poglobljenega učenja in okrepitve je omogočila uspeh programa DeepMind's AlphaZero, ki je uspel premagati človeške igralce v šahu in Go, opremljen z osnovnim znanjem o pravilih igre in nekaj načrtovalskih zmogljivosti. AlphaZero ima še eno zanimivost: deluje tako, da igra stotine milijonov iger proti sebi. Ob tem obreže napake, ki so privedle do izgub, ter ponavlja in natančno oblikuje strategije, ki so vodile do zmage. Takšni sistemi in drugi, ki vključujejo tehnike, imenovane generalizirane nasprotne mreže, ustvarjajo podatke in opazujejo podatke.
Ko imate računsko moč, da uporabite te tehnike na zelo velikih naborih podatkov ali na milijone e-poštnih sporočil, Instagram slik ali glasovnih posnetkov, lahko rešite težave, ki so se vam že prej zdele zelo težke. To je vir velikega navdušenja v računalništvu. Vendar je vredno zapomniti, da so te težave - na primer prepoznavanje slike mačke ali izgovorjene besede Siri - trivialne za človeškega malčka. Eno najzanimivejših odkritij računalništva je, da so težave, ki so nam enostavne (na primer identifikacija mačk), za računalnike težje - veliko težje kot igranje šaha ali Go. Računalniki potrebujejo milijone primerov za razvrščanje predmetov, ki jih lahko kategoriziramo le z nekaj. Ti sistemi od spodaj navzgor lahko posplošijo nove primere; lahko novo sliko kot mačko dokaj natančno označijo po vsem. Vendar to počnejo na precej drugačen način kot posploševanje ljudi. Nekaterih slik, ki so skoraj enake sliki mačke, pri nas sploh ne bomo prepoznali kot mačke. Drugi, ki so videti kot naključna zamegljenost, bodo.
Bayesijevi modeli od zgoraj navzdol
Pristop od zgoraj navzdol je imel veliko vlogo že v zgodnji AI, v 2000-ih pa je doživel tudi preporod v obliki verjetnostnih ali bajezijskih generativnih modelov.
Zgodnji poskusi uporabe tega pristopa so bili dve vrsti težav. Prvič, večino vzorcev dokazov bi načeloma lahko razložili številne različne hipoteze: Možno je, da je moje e-poštno sporočilo iz časopisa pristno, preprosto se ne zdi verjetno. Drugič, od kod sploh izvirajo koncepti, ki jih uporabljajo generativni modeli? Platon in Chomsky sta rekla, da ste se rodili z njimi. Toda kako si lahko razložimo, kako se učimo najnovejših konceptov znanosti? Ali kako celo majhni otroci razumejo dinozavre in raketne ladje?
Bayesovi modeli združujejo generativne modele in testiranje hipotez s teorijo verjetnosti in obravnavajo ta dva problema. Bayesov model vam omogoča, da izračunate, kako verjetno je, da je določena hipoteza resnična glede na podatke. Če naredimo majhne, a sistematične nastavitve modelov, ki jih že imamo, in jih testiramo na podlagi podatkov, lahko včasih naredimo nove koncepte in modele iz starih. Toda te prednosti izravnajo druge težave. Bayesove tehnike vam lahko pomagajo izbrati, katera od dveh hipotez je verjetnejša, vendar skoraj vedno obstaja ogromno število hipotez in noben sistem jih ne more učinkovito upoštevati vseh. Kako se odločite, katere hipoteze je vredno najprej preizkusiti?
Brenden Lake na NYU in njegovi sodelavci so uporabili tovrstne metode od zgoraj navzdol, da bi rešili še eno težavo, ki je preprosta za ljudi, a za računalnike izredno težavna: prepoznavanje neznanih rokopisnih znakov. Poglejte lik na japonskem drsniku. Tudi če ga še nikoli niste videli, lahko verjetno ugotovite, ali je podoben ali drugačen od lika na drugem japonskem drsenju. Verjetno ga lahko narišete in celo oblikujete ponarejen japonski znak na podlagi tistega, ki ga vidite - tistega, ki bo videti precej drugače kot korejski ali ruski.
Metoda od spodaj navzgor za prepoznavanje ročno napisanih znakov je računalniku dati na tisoče primerov vsakega posebej in pustiti, da izvleče vidne funkcije. Namesto tega Lake in sod. programu dal splošen model, kako narišete lik: Strok gre desno ali levo; ko končate eno, začnete drugo; in tako naprej. Ko je program videl določenega značaja, je lahko sklepal na zaporedje udarcev, ki so ga najverjetneje pripeljali do njega - tako kot sem sklepal, da je postopek neželene pošte pripeljal do moje dvomljive e-pošte. Potem bi lahko presodil, ali bo novi lik verjetno izviral iz tega zaporedja ali iz drugega in lahko tudi sam ustvari podoben niz potez. Program je deloval veliko bolje kot program globokega učenja, ki se uporablja za povsem enake podatke, in je natančno zrcal uspešnost ljudi.
Ta dva pristopa k strojnemu učenju imata dodatne prednosti in slabosti. Pri pristopu od spodaj navzgor program za začetek ne potrebuje veliko znanja, vendar potrebuje veliko podatkov in ga lahko posplošuje le omejeno. V pristopu od zgoraj navzdol se lahko program nauči iz le nekaj primerov in naredi veliko širše in bolj raznolike posplošitve, za začetek pa morate vgraditi še veliko več. Številni preiskovalci trenutno poskušajo združiti oba pristopa, pri čemer uporabljata poglobljeno učenje za izvajanje Bayesovega sklepanja.
Nedavni uspeh AI je deloma posledica razširitve teh starih idej. A to ima več opravka s tem, da imamo po zaslugi interneta veliko več podatkov in zahvaljujoč Mooreovemu zakonu imamo za te podatke veliko več računalniške moči. Poleg tega je nepriznano dejstvo, da so podatki, ki jih imamo, že razvrščeni in obdelani. Slike mačk, objavljene na spletu, so kanonične slike mačk - slike, ki so jih ljudje že izbrali za "dobre" slike. Google Translate deluje, ker izkoristi milijone človeških prevodov in jih posploši na nov del besedila, namesto da resnično razume same stavke.
Toda pri človeških otrocih je res izjemna stvar ta, da nekako združujejo najboljše lastnosti vsakega pristopa in nato presegajo njihovo pot. V zadnjih petnajstih letih so razvojni strokovnjaki raziskovali, kako se otroci učijo strukture. Štiriletniki se lahko učijo tako, da vzamejo samo enega ali dva primera podatkov, kot to počne sistem od zgoraj navzdol, in posplošujeta zelo različne koncepte. Lahko pa se naučijo novih konceptov in modelov iz samih podatkov, kot to počne sistem od spodaj navzgor.
Na primer, v našem laboratoriju otrokom omogočimo "detektor blicket-a" - nov stroj, ki ga lahko ugotovimo, takšnega, kakršnega še niso videli. To je škatla, ki prižge in predvaja glasbo, ko vanj postavite določene predmete, drugih pa ne. Otrokom damo samo en ali dva primera, kako stroj deluje, in jim pokažemo, da se recimo dva rdeča bloka umakneta, zelena in rumena kombinacija pa ne. Celo osemnajstmesečniki takoj ugotovijo splošno načelo, da morata biti oba predmeta enaka, da bosta šla, in to načelo posplošita na nove primere: Na primer, izbrali bodo dva predmeta, ki imata enako obliko strojno delo. V drugih eksperimentih smo pokazali, da lahko otroci celo ugotovijo, da kakšna skrita nevidna lastnost napravo požene, ali da stroj deluje po nekem abstraktnem logičnem principu.
To lahko pokažete tudi pri vsakodnevnem učenju otrok. Majhni otroci se hitro naučijo abstraktnih intuitivnih teorij biologije, fizike in psihologije na podoben način kot odrasli znanstveniki, tudi s sorazmerno malo podatkov.
Izjemni dosežki strojnega učenja zadnjih sistemov AI, od spodaj navzgor in od zgoraj navzdol, se odvijajo v ozkem in dobro opredeljenem prostoru hipotez in konceptov - natančen sklop kosov igre in potez, vnaprej določen nabor slik . V nasprotju s tem pa otroci in znanstveniki včasih spreminjajo svoje koncepte na radikalne načine, pri čemer izvajajo spremembe paradigme, ne pa da preprosto prilagajajo koncepte, ki jih že imajo.
Štiriletniki lahko takoj prepoznajo mačke in razumejo besede, lahko pa ustvarijo tudi ustvarjalne in presenetljive nove sklepe, ki presegajo njihove izkušnje. Pred kratkim je moj vnuk pojasnil, da mora odrasla oseba, če želi ponovno postati otrok, poskusiti ne jesti nobene zdrave zelenjave, saj zdrava zelenjava otroka odraste v odraslo osebo. Tovrstna hipoteza, verjetna, ki je noben odrasel človek ne bi zabaval, je značilna za majhne otroke. V bistvu sva s sodelavci sistematično pokazala, da je predšolcem bolje, da prihajajo do verjetno hipotez kot starejši otroci in odrasli. Skoraj nimamo pojma, kako je mogoče ustvariti takšno ustvarjalno učenje in inovacije.
Če pogledamo, kaj počnejo otroci, lahko programerji dajo koristne nasvete o navodilih za računalniško učenje. Dve značilnosti otrokovega učenja sta še posebej presenetljivi. Otroci so aktivni učenci; ne samo pasivno vpijejo podatke, kot to počnejo AI. Tako kot znanstveniki eksperimentirajo, so otroci lastno motivirani, da s svojim neskončnim igranjem in raziskovanjem črpajo informacije iz sveta okoli sebe. Nedavne študije kažejo, da je to raziskovanje bolj sistematično, kot je videti, in je dobro prilagojeno, da najde prepričljive dokaze, ki podpirajo oblikovanje hipotez in izbiro teorije. Vključevanje radovednosti v stroje in omogočanje aktivne interakcije s svetom je lahko pot do bolj realističnega in širokega učenja.
Drugič, otroci so, za razliko od obstoječih AI, socialni in kulturni učenci. Ljudje se ne učijo izolirano, ampak izkoristijo nakopičene modrosti preteklih generacij. Nedavne študije kažejo, da se celo predšolski otroci učijo s posnemanjem in poslušanjem pričevanja drugih. Toda učitelji preprosto ne pasivno poslušajo. Namesto tega informacije sprejemajo od drugih na izjemno subtilen in občutljiv način, pri tem pa zapleteno sklepajo, od kod prihajajo informacije in kako zaupanja vredne so ter sistematično vključujejo lastne izkušnje s tem, kar slišijo.
"Umetna inteligenca" in "strojno učenje" zveni strašljivo. In na nek način so. Na primer, ti sistemi se uporabljajo za nadzor orožja in tega bi se morali resnično bati. Kljub temu lahko naravna neumnost povzroči veliko večjo škodo kot umetna inteligenca; mi ljudje bomo morali biti veliko pametnejši, kot smo bili v preteklosti, da bomo pravilno uravnavali nove tehnologije. Vendar pa ni veliko podlage niti za apokaliptično niti za utopično videnje AI, ki nadomešča človeka. Dokler ne rešimo osnovnega paradoksa učenja, najboljše umetne inteligence ne bodo mogle konkurirati povprečnemu človeškemu štiriletniku.
Iz prihodnje zbirke MOŽNI REDI: 25 načinov gledanja na AI, uredil John Brockman. Objavljeno po dogovoru s Penguin Pressom, članom Penguin Random House LLC. Copyright © 2019 John Brockman.