Lani je program umetne inteligence, imenovan AlphaGo, ki ga je ustvarila Googlova ekipa DeepMind, premagal človeškega prvaka na Go-u, starodavno kitajsko strateško igro, ki je v marsičem bolj zapletena kot šah. Kot je takrat za Smithsonian.com poročala Emily Matchar, je bil to osupljiv dosežek, saj so že leta 1997 nekateri napovedovali, da bo trajalo 100 let, da bo računalnik na Go-ju pretepel človeka.
Čeprav je podvig impresiven, se je AlphaGo naučil igrati igro z analizo prejšnjih iger, ki so jih igrali ljudje. Toda kot poroča Merrit Kennedy v NPR, je nova različica umetne inteligence, imenovana AlphaGo Zero, ugotovila, kako obvladati igro sama, brez človeškega vložka ali manipulacij - napredek, ki ima velike posledice za prihodnji razvoj AI.
Kot piše v sporočilu za javnost DeepMind, so se prejšnje različice AlphaGo igro naučile tako, da so preučevale tekme med profesionalnimi in močnimi ljubiteljskimi igralci, absorbirale pravila igre in uspešne strategije igranja. AlphaGo Zero pa si ni ogledal nobene igre, ki so jo igrali ljudje. Namesto tega so ji dodelili pravila igre in nato igrali proti sebi, s pomočjo okrepljenega učenja, da se je učil pravilnih in napačnih potez in dolgoročnih strategij. Medtem ko je AI igral igro, je posodobil svojo napredno nevronsko mrežo, da bi bolje napovedoval nasprotnikove poteze.
Raziskovalci so opazovali, kako AI obvlada igro v realnem času. Po treh dneh je lahko premagal prejšnjo različico, imenovano AlphaGo Lee, ki je v štirih od petih iger leta 2016 premagala korejskega mojstra Goea Leeja Sedol. Po 21 dneh je premagal AlphaGo Master, različico, ki je v spletu premagala 60 najboljših igralcev Go in najboljši igralec sveta Ke Jie v začetku tega leta. Najnovejša različica je AlphaGo Master 100 iger presegla na 0. Po 40 dneh je dosegla raven igre, ki je še nihče ni videl. Raziskava se pojavlja v reviji Nature.
"AlphaGo Zero je v kratkem času razumel vse znanje Go, ki so ga ljudje nabrali v tisoč letih igranja, " je v Youtube videu povedal vodilni raziskovalec David Silver iz Googlovega podjetja DeepMind. "Včasih je pravzaprav izbrano, da preseže to in odkrije nekaj, česar ljudje v tem času sploh niso odkrili, in odkrili nova spoznanja, ki so v mnogočem ustvarjalna in nova."
Kot poroča Agence France-Presse, je AlphaGo Zero to stopnjo mojstrstva dosegel veliko bolj učinkovito kot predhodniki. Medtem ko je prejšnja iteracija imela 48 enot za obdelavo podatkov in je v nekaj mesecih igrala 30 milijonov vadbenih iger, je Zero imel samo 4 procesne enote in je v treh dneh igral 4, 9 milijona treningov. "Ljudje ponavadi domnevajo, da je strojno učenje povezano z velikimi podatki in velikimi količinami računanja, toda dejansko smo videli pri AlphaGo Zero, da so algoritmi pomembni veliko več, " je Silver povedal za AFP.
Toda raziskava je več kot le obvladanje družabne igre. Kot poroča Ian Sample iz The Guardian, bi lahko ta vrsta tabula rasa ali prazen skrilavca privedla do nove generacije umetne inteligence splošne namene, ki bi lahko pomagala rešiti težave na področjih, ki jih je mogoče dobro simulirati v računalniku, kot je sestava drog, zlaganje beljakovin ali fizika delcev. S tem, ko bi svoje znanje nadgrajevali od spodaj navzgor brez človeških pristranskosti ali omejitev, bi algoritmi lahko šli v smeri, za katero ljudje še niso razmišljali.
Medtem ko mnogi v AI skupnosti vidijo AlphaGo Zero kot velik dosežek, Gary Marcus, profesor psihologije na newyorški univerzi, ki je specializiran za umetno inteligenco, za NPR Kennedy pravi, da ne misli, da je algoritem resnično tabula rasa, ker je pred človekovim znanjem šlo v konstrukcijo algoritma. Prav tako se mu ne zdi, da je tabula rasa AI tako pomemben, kot se zdi. "[V] biologiji dejanski človeški možgani niso tabula rasa ... Ne vidim glavnega teoretičnega razloga, zakaj bi to morali storiti, zakaj bi morali opustiti veliko znanja, ki ga imamo o svetu, " pravi.
Kljub temu je hitro obvladanje igre Alpha Go impresivno - in nekoliko zastrašujoče.