https://frosthead.com

Ali lahko umetna inteligenca pomaga zaustaviti streljanje v šoli?

Šolska streljanja za vse svoje osupljive pogostosti ostajajo zmedena groza.

Ne le, da je le malo soglasja, kako jih ustaviti - s predlogi, ki segajo od omejitve dostopa do pištole do učiteljev z oboroževanjem -, še manj pa je gotovosti, zakaj bi študent odprl ogenj na sošolce.

Zdaj nekateri znanstveniki začenjajo raziskovati, ali bi umetna inteligenca (AI) lahko pomagala najti odgovore. Ideja je, da bi algoritmi lahko bolje analizirali podatke, povezane s šolanjem, in morda celo prepoznali vzorce v jeziku ali vedenju učencev, ki bi lahko napovedovali nasilje v šoli. Raziskava je še v zgodnji fazi in možnost uporabe strojev za napovedovanje, kdo bi lahko postal šolski strelec, sproža vprašanja zasebnosti in druga etična vprašanja, povezana s kakršno koli profiliranjem, še posebej, ker bi v ta proces vključevali otroke. Cilj pa je ugotoviti, ali lahko analitična moč inteligentnih strojev zagotovi večjo jasnost tragedijam, ki se prepogosto porabljajo v vrtincu visokih čustev in politične retorike.

Prehod na tehnologijo

Uporaba umetne inteligence kot načina, da znanstveno analizo pripeljete do nečesa neprimerljivega, kot so šolska streljanja, je bila zelo všeč Shreya Nallapati. Pravkar je končala srednjo šolo v Koloradu, toda že februarja, po streljanju 17 študentov v Parklandu na Floridi, jo je študentska vodja Emma Gonzalez navdihnila za ukrepanje.

"Čutil sem, da ne bi smeli samo objavljati svojih misli in sožalje, " pravi Nallapati. "Mislil sem, da bi morali kot naraščajoča generacija tisočletnikov poskušati uporabiti tisto, kar najbolje znamo - tehnologijo."

Tako je Nallapati, ki se v srednji šoli šola za umetno inteligenco, stopila v stik z drugimi mladimi ženskami, ki jih pozna s programom Aspirations in Computing, ki ga vodi Nacionalni center za ženske in informacijsko tehnologijo. Prizadevanja v računalništvu spodbujajo mlade ženske, da se podajo na računalništvo in tehnološka področja.

Nallapati je prosila druge v skupini, naj se ji pridružijo v novem projektu, #NeverAgainTech. Upa, da bodo skupna prizadevanja privedla do zbiranja in analize širokega spektra podatkov o šolskih strelih - od demografskih in socialno-ekonomskih informacij o preteklih strelcih, do zgodovine uživanja drog ali nevroloških motenj do razpoložljivost pušk v državah, kjer so se napadi zgodili. Cilj je razviti bolj celovito razčlenitev številnih delov šolskih strelov kot vse, kar trenutno obstaja, in naslednje leto omogočiti dostopno programsko opremo javnosti, zlasti šolam in organom kazenskega pregona.

Ocenjevanje tveganja

Skupina raziskovalcev Medicinskega centra otroške bolnišnice v Cincinnatiju uporablja drugačen pristop pri uporabi AI za reševanje nasilja v šoli. Objavil je nedavno študijo, ki nakazuje, da lahko strojno učenje terapevtom in svetovalcem pomaga pri ugotavljanju stopnje tveganja, ki jo študent lahko predstavlja.

Znanstveniki so ugotovili, da je bil AI natančen kot skupina otroških in mladostniških psihiatrov, ko gre za oceno tveganja za nasilno vedenje, na podlagi intervjujev s 119 otroki med 12. in 18. letom. Medtem ko se je študija na splošno osredotočila na fizično agresija, vodilni raziskovalec Drew Barzman pravi, da je bil uporaben tudi za oceno nevarnosti streljanja v šoli.

"Običajno so pred nasiljem v šoli opozorilni znaki, " pravi. Zlasti jezik, ki ga študent uporablja med intervjujem, lahko pomaga razlikovati visoko tveganega najstnika od tistega z nizkim tveganjem, kažejo prejšnje raziskave, ki jih je Barzman usmeril. V tej študiji je bilo ugotovljeno, da prvi verjetneje izraža negativna čustva do sebe in do dejanj drugih. Prav tako je pogosteje govoril o nasilnih dejanjih, ki vključujejo samega sebe, in nasilnih video igrah ali filmih.

Skupina je naredila še en korak tako, da je algoritem AI uporabil rezultate prejšnje študije za analizo prepisov študentov, intervjuvanih za novo raziskavo. Na podlagi jezikovnih vzorcev je kazalo, ali ima oseba visoko ali majhno tveganje za nasilje. Več kot 91 odstotkov časa se je algoritem, ki uporablja samo transciptike, uskladil z obsežnejšimi ocenami skupine otroških in mladostniških psihiatrov, ki so prav tako imeli dostop do informacij staršev in šol.

Študenti v raziskavi so bili večinoma zaposljeni iz psihiatričnih ambulant, bolnišničnih enot in urgentnih oddelkov. Nekateri so nedavno pokazali večje vedenjske spremembe, pri drugih pa so bile spremembe manjše. Barzman pravi, da so obiskovali različne šole, čeprav nobena ni bila doma.

Po Barzmanovih besedah ​​se je študija osredotočila na napovedovanje fizične agresije v šoli, vendar še vedno ni znano, ali lahko strojno učenje dejansko prepreči nasilje. Poudarek na tej točki je zagotoviti terapevtom in svetovalcem orodje, ki bi lahko na podlagi intervjujev poostrilo njihove ocene študentov. Barzmanova namera ni, da bi stroji odločali o študentih.

"V bistvu bi bilo mišljeno, da kliničnikom pomagamo pri njegovem odločanju, " pravi Barzman. "Zagotovili bi jim strukturo, za kar smo ugotovili, da je pomembna vprašanja. Težko je zaslišati študenta, izbrati prave informacije in si zapomniti vse. Ideja je, da bi jim ponudili orodje, ki jim lahko pomaga s postopkom in povečati natančnost njihovih ocen. "

Matty Squarzoni je še en vernik potenciala umetne inteligence pri obravnavanju nasilja v šoli. Je izvršni direktor kalifornijskega zagona Sitch AI, ki načrtuje trženje tehnologije, za katero pravi, da bi šolam lahko pomagala pri soočanju s takšnimi grožnjami. Prvotni poudarek bo na razvoju sistema senzorjev, ki bo policistom omogočil zaznavanje natančne lokacije strelnih strelov in tudi spremljanje gibanja strelca skozi šolo. Toda Squarzoni pravi, da podjetje prav tako išče načine, kako uporabiti napovedno analizo, da bi odkril morebitne težave, preden postanejo nasilne.

Verjame, da bi umetna inteligenca lahko analizirala študentske podatke in opozorila na opazne spremembe v njegovi uspešnosti ali vedenju. Squarzoni priznava morebitne pomisleke glede zasebnosti, vendar pravi, da podjetje ne bi poznalo identitete študentov.

"Ne govorimo o ustvarjanju profilov, " pravi. "Na vsako osebo bi gledali kot na edinstveno entiteto. Toda ljudje smo navada. Ko začnejo imeti nepravilnosti, takrat začnete gledati v njih. Zaznate zastave in morda se zastave začnejo vedno bolj približati. Lahko bi bili vprašanja duševnega zdravja ali pa morda njihove ocene upadajo.

"Ne gledamo, da bi mogli reči:" Ta oseba bo strelec. " Radi bi lahko rekli: "Ta oseba potrebuje pomoč."

Ne tako hitro?

Toda drugi imajo resno zaskrbljenost zaradi naglice k uporabi programskih algoritmov za reševanje kompleksnih družbenih vprašanj.

"Zdaj opažamo trend, da se AI uporablja za zelo občutljive domene z alarmantno hitrostjo in ljudje, ki izdelujejo te algoritme, ne razumejo nujno vseh družbenih in celo političnih vidikov podatkov, ki jih uporabljajo, " pravi Rashida Richardson, direktorica političnega raziskovanja na AI Now Institute, programu na newyorški univerzi, ki preučuje družbene posledice umetne inteligence.

Eno od področij, kjer je uporaba AI postala ogrožena, je tista, ki jo imenujemo napovedovanje policistov. Gre za programske izdelke, ki analizirajo statistiko kriminala in nato napovedujejo, kje je kazniva dejanja bolj verjetno storjena. Kritiki pa poudarjajo, da so lahko podatki, kot so aretacije, posledica človeške pristranskosti, ki se na koncu lahko zaplete v algoritem.

To je vedno tveganje za napovedno analizo in zakaj je vir podatkov ključni dejavnik pri določanju, kako objektiven je dejansko. Z orodjem AI, ki ga razvijajo raziskovalci otroške bolnišnice Cincinnati, pa analiza temelji na tem, kaj posamezni študenti rečejo med intervjujem, in ne na široki zbirki statistik.

Kljub temu Richardson meni, da je pomembno, da so ekipe, ki ustvarjajo tovrstno programsko opremo, "interdisciplinarne", tako da so na primer učitelji vključeni v programe, ki ocenjujejo vedenje učencev.

„Raziskovalci morda ne razumejo veliko odtenkov tistega, kar ljudje v svetu izobraževanja in pravne politike imenujejo šolsko ozračje. To vključuje vprašanja varnosti in vedenja, «pravi. "V šoli, v kateri sodelujete, boste pogosto narekovali, kako ravnati in kako ravnati z disciplino.

"Na primer, v charter šolah je bilo ugotovljeno, da imajo veliko strožje disciplinske politike, " dodaja Richardson. „Otroke v tem okolju bodo obravnavali precej drugače kot v zasebni šoli višjega razreda in celo v različnih javnih šolah.

»Poskus razumevanja zelo zapletenih vprašanj, ki vključujejo nešteto vložkov, in uporaba tehnološke rešitve, ki odraža delček le-tega, je težava, ker lahko znova poudari iste težave, kot jih vidimo v družbi, ali ustvari rešitev za problem, ki ga ni. ”

Richardson pravi, da je še en pomislek, da tudi če se program AI razvija z najboljšimi nameni, ga lahko uporabimo na načine, ki jih njegovi ustvarjalci niso predvideli.

"Ko enkrat pridete do teh orodij, " pravi, "ni tako, da imate še naprej nadzor nad tem, kako se izvajajo ali kako bodo še naprej vplivali na družbo na splošno."

Ali lahko umetna inteligenca pomaga zaustaviti streljanje v šoli?