Po celou dobu jejich ohromující frekvence zůstávají školní střelby matoucí hrůzou.
Nejenže existuje jen malý konsenzus o tom, jak je zastavit - s návrhy sahajícími od omezení přístupu ku zbraním na učitele vyzbrojování -, ale je ještě méně jisté, proč by student zahájil palbu na své spolužáky.
Nyní někteří vědci začínají zkoumat, zda umělá inteligence (AI) pomůže najít odpovědi. Myšlenka je taková, že algoritmy by mohly být schopny lépe analyzovat údaje týkající se školní střelby a možná dokonce identifikovat vzorce v studentském jazyce nebo chování, které by mohly předstírat školní násilí. Výzkum je stále v počátečních fázích a vyhlídky na použití strojů k předpovídání toho, kdo by se mohl stát školním střelcem, vyvolávají problémy s ochranou soukromí a další etické otázky spojené s jakýmkoli druhem profilování, zejména proto, že tento proces by zahrnoval děti. Cílem je však zjistit, zda analytická síla inteligentních strojů dokáže tragédiím, které jsou příliš často spotřebovány ve víru vysokých emocí a politické rétoriky, poskytnout větší jasnost.
Pokud jde o technologii
Použití umělé inteligence jako způsobu, jak přivést vědeckou analýzu k něčemu tak nepochopitelnému, jako jsou školní střelby, se na Shreya Nallapati velmi líbilo. Vystudovala střední školu v Coloradu, ale zpět v únoru, po střelbě smrti 17 studentů v Parklandu na Floridě, byla inspirována vůdčí studentkou Emmou Gonzalezovou, aby podnikla kroky.
"Cítil jsem, že bychom neměli jen zveřejňovat naše myšlenky a soustrast, " říká Nallapati. "Myslel jsem, že jako rostoucí generace tisíciletí bychom se měli pokusit použít to, co víme nejlépe - technologii."
Nallapati, která na střední škole studuje umělou inteligenci, oslovila další mladé ženy, které zná, prostřednictvím programu s názvem Aspirations in Computing, který provozuje Národní středisko pro ženy a informační technologie. Aspirace v práci na počítači povzbuzují mladé ženy k vstupu do výpočetní a technologické oblasti.
Nallapati požádala ostatní ve skupině, aby se k ní připojili v novém projektu #NeverAgainTech. Doufá, že společné úsilí povede k kompilaci a analýze širokého spektra údajů týkajících se střelby ze školy - od demografických a sociálně-ekonomických informací o minulých střelcích, až po historii užívání drog nebo neurologické poruchy, až po historii dostupnost zbraní ve státech, kde došlo k útokům. Cílem je vyvinout komplexnější rozpis mnoha složek školních střel, než cokoli, co v současné době existuje, a příští rok zpřístupnit výsledný software veřejnosti, zejména školám a donucovacím orgánům.
Posouzení rizika
Tým vědců ve zdravotnickém středisku dětské nemocnice Cincinnati zaujímá odlišný přístup při používání umělé inteligence k řešení násilí ve školách. Zveřejnila nedávnou studii naznačující, že strojové učení by mohlo potenciálně pomoci terapeutům a poradcům při rozpoznávání úrovně rizika, které může student představovat.
Vědci konkrétně zjistili, že umělá inteligence byla stejně přesná jako skupina dětských a adolescentních psychiatrů, pokud jde o hodnocení rizika násilného chování, na základě rozhovorů se 119 dětmi ve věku od 12 do 18 let. agresivita, vedoucí výzkumník Drew Barzman říká, že to bylo také použitelné pro hodnocení rizika školní střelby.
"Obvykle existují varovné signály před násilím ve škole, " říká. Konkrétně, jazyk, který student během pohovoru používá, může podle předchozího výzkumu Barzmana pomoci odlišit vysoce rizikového dospívajícího od nízkorizikového. Tato studie dospěla k závěru, že první z nich pravděpodobněji vyjádřil negativní pocity vůči sobě samému a vůči jednáním druhých. Pravděpodobněji také hovořil o násilných činech, které se ho týkaly, ao násilných videohrách nebo filmech.
Tým učinil další krok tím, že algoritmus AI využil výsledky dřívější studie k analýze transkriptů studentů rozhovorů pro nový výzkum. Na základě jazykových vzorců to naznačovalo, zda u člověka bylo vysoké nebo nízké riziko páchání násilí. Algoritmus, využívající pouze transciripty, byl více než 91 procent času v souladu s rozsáhlejším hodnocením týmu dětských a dospívajících psychiatrů, kteří měli také přístup k informacím od rodičů a škol.
Studenti studie byli převážně přijímáni z psychiatrických ambulancí, lůžkových jednotek a pohotovostních oddělení. Někteří nedávno projevili zásadní změny v chování, u jiných však změny byly menší. Barzman říká, že navštěvovali rozmanitou škálu škol, ačkoli žádná z nich nebyla doma vzdělávána.
Podle Barzmana se studie zaměřila na předpovídání fyzické agresivity ve škole, ale stále není známo, zda strojové učení může skutečně zabránit násilí. Těžištěm tohoto bodu je poskytnout terapeutům a poradcům nástroj, který by na základě rozhovorů mohl zlepšit jejich hodnocení studentů. Barzman poznamenává, že záměrem není, aby stroje rozhodovaly o studentech.
„V zásadě by to mělo pomoci lékaři při jeho rozhodování, “ říká Barzman. "Poskytovali bychom jim strukturu toho, co jsme považovali za důležité otázky. Může být obtížné pohovorovat se studentem, vybrat správné informace a zapamatovat si vše. Cílem je poskytnout jim nástroj, který jim může pomoci procesem a zvýšit přesnost jejich hodnocení. “
Matty Squarzoni je další věřící v potenciál umělé inteligence při řešení školního násilí. Je generálním ředitelem kalifornského startupu s názvem Sitch AI, který plánuje uvádět na trh technologii, o které říká, že by mohl pomoci školám vypořádat se s takovými hrozbami. Počáteční pozornost bude zaměřena na vývoj systému senzorů, který umožní policistům zjistit přesnou polohu střel a také sledovat pohyby střelců ve škole. Ale Squarzoni říká, že společnost také hledá způsoby, jak využít prediktivní analýzu k odhalení potenciálních problémů, než se stanou násilnými.
Věří, že umělá inteligence může analyzovat studentova data a označit významné změny v jeho výkonu nebo chování. Squarzoni uznává potenciální obavy ohledně soukromí, ale říká, že společnost by neznala totožnost studentů.
"Nemluvíme o vytváření profilů, " říká. "Dívali bychom se na každou osobu jako na jedinečnou entitu." Lidé jsou však zvykem. Když začnou mít nesrovnalosti, pak se na ně začnete dívat. Uvidíte vlajky a možná se vlajky začnou přibližovat. Mohly by to být problémy duševního zdraví, nebo možná jejich známky klesají.
"Nedíváme se na to, abychom mohli říct:" Tato osoba bude střelec. " Chceme být schopni říci: „Tento člověk potřebuje pomoc.“ “
Ne tak rychle?
Jiní však mají vážné obavy z náhlého používání softwarových algoritmů k řešení složitých společenských problémů.
"Nyní vidíme trend aplikování umělé inteligence na velmi citlivé oblasti alarmující rychlostí a lidé, kteří vytvářejí tyto algoritmy, nemusí nutně rozumět všem sociálním a dokonce i politickým aspektům dat, která používají, " říká Rashida Richardson, ředitelka výzkumu politik na institutu AI Now Institute, program na New York University, který studuje sociální důsledky umělé inteligence.
Jednou z oblastí, kde se použití AI dostala pod palbu, je tzv. Prediktivní policie. Jedná se o softwarové produkty, které analyzují statistiku kriminality a poté předpovídají, kde je pravděpodobnější spáchání trestných činů. Kritici však poukazují na to, že data, jako je zatčení, mohou být výsledkem lidské zaujatosti, která se nakonec může do algoritmu upečet.
To je vždy riziko prediktivní analýzy a proč je zdroj dat klíčovým faktorem při určování toho, jak objektivně to může být. S nástrojem umělé inteligence vyvinutým výzkumníky dětské nemocnice v Cincinnati je však analýza založena na tom, co jednotliví studenti říkají během rozhovoru, spíše než na široké kompilaci statistik.
Richardson přesto věří, že je důležité, aby týmy, které vytvářejí tento druh softwaru, byly „interdisciplinární“, takže například pedagogové jsou zapojeni do programů, které hodnotí chování studentů.
„Vědci možná nechápou mnoho nuancí toho, co lidé ve světě vzdělávání a právní politiky nazývají školní klima. To zahrnuje otázky bezpečnosti a chování, “říká. "Druh školy, ve které jste, bude často diktovat, jak se jedná o chování a jak se řídí disciplína."
"Například bylo zjištěno, že charterové školy mají mnohem přísnější disciplinární politiku, " dodává Richardson. „S dětmi v tomto prostředí se bude zacházet mnohem odlišněji než ve špičkové soukromé škole a dokonce v různých prostředích veřejné školy.
„Snažit se porozumět velmi komplikovaným problémům, které mají nesčetné množství vstupů a použití technologického řešení, které odráží útržky, je problém, protože může buď opakovat stejné problémy, jaké vidíme ve společnosti, nebo vytvořit řešení problému, který tam není. “
Richardson říká, že dalším problémem je, že i když je program AI vyvíjen s nejlepšími úmysly, může skončit jeho používání způsoby, které jeho tvůrci nepředpokládali.
"Až přijdete s těmito nástroji, " říká, "není to tak, že budete mít nadále kontrolu nad tím, jak jsou implementovány nebo jak budou i nadále ovlivňovat společnost obecně."