https://frosthead.com

האם בינה מלאכותית יכולה לעזור לעצור יריות בבתי ספר?

במשך כל התדירות המהממת שלהם, הירי בבית הספר נותר אימה מבלבלת.

לא רק שיש הסכמה מועטה כיצד לעצור אותם - עם הצעות החל מגבלת גישה לאקדחים למורים להתחמש - אלא שיש עוד פחות ודאות בשאלה מדוע תלמיד יפתח באש על חבריו לכיתה.

כעת, כמה מדענים מתחילים לחקור אם בינה מלאכותית (AI) יכולה לעזור למצוא תשובות. הרעיון הוא שאלגוריתמים עשויים להיות מסוגלים לנתח טוב יותר את הנתונים הקשורים לירי בבית הספר, ואולי אפילו לזהות דפוסים בשפה או התנהגות של התלמידים שיכולים להבא על אלימות בבית הספר. המחקר עדיין בשלביו המוקדמים, והסיכוי להשתמש במכונות כדי לחזות מי עשוי להיות יורה בבתי ספר מעלה סוגיות פרטיות ושאלות אתיות אחרות הקשורות לכל פרופילציה, במיוחד מכיוון שהתהליך היה כרוך בילדים. אולם המטרה היא לבדוק אם כוחם האנליטי של מכונות אינטליגנטיות יכול לספק בהירות רבה יותר לטרגדיות הנצרכות לעיתים קרובות מדי בתוך מערבולת של רגשות גדולים ורטוריקה פוליטית.

פונה לטכנולוגיה

השימוש בבינה מלאכותית כדרך להביא ניתוח מדעי למשהו שאי אפשר לתאר כמו ירי של בתי ספר, פנה מאוד לשרייה נאלפתי. היא רק סיימה את לימודיה בתיכון בקולורדו, אך בחודש פברואר, לאחר מותם של 17 תלמידים בפארקלנד, פלורידה, קיבלה השראה ממנהיגת התלמידים אמה גונזלס לפעולה.

"הרגשתי שאסור רק לפרסם את מחשבותינו ותנחומינו, " אומר נאלפתי. "חשבתי שכדור עולה של אלפי שנה, עלינו לנסות להשתמש במה שאנחנו יודעים הכי טוב - טכנולוגיה."

אז נאלפתי, שלמדה בינה מלאכותית בתיכון, פנתה לנשים צעירות אחרות שהיא מכירה דרך תוכנית שנקראה שאיפות למחשבים שמנוהלת על ידי המרכז הארצי לטכנולוגיות מידע ומידע. שאיפות מחשוב מעודדות נשים צעירות להיכנס לתחומי מחשוב וטכנולוגיות.

נאלפתי ביקשה מאחרים בקבוצה להצטרף אליה לפרויקט חדש, #NeverAgainTech. היא מקווה שהמאמץ השיתופי יביא ליקוט וניתוח מונעי AI של מגוון רחב של נתונים הקשורים לירי בבית הספר - החל ממידע דמוגרפי וסוציו-אקונומי על קלעי עבר, וכל היסטוריה של שימוש בסמים או הפרעות נוירולוגיות, וכלה ב זמינות תותחים במדינות בהן אירעו פיגועים. המטרה היא לפתח פירוט מקיף יותר של המרכיבים הרבים של יריות בבתי ספר מכל דבר שקיים כיום, ולהנגיש את התוכנה המתקבלת לציבור, במיוחד בתי ספר ורשויות אכיפת החוק, בשנה הבאה.

הערכת סיכון

צוות חוקרים במרכז הרפואי לבית חולים לילדים בסינסינטי נוקט גישה שונה בשימוש ב- AI לטיפול באלימות בבתי ספר. הוא פרסם מחקר שפורסם לאחרונה, והציע כי למידת מכונה עשויה לסייע למטפלים ומדריכים להבחין ברמת הסיכון שתלמיד עשוי להוות.

באופן ספציפי, המדענים גילו כי ה- AI היה מדויק כמו צוות של פסיכיאטרים בילדים ובני נוער בכל הקשור להערכת הסיכון להתנהגות אלימה, על סמך ראיונות עם 119 ילדים בגילאי 12-18. המחקר התרכז באופן נרחב בפיזיות תוקפנות, אומר החוקר הראשי דרו ברזמן, כי הדבר חל גם על הערכת סיכון הירי בבית הספר.

"בדרך כלל יש שלטי אזהרה לפני שיש אלימות בבית הספר", הוא אומר. בפרט, השפה שתלמיד משתמש בה במהלך ראיון יכולה לעזור להבחין בין נער בסיכון גבוה לבין שפה בסיכון נמוך, על פי המחקר הקודם שביים ברזמן. במחקר זה הגיעו למסקנה כי הראשון היה בעל סיכוי רב יותר להביע רגשות שליליים כלפי עצמו ועל מעשיהם של אחרים. כמו כן, היה יותר סביר שהוא ידבר על מעשים אלימים שהיו מעורבים בו ומשחקי וידאו או סרטים אלימים.

הצוות עשה צעד נוסף על ידי ביצוע תוצאות אלגוריתם AI של המחקר הקודם לניתוח תמלילי סטודנטים שרואיינו למחקר החדש. בהתבסס על דפוסי שפה, הוא ציין אם אדם היה בסיכון גבוה או נמוך לביצוע אלימות. יותר מ 91 אחוז מהזמן, האלגוריתם, שמשתמש אך ורק בתמורות המוח, התאם להערכות הנרחבות יותר של צוות פסיכיאטרי ילדים ובני נוער, שגם להם הייתה גישה למידע מההורים ובתי ספר.

התלמידים במחקר גויסו ברובם ממרפאות החוץ לפסיכיאטריה, יחידות אשפוז ומחלקות חירום. חלקם הציגו לאחרונה שינויים התנהגותיים גדולים, אך עבור אחרים השינויים היו מינוריים יותר. ברזמן אומר שהם למדו במגוון בתי ספר מגוונים, אף על פי שאף אחד מהם לא לימד בית ספר.

לדברי ברזמן, המחקר התמקד בניבוי תוקפנות גופנית בבית הספר, אך עדיין לא ידוע אם למידת מכונה יכולה באמת למנוע אלימות. המוקד בנקודה זו הוא לספק למטפלים ומדריכים כלי שיכול לחדד את הערכותיהם לגבי התלמידים על סמך ראיונות. הכוונה, מציין ברזמן, היא לא שמכונות יקבלו החלטות לגבי סטודנטים.

"זה בעצם נועד לעזור לקלינאי בקבלת ההחלטות שלו", אומר ברזמן. "היינו מספקים להם מבנה של מה שמצאנו כשאלות חשובות. זה יכול להיות קשה לראיין תלמיד, לבחור את המידע הנכון ולזכור הכל. הרעיון הוא לתת להם כלי שיכול לעזור להם באמצעות התהליך ולהגדיל את הדיוק של ההערכות שלהם. "

מתי סקארזוני מאמין נוסף בפוטנציאל הבינה המלאכותית בהתמודדות עם אלימות בבית הספר. הוא מנכ"ל סטארט-אפ בקליפורניה בשם Sitch AI, שמתכנן לשווק טכנולוגיה שלדבריו יכולה לסייע לבתי ספר להתמודד עם איומים כאלה. המוקד הראשוני יהיה בפיתוח מערכת חיישנים שתאפשר לשוטרים לאתר את המיקום המדויק של יריות, וכן לעקוב אחר תנועות היורה דרך בית ספר. עם זאת, אומר סקארזוני כי החברה בוחנת דרכים להשתמש בניתוח חזוי כדי לאתר בעיות פוטנציאליות לפני שהן הופכות לאלימות.

הוא מאמין כי בינה מלאכותית יכולה לנתח את נתוני התלמיד ולסמן שינויים בולטים בביצועיו או בהתנהגותו. Squarzoni מכיר בחששות פוטנציאליים ביחס לפרטיות, אך אומר שהחברה לא תדע את זהותם של התלמידים.

"אנחנו לא מדברים על יצירת פרופילים, " הוא אומר. "היינו מסתכלים על כל אחד כישות ייחודית. אבל בני אדם הם יצורים של הרגל. כאשר הם מתחילים להיות חריגים, זה כאשר אתה מתחיל להסתכל עליהם. אתה מציין דגלים, ואולי הדגלים מתחילים להתקרב יותר ויותר. הם יכולים להיות בעיות בריאות הנפש, או שאולי הציונים שלהם יורדים.

"אנחנו לא מסתכלים על היכולת לומר 'האדם הזה הולך להיות קלע'. אנו רוצים להיות מסוגלים לומר 'אדם זה זקוק לעזרה'. "

לא כל כך מהר?

אולם לאחרים יש חששות כבדים מפני הממהר להשתמש באלגוריתמי תוכנה כדי לטפל בסוגיות חברתיות מורכבות.

"אנו רואים כעת מגמה של AI מוחלת על תחומים רגישים מאוד במהירות מדאיגה, ואנשים שעושים אלגוריתמים אלה אינם בהכרח מבינים את כל ההיבטים החברתיים, ואפילו הפוליטיים של הנתונים שהם משתמשים בהם, " אומר רשידה ריצ'רדסון. מנהל מחקרי מדיניות במכון AI Now, תוכנית באוניברסיטת ניו יורק הבוחנת את ההשלכות החברתיות של בינה מלאכותית.

תחום אחד בו השימוש ב- AI עלה באש הוא מה שמכונה שיטור חזוי. מדובר במוצרי תוכנה המנתחים סטטיסטיקות פשע ואז חוזים היכן יש סיכוי גבוה יותר לפשעים. אך המבקרים מציינים כי נתונים כמו מעצרים יכולים להיות תוצאה של הטיה אנושית, שבסופו של דבר עלולים להיפטר באלגוריתם.

זה תמיד מהווה סיכון לניתוח חזוי ומדוע מקור הנתונים הוא גורם מפתח בקביעת עד כמה הם אכן אובייקטיביים. עם זאת, כלי ה- AI שפותח על ידי חוקרי בית החולים לילדים בסינסינטי, הניתוח מבוסס על דברים שאומרים סטודנטים במהלך ראיון, ולא על אוסף רחב של נתונים סטטיסטיים.

ובכל זאת, ריצ'רדסון מאמין שחשוב שצוותים שיוצרים תוכנה מסוג זה יהיו "בינתחומיים", כך שהמחנכים, למשל, יהיו מעורבים בתוכניות המעריכות את התנהגות התלמידים.

החוקרים אולי לא מבינים הרבה מהניואנסים של מה שאנשים בעולם החינוך והמדיניות המשפטית מכנים אקלים בית ספרי. זה כולל בעיות בטיחות והתנהגות ", היא אומרת. "סוג בית הספר שאתה נמצא בו בדרך כלל יכתיב כיצד מטפלים בהתנהגות ואיך מטפלים במשמעת.

"לדוגמה, נמצא שבבתי ספר שכר יש מדיניות משמעתית הרבה יותר מחמירה", מוסיף ריצ'רדסון. "ילדים בסביבה הזו יטופלו בצורה שונה בהרבה מבית ספר פרטי גבוה ואפילו במסגרות שונות של בתי ספר ציבוריים.

"לנסות להבין נושאים מורכבים מאוד שיש בהם מספר רב של קלט ולהחיל פיתרון טכנולוגי המשקף את הרסיס של הבעיה זו בעיה מכיוון שהיא יכולה לחזור על אותן בעיות שאנו רואים בחברה או ליצור פיתרון לבעיה שאינה שם. "

ריצ'רדסון אומר שדאגה נוספת היא שאפילו אם מפותחת תוכנית AI עם מיטב הכוונות, היא יכולה בסופו של דבר לשמש בדרכים שלא צפו על ידי יוצריה.

"ברגע שתמצא כלים אלה", היא אומרת, "זה לא כאילו שאתה ממשיך לשלוט על אופן יישומם או כיצד הם ימשיכו להשפיע על החברה בכלל."

האם בינה מלאכותית יכולה לעזור לעצור יריות בבתי ספר?