https://frosthead.com

האם רובוטים הרוצחים יכולים ללמוד לעקוב אחר כללי המלחמה?

כמו שזכרון הזכרון מזכיר לנו כל שנה, מלחמה לא חולפת.

אבל זה כן משתנה. ואחת התזוזות העמוקות יותר שנראה בשנים הבאות היא לצבא התלוי יותר ויותר ברובוטים. מל"טים זוכים לרוב תשומת הלב כעת, אך יותר ויותר מהחידושים של משרד ההגנה הם סוגים אחרים של מכונות בלתי מאוישות, מכלי טיס ניסיוניים ועד חיילים בשטח.

קל להבין את האטרקציה. השימוש ברובוטים הוא יעיל יותר, מדויק יותר ופחות יקר מאשר להסתמך אך ורק על בני אדם בלוחמה. וזה כמובן אומר גם פחות נפגעים אנושיים.

אך טרנספורמציה זו מביאה עמה אתגר מורכב: האם ניתן לתכנת מכונות צבאיות לקבלת החלטות? מה שמוביל לשאלה דביקה יותר: האם רובוטים יכולים ללמוד מוסר?

משרד המחקר הימי האמריקני חושב שזה הזמן לגלות. מוקדם יותר החודש היא הודיעה על מענק של חמש שנים, 7.5 מיליון דולר, למימון מחקר באוניברסיטאות טופטס, בראון, ייל וג'ורג'טאון ובמכון הפוליטכני רנססלייר (RPI) לשאלה האם מכונות יכולות יום אחד לבחור נכון בין לא נכון.

חיל הים רוצה להימנע מהמצב שעומדת כעת בפני המכונית חסרת הנהג של גוגל: בעלת טכנולוגיה ששוחררה הרחק לפני כל בהירות בנושאים המשפטיים והאתיים שהיא מעלה. לפני שרובוטים אוטונומיים יוצאים לשטח, הצבא רוצה לדעת אם הם באמת יכולים ללמוד לעשות את הדבר הנכון.

כפי שרומר ברינג'ורד, ראש המחלקה למדעי הקוגניטיבי של RPI רואה זאת, ניתן לתכנן את הבינה המלאכותית של הרובוט כך שתתפקד בשתי רמות מוסריות. הראשונה תתבסס על רשימת בחירות אתיות ברורות, כמו "אם אתה נתקל בחייל פצוע, אתה צריך לעזור לו או לה." אבל מה אם פעולה זו מתנגשת עם המשימה העיקרית שלה, כמו למשל העברת תחמושת שנחוצה לה באופן קריטי חיילים אחרים? בשלב זה, אומר ברינג'סורד, הרובוט היה צריך את היכולת לעסוק ב"הנמקה מוסרית עמוקה יותר "כדי לקבל החלטות במצבים שהתכנתים שלה אולי לא היו מסוגלים לצפות.

החוקרים יצטרכו לפתח אלגוריתמים ומנגנוני חישוב ייחודיים שניתן לשלב בארכיטקטורה הקיימת של רובוטים אוטונומיים, "תהליך חשיבה" שיאפשר למכונה לעקוף התנהגות מתוכננת על בסיס יכולתה ליישם הנמקה מוסרית.

אם זה נראה שאפתני במיוחד, כן. ראשית, על החוקרים לבודד את המרכיבים הבסיסיים של המוסר האנושי - על איזה עקרונות כולנו מסכימים? ואז להבין כיצד לשלב אותם באלגוריתמים שיעניקו לרובוטים מידה מסוימת של יכולת מוסרית.

זו לא התחייבות קטנה. מסיבה זו, סביר להניח שמכונות שלא נשלטות על ידי בני אדם, בעתיד הנראה לעין, יוגבלו לתפקידים שאינם קרביים, כמו פיקוח, ביטחון, חיפוש והצלה או טיפול רפואי. אך באופן בלתי נמנע, מתכננים צבאיים ירצו תשובה לשאלה התלויה על כל זה: האם אי פעם יהיה רשאי לרובוטים, הפועלים בעצמם, להרוג אדם?

אם מכונה בטוחה ב 90 אחוז שכל אחד ברכב שהיא מתכוונת לירות הוא טרוריסט, האם זה בטוח מספיק? האם רובוט יוכל לירות נשק על ילד אם הוא יקבע שהוא האויב? אם משהו משתבש ורובוט אוטונומי מפוצץ בטעות כפר, מי אחראי? המפקד שהורה על המבצע? האדם שתכנת את הרובוט? או אף אחד?

אם אתם חושבים שזה עדיין דברים של מדע בדיוני, קחו בחשבון כי מוקדם יותר החודש מומחים לנושאים שנעו בין בינה מלאכותית לזכויות אדם ועד למשפט בינלאומי נשקלו על "רובוטים הרוצחים" בכנס האו"ם בז'נבה. קבוצות כמו Human Rights Watch ופקידים מקומץ מדינות, כולל פקיסטן, מצרים, קובה והוותיקן, קראו לאסור על רובוטים בעל הסמכות להרוג. אבל רוב המדינות, במיוחד המדינות עם הרובוטים המתקדמים ביותר, אינן מוכנות להגיע רחוק כל כך.

תסתכל, למשל, ב- WildCat, רובוט בעל ארבע רגליים שמתפתח לרוץ במהירות גבוהה בכל סוגי השטח.

לעת עתה, צבא ארה"ב עוקב אחר הנחיית משרד ההגנה משנת 2012 לפיה שום מכונה בעלת כוח להרוג לא יכולה להיות אוטונומית לחלוטין. אדם צריך, פשוטו כמשמעו, לקרוא לצילומים. אך יתכן וזה לא נכון בכל המקומות: במרץ ציטט ניו-מדען גורם רשמי ברוסיה ואמר כי שומרי רובוט בחמישה מתקני טילים בליסטיים יוכלו לזהות ולהשמיד יעדים מבלי שאדם ייתן את הדרך.

הטלפון פוסטר-מילר, שנראה למטה, הוא אחת המכונות הרבות ברחבי העולם שפותחו ללחימה.

כללי מלחמה

דו"ח על ועידת הרובוט הרוצח יובא בפני וועדת הנשק הקובנטציונלית מסוימת של האו"ם בנובמבר. אך לא נראה כי האיסור מגיע בקרוב.

בין המצטרפים לדיון בז'נבה היה רונלד ארקין, מומחה לבינה מלאכותית מג'ורג'יה טק, שהיה זמן רב תומך במתן למכונות את היכולת לקבל החלטות מוסריות. הוא מאמין שאם הרובוטים יכולים ללמוד לעקוב אחר החוק הבינלאומי, הם יכולים למעשה להתנהג יותר מבחינה אתית מאשר בני אדם בלוחמה מכיוון שהם יהיו עקביים ללא תוקף. הם לא יוכלו להגיב בכעס או בפאניקה או בדעות קדומות. אז ארקין מתנגד לאיסור, אם כי הוא פתוח להקמת מורטוריום על נשק אוטונומי עד שניתנה למכונות הזדמנות לראות אם הם יכולים לשלוט בכללי המלחמה.

מדען AI אחר, נואל שרקי, שהתלבט עם ארקין בז'נבה, הוא בעל תודעה שונה מאוד. הוא לא חושב שאי פעם צריך לתת לרובוטים את הסמכות לקבל החלטות על חיים או מוות.

לאחרונה הוא אמר ל- Defense One : "אני לא חושב שהם אי פעם יגיעו לרובוט מוסרי או אתי. לשם כך עלינו להיות סוכנות מוסרית. לשם כך עלינו להבין אחרים ולדעת מה המשמעות של סבל. "

"יתכן ומותקן רובוט עם כללי כללי אתיקה, אבל לא ממש אכפת לו", הוא אומר.

האם רובוטים הרוצחים יכולים ללמוד לעקוב אחר כללי המלחמה?