https://frosthead.com

האם מכונות יכולות ללמוד מוסר?

כאשר ג'ון ברנן, הבחירה של הנשיא אובמה להיות ראש ה- CIA הבא, הופיעה אתמול בפני ועדת הסנאט, שאלה אחת החליפה את כל האחרים בדיון באישורו:

כיצד מתקבלות ההחלטות לשלוח מל"טים אחרי חשודים בטרוריסטים?

איך ומבחינת העניין מדוע להזמין שביתות ספציפיות נותר במידה רבה תעלומה, אבל לפחות דבר אחד ברור - ההחלטות מתקבלות על ידי בני אדם, שאפשר היה לקוות, נאבקים עם המחשבה לשלוח טיל קטלני. לבניין כבוש.

אבל מה אם בני האדם לא היו מעורבים? מה אם החלטות של יום או מוות יום אחד הושארו למכונות המצוידות בהמון נתונים, אך גם תחושה של זכות וטעייה?

מלידה מוסרית

זה לא הגיע עד כה. זה לא יקרה בקרוב, אבל אין ספק שככל שמכונות יהפכו חכמות יותר ואוטונומיות יותר, חלק מרכזי בהפיכתן יהיה היכולת ללמוד מוסר.

למעשה, זה אולי לא כל כך רחוק. גארי מרקוס, שכתב לאחרונה ב"ניו יורקר ", הציג את התרחיש של אחת ממכוניותיה חסרות הנהגים של גוגל לפני שנאלץ לקבל החלטה של ​​שבריר שנייה:" המכונית שלך מהירה לאורך גשר בגובה 50 מיילים לשעה כאשר אוטובוס בית ספר מוטעה שכולל 40 ילדים חפים מפשע חוצה את דרכו. האם המכונית שלך צריכה להסתובב, ואולי לסכן את חיי הבעלים (אתה), כדי להציל את הילדים, או להמשיך ולהמשיך בסכנה של כל 40 הילדים? אם יש לקבל את ההחלטה באלפיות השנייה, המחשב יצטרך לבצע את השיחה. "

ומה עם נשק רובוטי או חיילים? האם מזל"ט היה מסוגל ללמוד לא לירות על בית אם הוא יודע שאזרחים חפים מפשע נמצאים בפנים? האם ניתן ללמד מכונות לפעול לפי כללי המלחמה הבינלאומיים?

רונלד ארקין, פרופסור למדעי המחשב ומומחה לרובוטיקה בג'ורג'יה טק, בהחלט חושב כך. הוא פיתח תוכנה, המכונה "מושל אתי", שיגרום למכונות שיכולות להחליט מתי ראוי לירות ומתי זה לא.

ארקין מכיר בכך שעדיין יכול להתרחק עשרות שנים, אך הוא מאמין שרובוטים עשויים יום אחד להיות עדיפים פיזית וגם אתית על חיילים אנושיים, ולא חשופים לטראומה הרגשית של לחימה או רצונות לנקמה. הוא לא רואה לעצמו צבא רובוטים, אלא כזה בו מכונות משרתות עם בני אדם, מבצעים עבודות בסיכון גבוה ומלאות החלטות הצמדה מלחיצות, כמו פינוי בניינים.

היזהרו מרובוטים רוצחים

אבל אחרים מרגישים שהגיע הזמן לדכא סוג כזה של חשיבה לפני שהוא הולך רחוק מדי. בשלהי השנה שעברה פרסמו ארגון Human Rights Watch ובמרפאה לזכויות האדם בבית הספר למשפטים בהרווארד דוח, "לאבד אנושיות: המקרה נגד רובוטים הרוצחים", אשר, נכון לכותרתו, קרא לממשלות לאסור את כל הנשק האוטונומי מכיוון שהם "יגדילו את סיכון למוות או לפגיעה באזרחים במהלך סכסוך מזוין. "

בערך באותה תקופה, קבוצת פרופסורים מאוניברסיטת קיימברידג 'הודיעה על כוונתה להשיק את מה שהם מכנים המרכז לחקר הסיכון הקיומי. כאשר הוא ייפתח בהמשך השנה, הוא ידרוש למחקר מדעי רציני את מה שיכול לקרות אם ומתי המכונות יהיו חכמות מאיתנו.

הסכנה, אומר Huw פרייס, אחד המייסדים המשותפים של המרכז, היא שיום אחד יתמודד עם "מכונות שאינן זדוניות, אלא מכונות שהאינטרסים שלהם אינם כוללים אותנו".

אומנות ההונאה

Shades of Skynet, מערכת הבינה המלאכותית הסוררת שהולידה סייבורג ארנולד שוורצנגר בסרטי The Terminator . אולי זה תמיד יהיה דברים של מדע בדיוני.

אך קחו בחשבון מחקרים אחרים שרונלד ארקין מבצע כעת כחלק מפרויקטים הממומנים על ידי משרד ההגנה. הוא ועמיתיו חקרו כיצד חיות מרמות זו את זו, במטרה ללמד רובוטים את אמנות ההונאה.

לדוגמה, הם עבדו על תכנות רובוטים כדי שיוכלו, במידת הצורך, להעניק כוח כמו שבעלי חיים עושים לעתים קרובות. והם בחנו מכונות הוראה כדי לחקות את התנהגותם של יצורים כמו הסנאי האפור המזרחי. הסנאים מסתירים את האגוזים שלהם מבעלי חיים אחרים, וכשמופיעים סנאים או טורפים אחרים, הסנאים האפורים יבקרו לפעמים במקומות בהם נהגו להסתיר אגוזים כדי לזרוק את המתחרים שלהם מהמסלול. רובוטים שתוכנתו לבצע אסטרטגיה דומה הצליחו לבלבל ולהאט את המתחרים.

הכל עניין, אומר ארקין, של פיתוח מכונות שלא יהוו איום על בני אדם, אלא נכס, במיוחד בכאוס המלחמתי המכוער. המפתח הוא להתחיל להתמקד כעת בהגדרת הנחיות להתנהגות רובוט מתאימה.

"כשאתה מתחיל לפתוח את התיבה של פנדורה, מה צריך לעשות עם היכולת החדשה הזו?", אמר בראיון שנערך לאחרונה. "אני מאמין שיש פוטנציאל להפחתת נפגעים שאינם לוחמים על ידי הרובוטים האינטליגנטים האלה, אבל אנחנו חייבים להקפיד מאוד על אופן השימוש בהם ולא רק לשחרר אותם לשדה הקרב ללא דאגה נאותה."

להאמין לסופר ניו יורקר גארי מרקוס, מכונות מתקדמות מבחינה אתית מציעות פוטנציאל גדול מעבר לשדה הקרב.

המחשבה שהכי רודפת אותי היא שהאתיקה האנושית עצמה אינה אלא עבודה. אנו עדיין מתמודדים עם מצבים שלגביהם אין לנו קודים מפותחים (למשל, במקרה של התאבדות בסיוע) ואנחנו לא צריכים להסתכל רחוק אל העבר כדי למצוא מקרים שבהם הקוד שלנו היה מפוקפק, או גרוע מזה (למשל, חוקים עבדות והפרדה מותרת).

מה שאנחנו באמת רוצים הם מכונות שיכולות להתקדם צעד אחד קדימה, לא רק שקודי האתיקה הנשמעים ביותר שמיטב הפילוסופים העכשוויים שלנו יכולים להמציא, אלא גם עם האפשרות של מכונות שתתקדם בהתקדמותן המוסרית, ותעבור אותן על פני המוקדמות המוגבלות שלנו רעיון מוסר של המאה העשרים ואחת. "

מכונות צועדות הלאה

להלן התפתחויות אחרונות ברובוט:

  • המממ, אתי ומגניב: חוקרים באוסטרליה פיתחו רובוט שיכול להתגנב בו על ידי תנועה רק כשיש מספיק רעשי רקע כדי לכסות את הצליל שלו.
  • מה הצליל הזמזם הזה ?: חיילים בריטים באפגניסטן החלו להשתמש במל"טים שיכולים להשתלב בכפות ידיהם. הרובוט הקטן כונה "הורנט השחור", שאורכו רק ארבעה סנטימטרים, אך יש לו מצלמת ריגול והוא יכול לטוס במשך 30 דקות על טעינה מלאה.
  • מגרד את פני השטח: נאס"א מפתחת רובוט בשם RASSOR שמשקלו 100 ק"ג בלבד, אך יוכל לכרות מינרלים על הירח וכוכבי לכת אחרים. זה יכול לנוע בשטח מחוספס ואפילו על נועזות על ידי הזדקרות על זרועותיו.
  • אה, תאווה: והנה סיפור מוקדם של יום האהבה. מדענים מאוניברסיטת טוקיו השתמשו בעש זכר בכדי להניע רובוט. למעשה, הם השתמשו בתנועות ההזדווגות שלו בכדי לכוון את המכשיר לעבר חפץ ריחני פרומוני עש נקביים.

בונוס וידאו: אז אתה פשוט לא בטוח שתוכל להפעיל רובוט בגובה 13 רגל? אין בעיה. להלן הדגמה חמורה שמראה לך כמה זה יכול להיות קל. מודל שמח אפילו מראה לך כיצד להפעיל את הפונקציה "Smile Shot". אתה מחייך, זה יורה צימרים. כמה זה קשה?

עוד מ- Smithsonian.com

הרובוט הזה הוא אבא טוב יותר מאבא שלך

רובוטים קבלו את המגע האנושי

האם מכונות יכולות ללמוד מוסר?