מדעני MIT פיתחו אלגוריתם שיכול ללמוד להכיר טיקים וביטויים זעירים על הפנים האנושיים בכדי לכמת כמה כאב אותו אדם חווה, מדווח מאט ריינולדס ל"מדען החדש " . האלגוריתם יכול לעזור במה שבדרך כלל משימה מסובכת עבור רופאים: לאמוד כיצד האדם מרגיש והאם הוא מגזים או ממזער את הכאב הזה.
נכון לעכשיו, כאבים מדווחים על ידי דירוג מאזניים באמצעות מספרים או תמונות, מדווח לוק דורמהל למגמות דיגיטליות . עם זאת, "סולמות אנלוגיים חזותיים" אלה לכאב יכולים להיות לא מדויקים, וקשים לשימוש עבור אנשים שמתקשים לתרגם סמלים או פרצופים ולהתאים את המשמעות לחוויות שלהם. קבוצה ספציפית שנאבקה בשימוש במערכות אלה הם אנשים עם אוטיזם, רוז אוולט דיווחה על האוקיאנוס האטלנטי בשנת 2015. ושום סולם המדווח על עצמו לא יכול לעקוף מישהו שמנסה לזייף כאבים כדי לקבל מרשם לתרופות.
מחשבים יכולים להיות תשובה אחת לבעיות הללו. חוקרים הכשירו בעבר רשתות עצביות מלאכותיות כדי ללמוד להרים רמזים שאנשים מרבים לעשות כאשר הם סובלים מכאבים בצורה מדויקת הרבה יותר מבני אדם אחרים. אבל התוכניות הללו פועלות בקנה מידה יחיד עבור כל בני האדם, למרות שכאב שונה אצל אנשים שונים ותלוי בהרבה גורמים, כריסטיאנה ריידי וקרלה לאנט כותבים עבור העתידנות .
חוקרים מנסים לתקן את הבעיה. תוכנית חדשה, המתוארת בחודש שעבר בכתב העת Journal of Machine Learning Research, עוברת מעבר לגישה אחת זו שמתאימה לכל אחד עם אלגוריתם כאב שניתן לכוונן היטב על סמך הדמוגרפיה של האדם, תווי הפנים שלו וגורמים אחרים המשפיעים על האופן בו כאב מופיע על פניהם. התוכנית, שנקראה DeepFaceLIFT, הוכשרה באמצעות סרטונים של אנשים עם פגיעות בכתפיים שהתבקשו להזיז את זרועם הפצועה, כותב ריינולדס.
DeepFaceLIFT אינו מיועד להחליף דיווח על כאב מסורתי, אלא להגדיל אותו, מדווח ריינולדס. יוצריה מקווים לפתח אותה לאפליקציה סלולרית שיכולה לשמש רופאים עם סמארטפונים תוך כדי ראיון חולים. אולי בעתיד, הרופא יידע גם אם אתה מנסה לשים פנים אמיצות.