האם אפשר לבטוח ברובוטים העשויים להחליף פונקציות אנושיות? 
לפני כשנה, באחד הכבישים הצדדיים במחוז מונמות' שבניו ג׳רזי, שוחררה לנסיעת מבחן מכונית אוטונומית שפיתחה יצרנית השבבים נבידיה. במבט ראשון לא ניכר הבדל בין רכב זה לרכבים אוטונומיים אחרים שיוצרו בגוגל, בטסלה או בג׳נרל מוטורס - אך היה הבדל מהותי ביניהם, הבדל המדגים את הכוח העולה של הבינה המלאכותית. הרכב לא עקב אחרי שום כלל שניתן מראש על ידי מתכנתים. לחלופין, קבלת ההחלטות במוח של הרכב - מתי לעצור, להאיץ ולאן לפנות - התבססה על אלגוריתם שלימד את עצמו לנהוג על ידי ניטור אופן הנהיגה האנושי. הבעיה במערכת מסוג זה היא שלא ברור כיצד הרכב מקבל החלטות. 
חיישני הרכב קולטים מידע מהסביבה. המידע מועבר לרשת עצומה של נוירונים מלאכותיים המעבדים את המידע ולאחר מכן מוציאים פקודה להפעיל את ההגה, הבלמים ומערכות אחרות. אף כי  התגובות ברובן תואמות נהיגה אנושית, יש גם מקרים לא צפויים, כפי שקרה לפני כחודש באריזונה. אישה חצתה את הכביש ונדרסה למוות כאשר רכב אוטונומי של Uber פגע בה. לאחר חקירת האירוע נטען שאילו אדם היה נוהג ברכב, הוא יכול היה למנוע את התאונה ולבלום את הרכב.

הבנת הסיבה המדויקת לתאונה עשויה להיות מאתגרת כיוון שאי אפשר לבקש תשובות מהמערכת. המערכת היא כה מורכבת עד שאפילו המהנדס שתכנן אותה אינו מסוגל לבודד את הסיבה להחלטה מסוימת. אין דרך כיום לייצר מערכת שמסוגלת מחד ללמוד לבדה ומאידך להסביר מדוע הגיעה להחלטה שאליה הגיעה. 
מדוע?
הרעיון העומד מאחורי טכנולוגיה זו, המכונה Deep Learning, הוא לפתח אלגוריתם שיוכל ללמוד לקבל החלטה ולהגיב על מצבים מסוימים בלי שתוכנת לכך מראש. זאת, להבדיל מלמידה מבוססת על כללי החלטה (Rule based), המציינת כללים ברורים לאופני ההתמודדות עם הבעיה שעל הפרק. למשל, אם אתה רואה אור אדום - תעצור. בשיטה המכונה למידת חיזוק (Reinforcement Learning), הרובוט אינו מקבל כללים מוכתבים מראש אלא הגדרה של מה שנחשב להצלחה ומה שנחשב לכישלון. הוא נדרש להסיק באמצעות ניסוי וטעייה אילו מפעולותיו הביאו להצלחה ואילו לכישלון. כיוון שאין כללים מוכתבים מראש, תהליך קבלת ההחלטה אינו שקוף אף למתכנת שפיתח את האלגוריתם.
לדוגמה, נתנו לאלגוריתם להתאמן במשחק שבו יש לשבור בעזרת כדור את כל הלבנים בחומה. לאחר מספר שעות הוא הפך לטוב יותר משחקן אנושי. הוא הגיע למסקנה שהדרך היעילה ביותר לנצח היא ראשית לשבור את הלבנים בצד. כך יכולה המכונה ללמד בני אדם להגיע לפתרונות בדרכים שלא חשבנו עליהן. מערכת זו מסוגלת להתמודד עם משימות כגון עיבוד תמונה, זיהוי קול וניתוח טקסט, מקווים שבעתיד אותן טכנולוגיות יוכלו לסייע בנושאים כמו אבחון מחלות סופניות, השקעות פיננסיות בסדר גודל של מיליוני דולרים ואולי אף על הפעלת נשק.
אחד החששות העיקריים נגד הבינה המלאכותית הלומדת מעצמה, הוא שאין לנו גישה לגורמים העומדים מאחורי ההחלטה. הטענה היא שבטרם נמצא דרכים לייצר טכנולוגיות המאפשרות הבנה של התהליכים שהובילו את האלגוריתם להעדיף אפשרות אחת על אחרת ולקחת אחריות על הפעולות שלהן, לא ניתן לשלבן בחיינו, וזאת לעומת טעות אנוש שכביכול ניתן לחקור ולאתר את  הגורמים שהביאו להחלטה העומדת מאחוריה.
האם אפשר לאפיין את הגורמים העומדים בבסיס קבלת ההחלטות האנושיות?
צ׳ארלס ויטמן היה חניך מצטיין בתנועת הצופים האמריקאית, נשוי באושר ובעל מנת משכל בטווח האחוזון העליון. במהלך שירותו בחיל הנחתים הוענקה לו מדליית זהב על התנהגות מופתית. ב־1966, לאחר שרצח את אשתו ואמו בשנתן, טיפס ויטמן על מגדל התצפית באוניברסיטת טקסס באוסטין ומשם ירה על סטודנטים. הוא רצח 16 ופצע 32. בפתק שהותיר לאחר רצח אמו כתב: ״אני לא יכול להצדיק או להסביר מדוע רצחתי אותה. שלא יהיה ספק לרגע, אהבתי את האישה הזו בכל לבי".
עוד כתב כי הוא מבקש שלאחר מותו תבוצע בו נתיחה במגמה למצוא הסבר לפעולותיו. הנתיחה הוכיחה שהאינטואיציה שלו הייתה נכונה, לויטמן היה גידול סרטני בהיפותלמוס שלחץ על אזור במוח המשפיע על רגשות שליליים, בעיקר פחד ואגרסיה. 
אשליית השליטה - פייק ניוז
למרות הצורך הקיומי שלנו להרגיש שאנו הסוכנים של החלטותינו, ממצאים מהעשור האחרון מראים שוב ושוב שמידת שליטתנו בהחלטות מועטה עד אפסית, תופעה המכונה אשליית הרצון החופשי. אחד הראשונים להראות זאת הוא בארג' בתחילת שנות השמונים. תוך כדי מטלה של סידור משפטים ממילים הקשורות בזקנה (כמו פילדלפיה, בינגו, אפור) נראו הנבדקים הולכים לאט יותר לעומת נבדקים שנחשפו למילים ניטרליות. כאשר צפו בסרטונים שתיעדו את קצב הליכתם, טענו הנבדקים שהיו עייפים באותו יום או שזה מקרי לחלוטין. איש לא היה מוכן להכיר בכך שגורם חיצוני שלט על התנהגותו. 
מאז נאספו עוד עדויות לכך ששליטתנו בהחלטות מועטה, עד שבנג'מין ליבט הוכיח מעבר לכל ספק שתחושת השליטה שאנו מייחסים להחלטותינו היא אשליה בלבד. הוא ביקש מנבדקים במעבדתו להרים את אחת מידיהם ברגע שיחפצו בכך וביקש מהם לדווח על הזמן המדויק שבו החליטו. ליבט מצא עדויות לפעילות מוחית האחראית לתזוזת היד מאות מילישניות לפני שהנבדקים דיווחו על קבלת ההחלטה. במילים אחרות, ההחלטה כבר התקבלה ברמה לא מודעת לפני שהנבדקים "החליטו" במודע להרים את ידם. החוויה הסובייקטיבית של קבלת החלטה היא למעשה דיווח על החלטה שכבר התקבלה, ולא הגורם להתנהגותנו.
לכן השיקול הפוסל רובוטים בטענה שהם אינם צפויים, בהשוואה לבני האדם שהם בעלי שליטה, אינו מחזיק מים. הדבר היחיד המבחין בינינו לבין רובוטים הוא אשליית השליטה. גורמים בסביבה החיצונית והפנימית משפיעים עלינו באופנים שאין לנו גישה אליהם, בדיוק כפי שאצל רובוטים קיים מרכיב של חוסר ודאות. לכן אין מניעה להחליף פונקציות אנושיות מסוימות על ידי מכונות.
לא בכל מצב
אם יש דבר אחד המבדיל בין בני אדם לרובוטים זוהי המודעות. מודעות היא היכולת לחוש ואינטליגנציה היא היכולת לפתור בעיות. אצל בני אדם ויונקים נוספים אינטליגנציה ומודעות הולכים יד ביד והרגש משחק תפקיד קריטי בשניהם. כעס, כאב וברמה המאוד בסיסית - הדחף להתרבות, המתווך על ידי רגשות כמו אהבה ותשוקה - הם המניעים העיקריים לפעולותינו. לעומת זאת אצל רובוטים הרגש אינו משחק תפקיד. הדחף היחיד המניע מכונה לפתור בעיות הוא שתכנתו אותה לכך; אין לה יכולת לחוש כאב, דחף להתרבות או מוטיבציה אינטרינזית לקבלת תגמול. 
במצבים שבהם רגש משחק תפקיד מרכזי, רובוט - אינטליגנטי ככל שיהיה - לא יוכל להוות תחליף לאינטראקציה אנושית. מה שמכתיב את האנושיות שלנו היא העובדה שאנו לא לוגיים, שמתאפשר לנו להיות למען האחר ולהזדהות עם הסבל הלא רציונלי שלו. לכן השיקול היחיד אם לאפשר לרובוטים להחליף פונקציות אנושיות אינו נעוץ בשאלה אם נוכל לעמוד על הגורמים מאחורי קבלת ההחלטה אלא אם יש צורך ברגש כדי לקבל החלטה.
הכותבת היא חוקרת התנהגות בעידן הדיגיטלי, המרכז הבינתחומי הרצליה