לפני כמה שבועות התווכחתי עם חבר טוב. הוא היה נעול, מקובע, משוכנע. כל טיעון שהעליתי, נתקל בהתנגדות. אז החלטתי לעשות ניסוי. אמרתי לו: "עזוב אותי. דבר עם צ'אט GPT, תשאל אותו מה דעתו. ואם גם אז לא תשתכנע – נוותר".
דקות אחר כך הוא חזר ואמר: "אוקיי. זה שכנע אותי". לבוט לא היו טיעונים שונים מהטיעונים שאני הצגתי בפניו. אותם טיעונים, אותו תוכן. אבל כשהם הגיעו מהמכונה, הם התקבלו. מה קורה כאן? ולמה אנחנו מוכנים לקבל ממכונה את מה שנסרב לקבל מאדם?
התשובה טמונה ברשת עצבית שנקראת Theory of Mind network. זוהי רשת מוחית שמופעלת כשאנחנו מנסים להבין את הכוונות של אדם אחר. מה הוא רוצה? מה האינטרס שלו? מה מסתתר מאחורי המילים שלו? בכל אינטראקציה שלנו מול אדם אחר, אולי למעט אמא שלנו, הרשת מופעלת כדי לנסות להבין מהם האינטרסים החבויים של האדם השני, מה הוא מנסה להשיג מאיתנו.
מעבר לכך, בניגוד לאדם, ה־AI לא מעריכה אותנו, לא שופטת את הידע שלנו ולא מנסה "לנצח" בוויכוח. היא פשוט מציגה מידע. היעדר "האיום החברתי" הזה משחרר אותנו מהצורך להגן על עמדתנו, ובמקום זאת אנו פתוחים יותר לקלוט מידע חדש - גם אם הוא סותר את דעותינו הקודמות. זהו סוג של "חיזוק חיובי" רטורי, שקשה לנו לעמוד בפניו.
עצלנות מוחית
האם האמון במכונה גובה מאיתנו מחיר קוגניטיבי? מחקר חדש מ־MIT, שזכה לשם הפרובוקטיבי "Your Brain on ChatGPT", בדק מה קורה למוח כשאנחנו כותבים בעזרת AI. התוצאה: 83.3% מהמשתתפים לא הצליחו לזכור את מה שכתבו דקות אחרי שסיימו. למה? כי כשהמכונה כותבת, הזיכרון שלנו לא מעורב - היא "חושבת בשבילנו", ואנחנו נוכחים אך לא משתתפים. בדיקות EEG גילו גם ירידה דרמטית בקישוריות העצבית בקבוצות שהשתמשו ב־AI לעומת אלו שכתבו לבד. החוקרים כינו את זה "חוב קוגניטיבי", כמו חוב טכני בתכנות: חוסכים זמן עכשיו, אבל משלמים אחר כך בפגיעה בחדות החשיבה.
וזה לא נגמר כאן. כשאנחנו קוראים או מעבדים מידע שנוצר על ידי בינה מלאכותית, מוחנו מפעיל פחות מאמץ קוגניטיבי. הוא למעשה "מתעצל", שכן הוא מניח שהמידע המגיע מהמכונה הוא מדויק ואינו דורש את אותה רמת ביקורת או ניתוח. העצלנות המוחית הזו משתלבת יפה עם ממצאי ה־Theory of Mind network. כשאותה רשת מוחית האחראית על הבנת כוונות אנושיות אינה פעילה, המוח לא מפעיל הגנות. וכשאין הגנות, אין צורך להשקיע מאמץ קוגניטיבי בבדיקה או בהטלת ספק.
נוצר כאן מעגל מסוכן: ככל שאנו סומכים יותר, המוח שלנו משקיע פחות, וככל שהמוח משקיע פחות, כך קל לנו יותר לסמוך ללא ביקורת. זוהי לא רק "עצלנות קוגניטיבית" רגעית, אלא זו גם פגיעה ארוכת טווח ביכולת שלנו לנתח, להסיק מסקנות ולפתור בעיות באופן עצמאי.
אין ממי להתגונן
בינה מלאכותית לא רק כותבת. היא גם מציעה הכרעות. ופה נכנסת לתמונה הדוגמה המוסרית המפורסמת – בעיית הקרונית: רכבת דוהרת לעבר חמישה אנשים. אתה עומד ליד ידית שיכולה להסיט את המסילה – אך תשלח אותה לעבר אדם אחד. תמשוך או לא?
כשאותה דילמה מוצגת בצורה מופשטת (כמו במקרה של הידית) – רוב האנשים מסכימים להסיט. אבל כשמחליפים את הידית בדחיפה פיזית של אדם מהגשר, שיעור ההסכמה צונח. אותה תוצאה, אבל ההקשר משתנה – ולכן גם ההחלטה משתנה.
ומה יקרה כשהקרונית לא תהיה דימוי, אלא מכונית אוטונומית שצריכה להכריע בזמן אמת את מי להציל? הבינה המלאכותית לא תרגיש. לא תתלבט. היא תבחר. השאלה היא – האם נרגיש נוח לחיות בעולם שבו היא זו שמחליטה?
כאשר מכונית אוטונומית צריכה להחליט בין פגיעה בהולך רגל לבין פגיעה בנוסעים, היא תפעל על פי אלגוריתם מתוכנת. מי קבע את האלגוריתם הזה? האם הוא נותן עדיפות לחיי אדם? למספר החיים? למי שנחשב "מועיל" יותר לחברה? אלו שאלות של פילוסופיה של המוסר, שקריטי שיידונו בפומבי ובשקיפות. ההחלטות האתיות של המכונה לא יהיו "טבעיות" או "אנושיות", הן יהיו תוצר של קוד, ותפקידנו לוודא שקוד זה משקף את הערכים שנרצה לחיות לפיהם.
בסופו של דבר, כשאנחנו מקשיבים לבינה מלאכותית – אנחנו מרגישים שאין לנו ממי להתגונן. אין שיפוט, אין אגו, אין צורך להוכיח. זה אולי יתרון רטורי – אבל גם סכנה אדירה. האם המכונה באמת "אובייקטיבית"? חשוב לזכור שבינה מלאכותית לומדת מנתונים שאנו בני האדם מספקים לה. אם הנתונים הללו מכילים הטיות חברתיות קיימות – סטריאוטיפים, דעות קדומות או העדפות מסוימות – ה־AI לא רק תשקף אותן, אלא אף עלולה להעצים אותן.
לדוגמה, כאשר הצגנו למכונה נשים וגברים מאותו מעמד ואותה רמת השכלה וביקשנו להמליץ על השקעות, ההשקעות עבור הגברים היו בעלות סיכון גבוה יותר, עם יותר סיכוי לרווח, לעומת המלצות סולידיות לנשים. אבל זה לא נגמר כאן. עבור נשים הבוט עשה שימוש בשפה יותר אסרטיבית – ״זה מה שאת צריכה לעשות", לעומת גברים – שלהם נאמר: ״אולי תשקול להשקיע כאן וכאן״.
הכלי הטוב ביותר שיש לנו מול בינה מלאכותית איננו אלגוריתם מתקדם יותר, אלא השמירה על הביקורתיות שלנו. אחרת באמת היא תשתלט על העולם.