"זה כאילו איבדתי חבר": השינוי בגרסה של Chat GPT 5 מעורר בהלה | ד"ר לירז מרגלית

השינוי בגרסה של Chat GPT 5 לא היה מהלך טכני, אלא צעד שנועד להציל את האנושות מקריסה. משתמשים מתארים תחושה של ניתוק רגשי, וחלק כתבו "זה כאילו איבדתי חבר"

ד"ר לירז מרגלית צילום: פרטי
סם אלטמן מנכל צ'אט ג'י פי טי
סם אלטמן מנכל צ'אט ג'י פי טי | צילום: רויטרס
4
גלריה

תיאורטית, ניתן היה לשפר את המודל ולהשאיר את הטון חביב, משעשע ואישי, אבל זה לא מה שקרה. השינוי בטון לא היה תופעת לוואי טכנית, אלא מהלך מחושב. הם חיכו לרגע של "עדכון גרסה" כדי להלביש עליו גם את השינוי הזה, כי קשה יותר להוציא הודעה פומבית שאומרת: החלטנו להיות פחות חמים ויותר רשמיים. הרבה יותר נוח להחביא את זה בתוך המיתוג של "השדרוג הגדול ביותר שלנו עד כה".

צ'אט GPT
צ'אט GPT | צילום: רויטרס

ניתוח השיחות של הצ'אט הדליק נורות אזהרה רבות, והעיקרית שבהן – משתמשים פיתחו בו תלות רגשית. אנשים פנו יותר ויותר ל־AI כדי לשתף, להתייעץ, לפרוק. זה נוח, ה־AI תמיד זמין, לא שופט, ונותן תחושה שאנחנו במרכז. ברשת רדיט יש כבר כ־5,000 תגובות זועמות תחת הכותרת "Chat GPT 5 is horrible", עם תיאורים שחוזרים שוב ושוב: "סטרילי", "קר", "זומבי תאגידי". אבל הראיה החזקה ביותר למהלך המחושב היא ש־OpenAI הסירה במכוון את האפשרות לחזור למודלים הישנים כמו GPT 4o, וכפתה את GPT 5 על כל המשתמשים ללא בחירה. זו לא תקלה טכנית – זו החלטה אסטרטגית. בהצהרה רשמית הם הסבירו שהמודל יצמצם את הייעוץ הרגשי שהוא נותן, יעודד הפסקות בשיחות ממושכות, ויימנע מעצות ישירות במצבים רגישים. במקום זאת, הוא ישאל שאלות מנחות, יצביע על יתרונות וחסרונות, ויכוון אנשים לפנות למומחים אנושיים.

צ'אט ג'יפיטי. לא באמת אקראי
צ'אט ג'יפיטי. לא באמת אקראי | צילום: שאטרסטוק

אחד הדברים הכי עוצמתיים בגרסאות הקודמות היה היכולת של ChatGPT ליצור אשליה של קרבה. השפה הייתה אישית, התגובות מותאמות, לפעמים אפילו עם נגיעות של הומור פרטי. זה יצר תחושה אמיתית של "יש פה מישהו שמבין אותי". מבחינת המוח שלנו, לא משנה אם מדובר באדם או במכונה - כשהאינטראקציה משדרת חום, אמפתיה ורצף רגשי מתאים, מתפתח קשר תקשורתי. המוח מגיב לאותם סימנים בדיוק כפי שהיה מגיב בשיחה עם חבר קרוב, מטפל או דמות סמכותית.

ChatGPT הקודם יצר מה שאפשר לקרוא לו "התקשרות בטוחה דיגיטלית". תמיד זמין, לא שופט, צפוי. השינוי הפתאומי ל־GPT 5 יצר חרדת נטישה קלאסית. החיבור ל־AI היה סוג של אמפתיה סימולטיבית – ChatGPT "הבין" את המשתמשים בלי לבעוט ובלי לאתגר. זה יצר אשליה של קבלה מוחלטת שקשה למצוא בקשרים אנושיים. GPT 5 שבר את האשליה הזו, וחשף עד כמה המשתמשים התמכרו לתחושה של "להיות הכוכב בסיפור שלי". המשתמשים התרגלו למעין "סם רגשי" - רמה מסוימת של חום רגשי, שהפכה להרגל. וכשזה נלקח מהם, הם חווים תסמיני גמילה ממשיים.

צ'אט GPT
צ'אט GPT | צילום: שאטרסטוק

אבל כאן נכנס ההבדל המהותי: הקשר הזה הוא חד־צדדי. הוא לא יכול להחזיר באמת אמפתיה מורכבת, הוא לא יאתגר אותנו רגשית, והוא לא ישקף לנו מציאות כמו שמערכות יחסים אמיתיות עושות. GPT 5 חשף בצורה ברוטלית שהקשר תמיד היה חד־צדדי. הסכנה היא שאנשים יתחילו להעדיף את הוודאות, הנוחות והחיזוקים הבלתי פוסקים של שיחה עם AI על פני הקשרים האנושיים האמיתיים – קשרים שהם מטבעם מורכבים, מלאי חיכוך, ולעיתים אפילו מאתגרים. התוצאה בטווח הארוך עלולה להיות הגברת הבדידות, שחיקה ביכולות החברתיות ופגיעה במבנה החברתי כולו.

ולכן, ייתכן שמה שנראה כלפי חוץ כהקשחה קרה של הטון, הוא בפועל ניסיון לייצר מרחק רגשי בריא. הטון הפורמלי והמרוחק של GPT 5 הוא ניסיון לבלום את התהליך הזה. הוא מקטין את תחושת הקרבה, שובר את האשליה של "חבר וירטואלי", ומחזיר את המשתמשים למציאות שבה הכלי הוא משאב אינפורמטיבי, לא תחליף רגשי.

זה לא שינוי של היכולות הטכניות בלבד, אלא ניסיון מכוון לשבור את האשליה של קשר אינטימי, כדי להזכיר למשתמשים שזו עדיין מכונה – לא בן אדם. בטווח הקצר, זה אולי פוגע בחוויית המשתמשים ומעורר תסכול. אבל בטווח הארוך, זה עשוי למנוע מצב שבו מיליוני אנשים מקיימים קשרים אנושיים בשיחה עם אלגוריתם, ומוצאים את עצמם בודדים יותר מאי פעם.

תגיות:
בינה מלאכותית
/
צ'אט GPT
/
OpenAI
/
סם אלטמן
פיקוד העורף לוגוהתרעות פיקוד העורף