העדכון החדש מגיע
בעקבות מקרים בהם הצ’אטבוט עודד או אישר התנהגויות מחשידות, לעיתים מסוכנות. בדוגמה אחת שהפכה ויראלית, שיבח הבוט משתמש שסבר שמשפחתו שולחת אליו גלי רדיו דרך הקירות, ובמקרה אחר הסביר כיצד לבצע פעולת טרור.
“אמנם מדובר במקרים נדירים”, כתבו בחברה, “אך אנחנו ממשיכים לשפר את המודלים שלנו ומפתחים כלים שיזהו טוב יותר סימני מצוקה נפשית או רגשית, כדי שצ’אט ג’יפיטי יוכל להגיב בהתאם ולהפנות למשאבים מבוססי ראיות בעת הצורך”.
מעתה, אם משתמש ינהל שיחה ארוכה עם הבוט בנושאים רגשיים, יקבל הצעה לקחת הפסקה. בתוך כך השיחות יוסטו מדפוס של “עצות” לדפוס של “שיח מתייעץ”, שמטרתו לעודד את האדם להגיע למסקנות בעצמו.
“אם מישהו משתף את צ’אט ג’יפיטי בפרטים הכי רגישים שלו, ובמקרה מתפתח הליך משפטי, אנחנו עלולים להידרש לחשוף את המידע”, הסביר אלטמן. “זה מצב עקום, בעיניי. צריך לייצר פרטיות דומה לשיחה עם מטפל”.
בחברה מדגישים שלא מדובר בוויתור על אחריות אלא להפך: ב־OpenAI גייסו מעל 90 רופאים ומומחים מכל רחבי העולם כדי לבנות מערכת קריטריונים חדשה שתוכל להעריך שיחות מורכבות ולהפעיל מנגנוני הגנה. בנוסף, מוקם צוות יועצים מיוחד מתחומי בריאות הנפש, התפתחות נוער ואינטראקציה אדם־מחשב, שילווה את תהליך קבלת ההחלטות בנושא.
מטרת העל של החברה, כפי שהובהרה בפוסט הרשמי שלה, היא לא להפוך את המשתמשים לתלויים בבינה המלאכותית, אלא להפך: לאפשר להם לקבל תמיכה קצרת מועד, משוב או חיזוק נקודתי שיאפשר להם לפעול, ואז להמשיך בחייהם.
בחברה מציינים שבניגוד לרשתות חברתיות המודדות הצלחה לפי זמן מסך או מספר קליקים, ההצלחה של ChatGPT תימדד לפי הערך שהמשתמש הפיק מהשיחה: “אנחנו לא בוחנים את עצמנו לפי כמה זמן נשארתם איתנו, אלא לפי אם הצלחתם להשלים את מה שלשמו הגעתם. אם תעזבו את הצ’אט אחרי פתרון, זה סימן שהצלחנו”.
העדכון החדש מגיע במקביל להשקת “Agent Mode”, מצב פעולה חדש שבו הצ’אטבוט יכול לבצע משימות מקוונות עבור המשתמש כמו קביעת תור או סיכום תיבת דואר. העדכון הזה, לצד הציפייה להשקת הגרסה הבאה GPT-5, ממקמים את OpenAI במרכז המרוץ העולמי לעליונות בתחום הבינה המלאכותית.