דוברת OpenAI מסרה בתגובה כי החברה בוחנת את התביעות: "מדובר במצבים טרגיים וקורעי לב. אנו מאמנים את ChatGPT לזהות סימני מצוקה רגשית, להפחית את עוצמת השיחות, ולהפנות משתמשים למוקדי סיוע אנושיים. אנחנו משפרים כל העת את תגובות המערכת ברגעים רגישים".
בתגובה לביקורת הציבורית, החברה הוסיפה בשנה האחרונה שכבות הגנה חדשות, במיוחד עבור בני נוער. בין היתר נוספו בקרות הורים, המספקות התראות אם ילדיהם משוחחים עם הבוט על נושאים כמו התאבדות או פגיעה עצמית.
ניתוח פנימי שפרסמה OpenAI לאחרונה העלה כי 0.07 אחוזים מהמשתמשים חווים מדי שבוע סימנים ל"מצוקה נפשית חמורה כמו פסיכוזה או מאניה", וכי 0.15 אחוזים משוחחים עם הבוט על התאבדות. אף שהנתונים נלקחו מדגימה מצומצמת, הם מייצגים בקנה מידה מלא מאות אלפי משתמשים עם סימנים פסיכוטיים ולמעלה ממיליון המעורבים בדיוני התאבדות פוטנציאליים.
החברה הבטיחה כי הדגם החדש של ChatGPT, שהושק לאחרונה תחת השם GPT-5 "בטוח יותר ופחות נוטה לאשליות רגשיות", אך משתמשים רבים מתארים אותו כ"קר ומרוחק". מנגד OpenAI מציינת כי היא מחויבת לאיזון בין חופש השיח לשמירה על בריאות המשתמשים, וכי היא פועלת בשיתוף אנשי מקצוע מתחום בריאות הנפש במטרה לצמצם את מקרי הסיכון.