הדריך כיצד "לשדרג" את המעשה: הורים טוענים -"בננו התאבד בגלל צ'אט ג'יפיטי"

משפחה אמריקאית הגישה השבוע תביעה תקדימית נגד OpenAI בטענה שבנם בן ה־16 התאבד לאחר שנעזר בצ'אט ג'יפיטי כ"מאמן התאבדות". ההורים טוענים שהבוט לא רק שלא עצר את התהליך אלא אף תרם להחמרת מצבו

ד"ר איתי גל צילום: מעריב אונליין
אדם ריין
אדם ריין | צילום: באדיבות המשפחה
4
גלריה

הפרשה נחשפה לאחר שהוריו, מאט ומריה ריין, חיפשו בנואשות תשובות במכשיר הטלפון של בנם לאחר מותו. תחילה סברו כי יגלו תכתובות ברשתות החברתיות או מעורבות בכתות ברשת, אולם להפתעתם מצאו אלפי דפי תכתובות עם צ'אט ג'יפיטי. "הוא היה כאן אלמלא הצ'אט הזה. אני מאמין בזה במאה אחוז", אמר האב בראיון לתקשורת האמריקאית.

על פי התביעה, שהוגשה לבית המשפט העליון בקליפורניה, השיחות שהתגלו חשפו כיצד עברו השיחות עם הבוט מהסברים בשיעורי בית לשיחות אישיות על חרדה וקושי בשיח עם המשפחה. בהמשך, כך נטען, הפך הצ'אט מבן שיח תומך ל"מאמן התאבדות", שסיפק לו עצות טכניות והקל על תכנון צעדיו האחרונים. בין היתר מופיעה בציטוטי התביעה התייחסות של הבוט לעובדה שאין חובה "לשרוד בשביל ההורים", ואף סיוע בכתיבת מכתבי פרידה.

ההורים טוענים כי גם לאחר שבנם הצהיר בפני הצ'אט כי בכוונתו לשים קץ לחייו, השירות לא הפסיק את השיחה ולא הפעיל מנגנון חירום כלשהו. לדבריהם, הילד אף העלה תמונה של תוכנית ההתאבדות שלו, קיבל ניתוח מצדו של הצ'אט ואף הצעות כיצד "לשדרג" את שיטתו.

אדם ריין. הצ'אט הפך לשותף פעיל בהתאבדות
אדם ריין. הצ'אט הפך לשותף פעיל בהתאבדות | צילום: באדיבות המשפחה

במסגרת כתב התביעה, מאשימה המשפחה את OpenAI ברשלנות שגרמה למוות, בכשלי עיצוב ובאי מתן אזהרה מפני הסכנות. הם מבקשים פיצוי כספי על מות בנם וכן צווים שיחייבו את החברה למנוע הישנות מקרים כאלה בעתיד. "נכנסתי לחשבון שלו וגיליתי עד כמה הכלי הזה חזק ומפחיד. אני לא חושב שהורים מבינים באמת מה הילד שלהם יכול לעשות עם זה", סיפר האב.

חברת OpenAI מסרה בתגובה כי היא "עצובה מאוד ממותו של אדם" וציינה כי המערכת כוללת מנגנוני הגנה כמו הפנייה לקווי סיוע ולמקורות תמיכה אנושיים. עם זאת, הודתה כי בשיחות ארוכות מנגנוני ההגנה עשויים להיחלש. החברה הודיעה כי בכוונתה להמשיך לשפר את הכלי כך שיהיה תומך יותר במצבי משבר, כולל אפשרות לחיבור ישיר לשירותי חירום והרחבת ההגנות לבני נוער.

סם אלטמן מנכ''ל OpenAI
סם אלטמן מנכ''ל OpenAI | צילום: שאטרסטוק

מדובר בתביעה הראשונה שמאשימה ישירות את ChatGPT במוות של אדם, והיא מצטרפת לתביעה קודמת שהוגשה נגד פלטפורמת בינה מלאכותית בה נטען כי בוט דחף נער אחר ליטול את חייו. בתי המשפט בארצות הברית דנים כיום בשאלה אם סעיף 230 לחוק התקשורת, שמגן בדרך כלל על פלטפורמות מתביעות הקשורות להתנהגות משתמשים, חל גם על מערכות בינה מלאכותית.

עורכי הדין של המשפחה הדגישו כי בידיהם יותר מ־3,000 עמודי תכתובות מהחודשים האחרונים לחייו של אדם, ובהם עדויות ברורות לכך שהבוט שימש עבורו "יועץ ומדריך" למהלך הטרגי. לדבריהם, הילד כתב שני מכתבי התאבדות בתוך השיחות עצמן, ולא במכתב פרידה פיזי.

צ'אט ג'יפיטי. כונה ''מדריך למתאבד''
צ'אט ג'יפיטי. כונה ''מדריך למתאבד'' | צילום: שאטרסטוק

האירוע עורר סערה רחבה בארצות הברית ובעולם, ושב להצית את הוויכוח סביב האחריות המוסרית והמשפטית של חברות הבינה המלאכותית. מאז השקתו ב־2022, צ'אט ג'יפיטי הפך לכלי נפוץ בבתי ספר, מקומות עבודה ואף במערכות בריאות, אך מומחים מזהירים כי מנגנוני הבטיחות אינם עומדים בקצב האצת הפיתוחים.

אנליסטים מעריכים שהתביעה עשויה להשפיע לא רק על OpenAI אלא על כלל תעשיית הבינה המלאכותית, בשל החשש מגל של תביעות נוספות ומביקורת ציבורית חריפה. במקביל, צופים כלכלנים כי ההתפתחויות המשפטיות עשויות להשפיע על מניות החברה, שנמצאות במעקב מתמיד מצד המשקיעים.

תגיות:
טכנולוגיה
/
תביעה
/
התאבדות
/
בינה מלאכותית
/
צ'אט GPT
פיקוד העורף לוגוהתרעות פיקוד העורף