"מסוכן כמו מלחמה גרעינית": בכירים בענף ה-AI מזהירים מפני "הכחדת המין האנושי"

עשרות בכירים בתעשיית הבינה המלאכותית, אקדמאים וכמה מפורסמים חתמו על הצהרה המזהירה מפני "השמדה עולמית בידי ה-AI" וטענו כי מאבק באיום באירוע הכחדה כזה צריך להיות בראש סדר העדיפויות העולמי

סתיו נמר צילום: צילום פרטי
בינה מלאכותית
בינה מלאכותית | צילום: אינגאימג'

"הפחתת סכנת ההכחדה מבינה מלאכותית צריכה להיות בעדיפות עולמית לצד סיכונים אחרים בקנה מידה חברתי כמו מגיפות ומלחמה גרעינית", נכתב בהודעה שפרסם המרכז לבטיחות בינה מלאכותית, המדגישה "חששות רחבי היקף לגבי הסכנה האולטימטיבית שבבינה מלאכותית בלתי מבוקרת".

ההצהרה נחתמה על ידי גורמים מובילים בתעשייה כולל מנכ"ל OpenAI, סם אלטמן; "הסנדק" של הבינה המלאכותית, ג'פרי הינטון; מנהלים וחוקרים בכירים מ-Google DeepMind ו-Anthropic; קווין סקוט, מנהל הטכנולוגיה הראשי של מיקרוסופט; ברוס שנייר, חלוץ אבטחת האינטרנט והקריפטוגרפיה; עו"ד האקלים ביל מקיבן; והמוזיקאי גריימס, בין היתר.

הינטון, שעבודתו החלוצית סייעה לעצב את מערכות הבינה המלאכותית של ימינו, אמר בעבר ל-CNN כי החליט לעזוב את תפקידו בגוגל ו"לחשוף את האמת" על הטכנולוגיה לאחר ש"פתאום" הבין "שהדברים האלה נעשים חכמים יותר מאיתנו".

דן הנדריקס, מנהל המרכז לבטיחות בינה מלאכותית, אמר בציוץ שההצהרה שהוצעה לראשונה על ידי דיוויד קרוגר, פרופסור לבינה מלאכותית באוניברסיטת קיימברידג', אינה מונעת מהחברה לטפל בסוגים אחרים של סיכון בינה מלאכותית, כגון הטיה אלגוריתמית או מידע מוטעה.

הנדריקס השווה את ההצהרה של יום שלישי לאזהרות של מדעני אטום "המוציאים אזהרות על עצם הטכנולוגיות שהם יצרו". "חברות יכולות לנהל סיכונים מרובים בבת אחת; זה לא 'או/או' אלא 'כן/ו'", צייץ הנדריקס בטוויטר. "מנקודת מבט של ניהול סיכונים, בדיוק כפי שזה יהיה פזיז לתעדף בלעדי את הנזקים הנוכחיים, זה יהיה פזיז גם להתעלם מהם".

תגיות:
בינה מלאכותית
/
צ'אט GPT
פיקוד העורף לוגוהתרעות פיקוד העורף