"הפחתת סכנת ההכחדה מבינה מלאכותית צריכה להיות בעדיפות עולמית לצד סיכונים אחרים בקנה מידה חברתי כמו מגיפות ומלחמה גרעינית", נכתב בהודעה שפרסם המרכז לבטיחות בינה מלאכותית, המדגישה "חששות רחבי היקף לגבי הסכנה האולטימטיבית שבבינה מלאכותית בלתי מבוקרת".
ההצהרה נחתמה על ידי גורמים מובילים בתעשייה כולל מנכ"ל OpenAI, סם אלטמן; "הסנדק" של הבינה המלאכותית, ג'פרי הינטון; מנהלים וחוקרים בכירים מ-Google DeepMind ו-Anthropic; קווין סקוט, מנהל הטכנולוגיה הראשי של מיקרוסופט; ברוס שנייר, חלוץ אבטחת האינטרנט והקריפטוגרפיה; עו"ד האקלים ביל מקיבן; והמוזיקאי גריימס, בין היתר.
הינטון, שעבודתו החלוצית סייעה לעצב את מערכות הבינה המלאכותית של ימינו, אמר בעבר ל-CNN כי החליט לעזוב את תפקידו בגוגל ו"לחשוף את האמת" על הטכנולוגיה לאחר ש"פתאום" הבין "שהדברים האלה נעשים חכמים יותר מאיתנו".
דן הנדריקס, מנהל המרכז לבטיחות בינה מלאכותית, אמר בציוץ שההצהרה שהוצעה לראשונה על ידי דיוויד קרוגר, פרופסור לבינה מלאכותית באוניברסיטת קיימברידג', אינה מונעת מהחברה לטפל בסוגים אחרים של סיכון בינה מלאכותית, כגון הטיה אלגוריתמית או מידע מוטעה.
הנדריקס השווה את ההצהרה של יום שלישי לאזהרות של מדעני אטום "המוציאים אזהרות על עצם הטכנולוגיות שהם יצרו". "חברות יכולות לנהל סיכונים מרובים בבת אחת; זה לא 'או/או' אלא 'כן/ו'", צייץ הנדריקס בטוויטר. "מנקודת מבט של ניהול סיכונים, בדיוק כפי שזה יהיה פזיז לתעדף בלעדי את הנזקים הנוכחיים, זה יהיה פזיז גם להתעלם מהם".