על פי דיווח ב- Financial Times, התביעה הוגשה בטענה שהחלטת הממשלה לסווג את החברה כ"סיכון בשרשרת האספקה" עלולה לגרום לפגיעה של מיליארדי דולרים בהכנסותיה כבר השנה.
"נמצאים תחת מתקפה"
החברה פנתה ביום שני לבית משפט פדרלי בקליפורניה וביקשה להכריז כי הסיווג - שבדרך כלל מיועד לספקים מסין ומרוסיה - הוא "שרירותי" ו"חסר בסיס". בנוסף ביקשה החברה מבית המשפט למנוע מממשל טראמפ ליישם את ההחלטה.
לטענת עורכי הדין של החברה, ממשלת ארצות הברית "מבקשת להשמיד את הערך הכלכלי שנוצר על ידי אחת החברות הפרטיות הצומחות ביותר בעולם". עוד נכתב כי "המוניטין של Anthropic וחירויות הליבה שלה מכוח התיקון הראשון לחוקה נמצאים תחת מתקפה".
ראו הוסיף כי הסיווג "עלול לפגוע משמעותית באמון השוק וביכולתה של Anthropic לגייס את ההון הדרוש לאימון הדור הבא של מודלים", ועוד ציין כי, "מאות מיליוני דולרים בהכנסות שנתיות עלולים להיות בסיכון אם לקוחות יפרשו באופן מצמצם את הוראת הפנטגון".
בשבוע שעבר הודיעה החברה כי "הרוב המכריע" של לקוחותיה לא יושפע מהצעד האמריקאי. שלושה מהשותפים המרכזיים של החברה - אמזון, מיקרוסופט וגוגל - הודיעו כי ימשיכו לשמור על קשרים עם Anthropic מחוץ לתחום הביטחוני. עד כה גייסה Anthropic כ־60 מיליארד דולר, והכנסותיה השנתיות המנוכסות עומדות על כ־19 מיליארד דולר.
הבית הלבן: לא נוחזק כבני ערובה לגחמות של מנהלי חברות
לדבריהם, גורמי ביטחון ביקשו זכויות נרחבות לפריסת המודלים של החברה, בעוד Anthropic התעקשה על מנגנוני הגנה שלדבריה נועדו למנוע שימוש לרעה. המחלוקת הזו הובילה בסופו של דבר לקריסת המגעים ולהכרזה על החברה כסיכון בשרשרת האספקה. הסיווג, שעוגן רשמית בשבוע שעבר, מחייב חברות להוציא את Anthropic משרשראות האספקה שלהן בחוזים צבאיים. טראמפ גם דרש מסוכנויות פדרליות להפסיק להשתמש בטכנולוגיה של החברה.
בינה מלאכותית בפעילות מסווגת
בעקבות החלטה זו, קבוצה של יותר מ־30 מהנדסים וחוקרים מגוגל ומ־OpenAI הביעו תמיכה אישית בתביעה של Anthropic במסמך שהוגש לבית המשפט.
על פי המסמך המשפטי, הגסת' "החל לדרוש כי Anthropic תבטל לחלוטין את מגבלות השימוש שלה ותחליף אותן במדיניות כללית שלפיה המשרד רשאי לעשות 'כל שימוש חוקי' בטכנולוגיה". אמודיי ציין כי אינו יכול "בלב שלם" להסכים לתנאים אלה, דבר שהוביל להתמוטטות דרמטית במגעים בין החברה לפנטגון.
מודל הבינה המלאכותית Claude של Anthropic הוא כיום המודל היחיד שנמצא בשימוש בפעילות מסווגת, אף שהחברה המתחרה OpenAI חתמה בסוף החודש שעבר על הסכם עם הפנטגון לשימוש במודלים שלה במשימות הרגישות ביותר.
מהפנטגון נמסר לפיינשל טיימס: "כעניין של מדיניות משרד המלחמה, איננו מתייחסים להליכים משפטיים".