לפי המידע שפורסם, מערכת הבינה המלאכותית שימשה כחלק ממערך הסיוע המבצעי או האנליטי הקשור לתקיפות, אם כי לא נמסרו פרטים מלאים על היקף השימוש או על תפקידה המדויק בתהליך קבלת ההחלטות. עצם השימוש בטכנולוגיה, חרף ההכרזה הרשמית על הגבלתה, מעורר שאלות בנוגע לאופן יישום המדיניות החדשה ולתיאום בין הדרג המדיני לגורמי הביטחון.
ההודעה על האיסור, שעל פי הדיווחים פורסמה זמן קצר לפני ביצוע התקיפות, נועדה להגביל את השימוש במערכות בינה מלאכותית מסוימות בהקשרים ביטחוניים רגישים. עם זאת, העובדה כי מערכת Claude שולבה לכאורה בפעילות המבצעית זמן קצר לאחר מכן מצביעה על פער אפשרי בין ההחלטה המדינית לבין היישום בפועל בשטח.
אנתרופיק סירה בתוקף לקבל את ההצעה, שכן היא מונעת מלקוחותיה להשתמש במודל ה-AI שלה, קלוד, בתרחישים הכוללים מעקב המוני אחר אזרחים או פיתוח כלי נשק אוטונומיים. "איננו יכולים, במצפון נקי, להיעתר לבקשתם", הצהיר אמודי אתמול. הוא הוסיף ועקץ כי איומי הממשל "סותרים מיסודם: מצד אחד מתייגים אותנו כסיכון ביטחוני, ומצד שני מגדירים את קלוד כחיוני לביטחון הלאומי".