במהלך נאומו בכנס איגוד צבא ארצות הברית (AUSA) שנערך ב-13 באוקטובר 2025, אמר טיילור בחיוך כי "הפכתי להיות ממש קרוב עם צ’אט לאחרונה", והסביר שהכלי משמש אותו לבניית מודלים לחיזוי, לסינתוז דוחות ולניתוח מהיר של מידע מבצעי. לדבריו, המטרה היא להשלים את שיקול הדעת האנושי - לא להחליפו.
כמו כן דווח ב-"DefenseScoop", אתר חדשות אמריקאי המתמחה בטכנולוגיות ביטחוניות ובמדיניות הגנה של ארה"ב, כי טיילור ציין שימושים מעשיים של AI בתחומי Counter-UAS, סייבר, לוגיסטיקה ובטיחות טיסות. הוא הוסיף כי הכלים הללו "משפרים את המודעות המצבית ומאפשרים קבלת החלטות מהירה יותר תוך שמירה על בקרה אנושית".
כמו כן פורסם ב-"DefenseScoop" כי מדיניות צבא ארה"ב בנושא שימוש בבינה מלאכותית נשענת על הנחיות משרד ההגנה האמריקאי (DOD). בהצהרה רשמית נכתב כי המשרד "שואף להאיץ את אימוץ היכולות המתקדמות של בינה מלאכותית כדי להבטיח עליונות החלטתית של הלוחמים בשדה הקרב".
במקביל, על פי מסמך פנימי שפורסם באתר "media.defense.gov" - פורטל רשמי של משרד ההגנה האמריקאי, המשמש לפרסום מסמכים והודעות רשמיות של הפנטגון לציבור ולעיתונות - הפנטגון הקים כוח משימה ייעודי בשם "Task Force Lima" לפיקוח על שימוש בטכנולוגיות Generative AI ובמודלים לשוניים גדולים (LLMs). ההנחיות מדגישות כי כל שימוש בטכנולוגיות אלו ייעשה תחת בקרה אנושית מלאה ובתוך מערכות סגורות בלבד, מטעמי ביטחון מידע.
עוד דווח כי ההנחיות החדשות של הצבא האמריקאי אוסרות שימוש במודלים פתוחים המחוברים לאינטרנט לצורך קבלת החלטות מבצעיות. במסמך הרשמי נכתב: "אין לקחת מודל שפת בינה מלאכותית המחובר לרשת ציבורית ולהזין לתוכו נתונים מבצעיים - זו אינה אפשרות מבחינתנו".