נשיא ארה''ב דונלד טראמפ / צילום: ap, Alex Brandon
ממשל טראמפ הודיע כי יאסור על גופי הממשל בארה״ב לעבוד עם חברת הבינה המלאכותית אנתרופיק, לאחר חודשים של מחלוקת בין החברה לבין הפנטגון באשר לאופן השימוש במודלים שלה במערכות ביטחוניות. הנשיא הורה לסיים את ההתקשרויות עם החברה, ומשרד ההגנה הודיע כי יגדיר אותה כסיכון בשרשרת האספקה, צעד שבדרך כלל ננקט כלפי חברות ממדינות יריבות. במסגרת ההחלטה צפוי המשרד לנתק חוזה בהיקף של עד 200 מיליון דולר ולדרוש מספקים העובדים עמו להצהיר כי אינם משלבים את מודל קלוד במערכותיהם. כמו כן, נקבעה תקופת מעבר של שישה חודשים לצורך החלפת המערכות והטמעת חלופות.
● הטיסה הדחופה והזעם בבית הלבן: כך קיבל טראמפ את ההחלטה לתקוף
● OpenAI שוברת שיאים: גייסה 110 מיליארד דולר לפי שווי 730 מיליארד
אולם, שעות לאחר ההודעה הרשמית, דווח כי במתקפה המשולבת שביצעו ארה״ב וישראל באיראן נעשה שימוש במודל קלוד של אנתרופיק. לפי גורמים המעורים בפרטים, מפקדות אמריקאיות ובהן פיקוד המרכז של ארה״ב משלבות את המודל לצורך הערכות מודיעין, זיהוי מטרות וסימולציות תרחישים מבצעיים. פיקוד המרכז סירב להתייחס למערכות הספציפיות שהופעלו בתקיפה, אך אישר כי הכלי נמצא בשימוש בפעילותו השוטפת. כך, הדיווח מצביע על כך שהמודל המשיך להיות מוטמע במערכות צבאיות הפועלות בזירה האיראנית גם לאחר ההכרזה על האיסור
המחלוקת בין אנתרופיק לפנטגון התמקדה בדרישת משרד ההגנה כי החברה תאפשר שימוש בטכנולוגיה שלה לכל מטרה חוקית, ללא מגבלות נוספות מצד הספק. אנתרופיק סירבה להסיר מגבלות שנועדו למנוע שימוש בבינה מלאכותית לצורכי מעקב המוני בתוך ארה״ב או להפעלת מערכות נשק אוטונומיות ללא מעורבות אנושית.
מנכ״ל החברה, דריו אמודיי, פרסם הצהרה פומבית שבה כתב כי החברה אינה יכולה להיענות לדרישה מטעמי אחריות. מנגד טענו גורמים בפנטגון כי לאחר שהצבא רוכש כלי טכנולוגי, אופן השימוש בו נקבע בהתאם לחוק ולנהלים הצבאיים, וכי לא ניתן לנהל משא ומתן פרטני על כל תרחיש שימוש אפשרי. לפי הדיווחים, קלוד הוא המודל היחיד המשמש כיום במערכות מסווגות של הצבא האמריקאי. מקורות המעורים בנושא ציינו כי נעשה בו שימוש גם במבצעים קודמים בעלי פרופיל גבוה, והוא משולב בעבודת קבלנים ביטחוניים של הממשל ובהם פלנטיר. גורמים ביטחוניים הודו כי ניתוק המודל מהמערכות הקיימות צפוי להיות מורכב ולהימשך חודשים, גם אם ההתקשרות החדשה תופסק.
OpenAI חותמת על הסכם חדש עם הפנטגון
במקביל להסלמה מול אנתרופיק, הודיעה ביממה האחרונה OpenAI כי חתמה על הסכם עם הפנטגון לפריסת מערכות בינה מלאכותית מתקדמות בסביבות מסווגות. בהודעת החברה נמסר כי ההסכם כולל שלושה קווים אדומים: איסור על שימוש בטכנולוגיה למעקב המוני בתוך ארה״ב, איסור על הפעלת מערכות נשק אוטונומיות ללא שליטה אנושית, ואיסור על קבלת החלטות אוטומטיות בעלות השלכות כבדות משקל ללא אישור אנושי. החברה ציינה כי הפריסה תתבצע בענן בלבד, תוך שמירה על מערך הבטיחות שלה ובליווי מהנדסים מסווגים מטעמה. עוד נמסר כי היא אינה סבורה שיש להגדיר את אנתרופיק כסיכון בשרשרת האספקה.
לצד OpenAI, גם Xai, חברת הבינה המלאכותית של אילון מאסק, חתמה לאחרונה על הסכם לשילוב מודל גרוק במערכות מסווגות, וגוגל מנהלת מגעים להרחבת השימוש במודלים שלה במערכות ביטחוניות. במקביל, מאות עובדים בגוגל וב OpenAI חתמו על עצומה פנימית הקוראת להציב מגבלות ברורות על שימושי בינה מלאכותית בתחום המעקב והנשק האוטונומי