כלי הבינה המלאכותית קלוד של חברת אנתרופיק שימש במסגרת מבצע צבאי אמריקני ללכידת נשיא ונצואלה לשעבר, ניקולאס מדורו. כך לפי דיווח שפורסם הלילה (בין שישי לשבת) ב"וול סטריט ג'ורנל".
לפי מקורות המעורים בפרטים, השימוש במודל נעשה באמצעות שותפות של אנתרופיק עם חברת הנתונים Palantir Technologies, המספקת כלים למשרד ההגנה ולגופי אכיפה פדרליים.
המבצע, שבמהלכו הופצצו מספר אתרים בקראקס בחודש שעבר, מדגיש את התרחבות השימוש בכלי AI מתקדמים בפנטגון. עם זאת, כללי השימוש של אנתרופיק אוסרים על הפעלת קלוד לצורך קידום אלימות, פיתוח נשק או ביצוע מעקב.
דובר החברה מסר כי אין ביכולתם להתייחס לשאלה האם קלוד שימש במבצע מסוים, מסווג או אחר, אך הדגיש כי כל שימוש במודל - במגזר הפרטי או הממשלתי - חייב לעמוד במדיניות השימוש של החברה. משרד ההגנה האמריקני סירב להגיב לפניית העיתון.
חוזה של עד 200 מיליון דולר
החוזה בין אנתרופיק לפנטגון, בהיקף של עד 200 מיליון דולר, נחתם בקיץ האחרון. לפי הדיווח ב"וול סטריט ג'ורנל", חששות החברה מהשימוש האפשרי בקלוד בפעולות צבאיות תרמו לדיונים בממשל לגבי עתיד ההתקשרות.
גורמים המעורים בנושא ציינו בפני העיתון האמריקני כי אנתרופיק הייתה מפתחת ה-AI הראשונה שהמודל שלה שולב בפעילות מסווגת של משרד ההגנה.
כלי AI צבאיים יכולים לשמש למגוון משימות - מסיכום מסמכים והפקת דוחות ועד שליטה ברחפנים אוטונומיים. אימוץ טכנולוגיות כאלה נתפס כחיוני לחברות AI המבקשות לבסס לגיטימציה ציבורית ולהצדיק הערכות שווי גבוהות.
מתיחות בין אנתרופיק לממשל
מנכ"ל החברה, דריו אמודיי, הביע בעבר חשש מהפעלת בינה מלאכותית במערכות נשק אוטונומיות ובמעקב פנימי. עמדות אלה מציבות את החברה בעימות עם גישת הממשל, שלפי הדיווח מבקש למזער רגולציה בתחום.
שר ההגנה פיט הגסת' אמר באירוע בינואר כי הסוכנות לא תשתמש במודלים "שלא מאפשרים להילחם מלחמות", בהתייחסות לשיחות עם אנתרופיק.
תזכורת: החברה נוסדה על ידי בכירים לשעבר ב-OpenAI, שמודליה - יחד עם ג'מיני של גוגל - שולבו בפלטפורמת AI לשימוש אנשי צבא, המיועדת לניתוח מסמכים, יצירת דוחות ותמיכה במחקר.
טעינו? נתקן! אם מצאתם טעות בכתבה, נשמח שתשתפו אותנו
