הפנטגון מאיים: אנתרופיק עלולה להפוך ל"סיכון אסטרטגי"

שר ההגנה פיט הגסת' שוקל להגדיר את יצרנית מודל הבינה המלאכותית קלוד כ"סיכון לשרשרת אספקה" - צעד חריג כלפי חברה אמריקנית • ברקע: מחלוקת על שימושי AI במעקב המוני ופיתוח נשק אוטונומי • המהלך עלול לחייב קבלנים לנתק קשרים עם החברה

סיכון אסטרטגי? קלוד של חברת אנתרופיק. צילום: רויטרס

שר ההגנה האמריקני פיט הגסת' קרוב להכריז על חברת הבינה המלאכותית אנתרופיק כ"סיכון לשרשרת אספקה" (supply chain risk) - צעד חריג שיחייב כל חברה המבקשת לעבוד עם הצבא האמריקני לנתק קשרים עם יצרנית מודל הבינה המלאכותית קלוד. כך עולה מדיווח באתר אקסיוס, מפי בכיר במשרד ההגנה.

נתניהו נפגש עם פיט הגסת', מזכיר ההגנה האמריקני (ארכיון) // רויטרס

נציין כי הסיווג "סיכון לשרשרת אספקה" הוא עונש חמור השמור בדרך כלל למדינות יריבות, ולא לחברות טכנולוגיה אמריקניות.

דובר הפנטגון, שון פרנל, מסר כי "הקשר של משרד ההגנה עם אנתרופיק נמצא בבדיקה. האומה דורשת שהשותפים שלנו יהיו מוכנים לסייע ללוחמינו לנצח בכל קרב. בסופו של דבר, זה עניין של ביטחון אזרחי אמריקה". הבכיר הוסיף: "זה יהיה אובדן עצום לנתק איתם את היחסים, ונוודא שהם ישלמו מחיר על כך".

מה עומד במרכז המחלוקת?

המתיחות נובעת ממשא ומתן ממושך סביב תנאי השימוש של קלוד, המודל של אנתרופיק והיחיד כיום שמאושר לשימוש במערכות מסווגות של הצבא האמריקני. אנתרופיק מתנגדת לשימושים מסוימים, בעיקר בתחום המעקב ההמוני ופיתוח נשק אוטונומי הפועל ללא מעורבות אנושית. הפנטגון, לעומת זאת, דורש מאנתרופיק ומשלוש חברות נוספות - OpenAI, גוגל ו-xAI - לאפשר שימוש "לכל מטרה חוקית".

במרכז המחלוקת. קלוד, צילום: אנתרופיק

מקורות מציינים כי בכירים במשרד ההגנה מתוסכלים מעמדת החברה והחליטו לנצל את ההזדמנות לעימות פומבי. אנתרופיק, מצידה, מוכנה להקל על חלק מההגבלות, אך מנכ"ל החברה, דריו אמודיי, מתעקש על עמדתו בנושא.

תזכורת: בסוף השבוע דווח כי קלוד שימש במבצע הצבאי ללכידת נשיא ונצואלה לשעבר, ניקולס מדורו, בינואר האחרון. עם זאת, מדיניות השימוש של אנתרופיק אוסרת במפורש על שימוש לצורכי אלימות, פיתוח נשק או מעקב. דובר החברה מסר כי אינם יכולים להגיב האם המודל שימש במבצע ספציפי כלשהו, אך הוסיף כי כל שימוש במודל נדרש לעמוד במדיניות החברה, וכי הם עובדים בשיתוף פעולה הדוק עם שותפיהם להבטחת עמידה בכללים. משרד ההגנה האמריקני לא הגיב לדיווחים.

אנתרופיק עובדת עם הממשל האמריקני יחד עם Palantir Technologies, פלטפורמת ניתוח נתונים שכליה משמשים את משרד ההגנה ואת רשויות אכיפת החוק הפדרליות בארה"ב. החברה הייתה הראשונה לפתח מודל בינה מלאכותית ששימש במבצעים מסווגים של משרד ההגנה.

פלטפורמת ניתוח נתונים שכליה משמשים את משרד ההגנה. Palantir Technologies, צילום: AFP

השלכות ההכרזה

הגדרת אנתרופיק כ"סיכון לשרשרת אספקה" תחייב עשרות חברות העובדות עם הפנטגון להצהיר כי אינן משתמשות בקלוד בתהליכי העבודה שלהן. חלקן, כמעט בוודאות, עושות שימוש במודל לאור היקף פעילות החברה. רק לאחרונה דיווחה אנתרופיק כי שמונה מעשר החברות הגדולות בארה"ב משתמשות בקלוד. החוזה שהפנטגון מאיים לבטל שווה עד 200 מיליון דולר – סכום המהווה חלק קטן מהכנסותיה השנתיות של אנתרופיק, המוערכות בכ-14 מיליארד דולר.

בכיר בממשל האמריקני אמר לאקסיוס כי מודלים מתחרים של קלוד "נשארו מאחור" בכל הנוגע ליישומים ממשלתיים, מה שמסבך את המעבר לשימוש במודלים אחרים של בינה מלאכותית. עם זאת, הוסיף כי במשרד ההגנה סבורים שהחברות האחרות יסכימו לתקן את תנאי השימוש הכלליים שלהן.

האם יש סיכונים בשימוש של הפנטגון בבינה מלאכותית?

חוקי המעקב ההמוני אינם לוקחים בחשבון את היכולות של בינה מלאכותית. הפנטגון יכול כבר כיום לאסוף כמויות עצומות של מידע אישי - מפוסטים ברשתות חברתיות ועד רישיונות נשיאת נשק סמויים - וקיים חשש כי בינה מלאכותית תגביר את היכולת הזו ותאפשר שליטה נרחבת יותר באזרחים.

הפנטגון יכול כבר כיום לאסוף כמויות עצומות של מידע אישי. מזכיר ההגנה האמריקני, פיט הגסת', צילום: אי.פי

דובר אנתרופיק מסר: "אנו מנהלים שיחות פרודוקטיביות ובתום לב עם משרד ההגנה על המשך העבודה ועל האופן שבו ניתן להתמודד נכון עם הנושאים החדשים והמורכבים הללו". הדובר הדגיש את מחויבות החברה לשימוש בבינה מלאכותית מתקדמת לביטחון לאומי, וציין כי קלוד היה הראשון לשמש ברשתות מסווגות.

טעינו? נתקן! אם מצאתם טעות בכתבה, נשמח שתשתפו אותנו

כדאי להכיר