סם אלטמן מזהה הזדמנות: OpenAI בוחנת הסכם עם הפנטגון

על רקע העימות עם חברת אנתרופיק שאחראית על המודל קלוד, אלטמן עדכן עובדים כי החברה פועלת לגיבוש מתווה שיאפשר שימוש במודלים בסביבות מסווגות • המטרה: לשמור על קווי האדום האתיים ולמנוע הסלמה בין אנתרופיק למשרד ההגנה

סם אלטמן מזהה הזדמנות: OpenAI בוחנת הסכם עם הפנטגון . צילום: אי.אף.פי

מנצל את המשבר התקדימי: מנכ"ל OpenAI, סם אלטמן, עדכן את עובדיו כי החברה פועלת לגיבוש הסכם אפשרי עם הפנטגון, במטרה לסייע בפתרון המשבר המתמשך בין משרד ההגנה האמריקני לחברת אנתרופיק סביב השימוש בכלי בינה מלאכותית בשדה הקרב. כך דווח הלילה (בין שישי לשבת) ב"וול סטריט ג'ורנל".

במזכר פנימי ששלח לעובדים ביום חמישי בערב, כתב אלטמן כי OpenAI מנהלת שיחות עם משרד ההגנה כדי לבחון אפשרות לפריסת מודליה בסביבות מסווגות, תוך שמירה על אותם מנגנוני בטיחות שהובילו את אנתרופיק למבוי סתום מול הממשל. עם זאת, לפי גורם המעורה בפרטים, טרם נחתם הסכם והשיחות עלולות להתפוצץ.

מדורו מובא לבית המשפט במנהטן במסוק

אלטמן ציין כי החברה מבקשת חוזה שיכסה כל שימוש שאינו בלתי חוקי או שאינו מתאים לפריסה בענן, והבהיר כי שימושים כמו מעקב פנים-ארצי המוני או נשק התקפי אוטונומי אינם מקובלים עליה.

במזכר הביע אלטמן תמיכה עקרונית בעמדת אנתרופיק, אך הכיר גם בדאגות הממשל בנוגע לשליטה של חברה פרטית בנושאי ביטחון לאומי. לדבריו, OpenAI סבורה שבינה מלאכותית אינה צריכה לשמש למעקב המוני או לכלי נשק קטלניים אוטונומיים, וכי בני אדם חייבים להישאר "בלולאה" בקבלת החלטות קריטיות.

הוא הדגיש כי המחלוקת אינה בהכרח על אופן השימוש בטכנולוגיה, אלא על שאלת השליטה, והוסיף כי אף שחברות פרטיות יכולות להשפיע, הן אינן יכולות להיות חזקות יותר מהממשלה הנבחרת דמוקרטית.

במקביל, קבוצה של סנאטורים העוסקים בענייני ביטחון ביקשה משני הצדדים להגיע לפשרה. לפי הדיווח, ראשי ועדות הכוחות המזוינים וההקצבות להגנה פנו במכתבים להנהגות הצדדים וקראו להארכת הדדליין שהציב הפנטגון לאנתרופיק.

אנתרופיק ו-OpenAI, צילום: רויטרס

OpenAI מאמינה כי תוכל לאכוף את קווי האדום שלה באמצעות אמצעי הגנה טכניים - בהם הגבלת המודלים לפעילות בענן בלבד, ולא בסביבות קצה, מה שעשוי ליצור חסמים נוספים בפני שימושים כמו נשק אוטונומי. עוד נבחנת אפשרות להעניק לחוקרי החברה סיווג ביטחוני, כדי שיוכלו לייעץ לממשל לגבי מגבלות וסיכונים.

מוקדם יותר הודיע מנכ"ל אנתרופיק, דריו אמודיי, כי החברה דחתה את דרישת משרד ההגנה לאפשר שימוש בטכנולוגיה שלה ל"כל שימוש חוקי", והתעקשה לשמור לעצמה את הזכות לאסור שימושים כמו מעקב פנים-ארצי המוני ונשק אוטונומי.

נשיא ארה"ב דונלד טראמפ הודיע כי הורה לכל הסוכנויות הפדרליות בממשל להפסיק לאלתר את השימוש בכלי ה-AI של חברת אנת׳רופיק, המפעילה את מודל השפה קלוד. זאת, בשל עימות שהחל לאחר שהחברה סירבה לדרישת מחלקת ההגנה להסיר את ההגבלות שהיא מטילה על השימוש הצבאי בטכנולוגיה שלה.

בפוסט שפרסם ברשת החברתית שבבעלותו, TruthSocial, כינה טראמפ את אנתרופיק "חברה ווקיסטית של שמאל רדיקלי" והאשים אותה בניסיון "להכתיב לצבא האמריקני כיצד להילחם ולנצח במלחמות". לדבריו, "המטורפים השמאלנים באנתרופיק עשו טעות הרסנית בניסיון לסחוט את מחלקת המלחמה ולכפות עליה לציית לתנאי השירות שלהם במקום לחוקה שלנו. האנוכיות שלהם מסכנת חיי אמריקנים, מעמידה בסכנה את חיילינו ופוגעת בביטחון הלאומי שלנו".

טראמפ נגד מודל ה-AI קלוד: ״להפסיק את השימוש, שמאלנים רדיקלים", צילום: TruthSocial

בתגובה, סגן תת-שר ההגנה למחקר והנדסה, אמיל מייקל, כתב ברשת X כי מעקב המוני כבר אסור לפי התיקון הרביעי לחוקה, והוסיף כי משרד ההגנה לא יאפשר לחברת טכנולוגיה גדולה לקבוע את גבולות חירויות האזרח של האמריקנים.

טעינו? נתקן! אם מצאתם טעות בכתבה, נשמח שתשתפו אותנו

כדאי להכיר