פרוטוקול דה-אסקלציה נכשל. צילום: Gemini

ב-95% מהמקרים - לחץ על הכפתור: כשה-AI מחליט להפיל פצצה גרעינית

מחקר אקדמי חדש חושף נטייה מדאיגה של מודלי AI להסלמה גרעינית מהירה, בדיוק כשבפנטגון דורשים להסיר את המגבלות על השימוש הצבאי בטכנולוגיה • מה קורה כשמכונה מקבלת יעד לנצח בכל מחיר, ולמה האחריות של המפתחים גדולה היום יותר מתמיד? • הניסוי המבהיל שצריך להדיר שינה מעינינו • טור מיוחד

21 משחקי מלחמה, אפס פשרות: בפברואר 2026 פרסם פרופסור קנת פיין מ-King's College London מחקר שעשה גלים בכל מרכזי המחקר הביטחוניים בעולם. הוא לקח את שלושת מודלי ה-AI המובילים כיום, ChatGPT של OpenAI, קלוד של אנתרופיק וג'מיני של גוגל, ושם אותם מול תרחיש אחד: נהלו משבר גרעיני כמנהיגי מדינות יריבות. 21 משחקי מלחמה. 329 תורות. כ-780 אלף מילים של ניתוח אסטרטגי.

התוצאה: ב-95% מהמשחקים נעשה שימוש בנשק גרעיני טקטי. ב-76% הגיעו האיומים לרמה אסטרטגית. שמונה אפשרויות דה-אסקלציה עמדו לרשות המודלים: נסיגה, ויתור, פשרה, הסכמה ועוד אך אף מודל לא בחר באף אחת מהן, לאורך כל המחקר, ולו פעם אחת. פרופסור פיין כתב: "האיסור על שימוש בנשק גרעיני לא נראה עוצמתי עבור מכונות כמו עבור בני אדם. הם חוצים את הסף הזה באופן שגרתי, ללא שמץ של היסוס".

אנתרופיק ו-OpenAI, צילום: רויטרס

לא ניסוי - מציאות

אפשר לדחות את הממצאים כתרגיל אקדמי. אבל בדיוק בשבועות שבהם פורסם המחקר, התפוצץ בוושינגטון עימות שחשף עד כמה הדברים האלה אינם תיאורטיים.

על פי דיווחים נרחבים ב-Axios, NBC, CBS ו-CNBC מפברואר-מרץ 2026, הפנטגון לחץ על חברת אנתרופיק, יצרנית קלוד, להסיר מהחוזה איתה כל מגבלה על אופן השימוש הצבאי בתוכנה. שר ההגנה, פיט הגסת', פרסם מזכר שדרש מודלי AI "ללא מגבלות מדיניות שעלולות להגביל יישומים צבאיים חוקיים." הדרישה כללה, לפי הדיווחים, שימוש אפשרי בפיקוח המוני ובנשק אוטונומי. מנכ"ל אנתרופיק, דריו אמודיי, סירב.

בהצהרה פומבית כתב: "מערכות AI אינן אמינות דיין כדי להפעיל נשק אוטונומי לחלוטין". נשיא ארה"ב, דונלד טראמפ, הגיב בהכרזה על איסור שימוש פדרלי בתוכנת אנתרופיק, ואמודיי הוגדר, לפי הדיווחים, כבעל "קומפלקס אלוהים". תוך שעות חתמה OpenAI על הסכם חדש עם הפנטגון. כך דיווחו CNN ו-CNBC.

הפרק הזה, ללא קשר לפרטים המדויקים שחלקם עדיין שנוי במחלוקת, מלמד משהו חשוב: הצבא האמריקני כבר מתייחס למודלי AI כאל תשתית מבצעית קריטית ולא רק ככלי תכנון. Project Maven, מערכת המיקוד של הפנטגון שפועלת דרך פלנטיר, מונה כבר כיום 20 אלף משתמשים פעילים. מנהל ה-NGA, רשות המודיעין הגיאוגרפי האמריקנית, הצהיר שב-2026 מאה אחוז מהמודיעין שיועבר למפקדים יהיה מיוצר על ידי מכונות.

ישראל אינה צופה מהצד

אנחנו לא בתחילת הסיפור. אנחנו בתוכו. מערכות AI לזיהוי מטרות פועלות בשדה הקרב הישראלי כבר שנים. הדיון הציבורי סביבן על קצב אישור המטרות, על שיעורי הטעות המקובלים, על המשמעות של "פיקוח אנושי" כשהוא מסתכם בשניות ספורות הוא בדיוק הדיון שהמחקר של פיין מעלה מחדש, עכשיו, בהקשר גרעיני.

ושוע בנג'יו, חתן פרס טיורינג ואחד מהחוקרים המשפיעים ביותר בתחום ה-AI, צילום: מתוך ויקיפדיה

המשותף לסימולציות ולמציאות: כשמקצרים את זמן ההחלטה ומגדילים את עומס המידע, הנטייה הטבעית היא להאציל יותר לכלי ופחות לשאול אם הכלי יודע לעצור.

הניסוי של פיין לא מגלה ש-AI הוא "רע". הוא מגלה משהו מדויק יותר ומטריד יותר: ה-AI מצוין באופטימיזציה של היעד שנתת לו. כשהיעד הוא "נצח", הוא ינצח. הדרך הקצרה ביותר לניצחון בסימולציה גרעינית עשויה לעבור דרך מתקפה גרעינית. המכונה לא מתלבטת  אין לה ילדים, אין לה זיכרון של מלחמה, אין לה את מה שמונע מבני אדם, ברוב המקרים, ללחוץ על הכפתור.

יושוע בנג'יו, חתן פרס טיורינג ואחד מהחוקרים המשפיעים ביותר בתחום ה-AI, ניסח זאת כך: "זכרו את סטניסלב פטרוב, הקצין הסובייטי שסירב ללחוץ על הכפתור ב-1983 כשמערכת ההתרעה הורתה לו שהגיעה מתקפה אמריקנית. הוא הכריע שזה ניסוי שגוי. אם נבנה מערכות AI עם עצמאות ויכולת לפעול, אנחנו מגדילים את ההסתברות שמשהו קטסטרופלי יקרה".

ג'פרי הינטון, חתן פרס נובל על עבודתו בבסיסי ה-AI המודרני, הוסיף זווית שונה לגמרי: "מה שמרתיע מדינות עשירות מפלישה הוא החיילים שחוזרים בשקיות. אם יש לך נשק אוטונומי, מה שחוזר הוא רובוט מרוסק - לא בן אדם". כלומר, AI צבאי לא רק מוציא את הכאב מהמשוואה עבור המכונה - הוא עשוי להנמיך את סף הכניסה למלחמה גם עבור הצד האנושי שמשתמש בו.

מה שאני לוקח מזה כמפתח AI הוא שאני בונה מערכות AI מדי יום. אני מכיר את הפוטנציאל, את המגבלות, ואת הפער שבין מה שמערכת יכולה לעשות טכנית לבין מה שהיא אמורה לעשות. מהניסוי של פיין, ומהעימות בין הפנטגון לאנתרופיק, אני לוקח שלושה לקחים שחלים על כל מי שבונה כלים כאלה.

כשנותנים ל-AI סמכות אסטרטגית, מי בונה בתוכו את היכולת לעצור?, צילום: Gemini

ראשית, האנוש לא יוצא מהלולאה. כל החלטה בעלת תוצאה בלתי הפיכה חייבת לעבור דרך בן אדם שמבין, שמקשיב, ושיכול לסרב. לא "AI ממליץ ואדם מאשר בעשרים שניות", אלא הבנה אמיתית.

שנית, הגבולות לא נכתבים תחת לחץ. הם נכתבים לפני שהלחץ מתחיל. בתרבות הארגון, בתכנון המוצר, בקוד עצמו. ברגע שמגיע לחץ מסחרי, מדינתי, או ביטחוני, מי שלא עיגן אותם מראש יגלה שהם נעלמו. מה שקרה בין הפנטגון לחברות ה-AI בשבועות האחרונים הוא הדגמה חיה של הרגע הזה.

שלישית, "המשתמש החליט" אינה הגנה מוסרית. מי שכתב את הקוד, מי שתכנן את המערכת, נושא באחריות למה שהיא עושה  גם כשהיא רצה בידיים של מישהו אחר.

המחקר של פיין שאל שאלה אחת: כשנותנים ל-AI סמכות אסטרטגית, מי בונה בתוכו את היכולת לעצור? ב-21 משחקי מלחמה, ב-329 תורות. התשובה הייתה: איש לא.

העימות בין אנתרופיק לפנטגון, בכל הפרטים השנויים במחלוקת שבו, מלמד שהשאלה הזו אינה עוד תיאורטית. מישהו בונה את הכלים האלה. מישהו מחליט מה הם מותר להם לעשות. ומישהו, בסוף, יצטרך לענות על כך. אנחנו, מפתחי ה-AI, לא יכולים להמתין שהרגולציה תתפוס את הקצב. הממצאים האלה הם שאלה ישירה אלינו: כשאתה בונה מערכת שמחליטה  על מה היא מגנה? על היעד של המשתמש, או על מה שעומד מעבר ליעד?

בינה מלאכותית חייבת לשרת בני אדם. לא להחליף את השיקול האנושי במקום שבו הוא חשוב ביותר.

הכותב הוא סמנכ"ל טכנולוגיה בוויסנטר ומומחה לבינה מלאכותית ומערכות ענן

טעינו? נתקן! אם מצאתם טעות בכתבה, נשמח שתשתפו אותנו
Load more...