גרוק של אילון מאסק. צילום: רויטרס

אצבע בעין: בפנטגון אישרו שימוש בגרוק של אילון מאסק

סוכנויות פדרליות התריעו מפני בעיות בטיחות ואמינות בצ'אטבוט של xAI • דוח פנימי קבע כי הכלי של המיליארדר אינו עומד בציפיות לשימוש ממשלתי כללי • למרות אזהרות, גרוק אושר לפעילות בסביבות מסווגות

בכירים במספר סוכנויות פדרליות בארה"ב התריעו בחודשים האחרונים מפני בעיות בטיחות ואמינות בכלי הבינה המלאכותית של חברת xAI שבבעלות המיליארדר אילון מאסק, אך למרות זאת החליט הפנטגון לאשר את השימוש בצ'אטבוט גרוק (Grok) גם בסביבות מסווגות. כך דווח הלילה (בין שישי לשבת) ב"וול סטריט ג'ורנל".

האזהרות קדמו להחלטת משרד ההגנה האמריקני להעמיד את xAI במרכז חלק מהפעילויות הרגישות והחשאיות ביותר של הממשל, לאחר שהסכים להתיר שימוש בגרוק בהקשרים מסווגים.

גם שימוש מוגבל בכלי יחייב פיקוח בטיחותי מחמיר ורב-שכבתי. גרוק, צילום: GettyImages

תקציר מנהלים מ-15 בינואר של מינהל השירותים הכלליים (GSA), שנבחן על ידי העיתון, קבע כי גרסת גרוק-4 "אינה עומדת בציפיות הבטיחות וההתאמה הנדרשות" לשימוש פדרלי כללי במסגרת ה-GSA ופלטפורמת ניסוי פדרלית לבינה מלאכותית. בדוח רחב יותר, בן 33 עמודים, הוזכרו אירועי בטיחות ציבוריים ותוצאות בדיקות פנימיות, ונקבע כי גם שימוש מוגבל בכלי יחייב פיקוח בטיחותי מחמיר ורב-שכבתי - אחרת ייווצר "סיכון בטיחותי מוגבר וקשה לניהול".

מחלוקת פוליטית סביב בחירת מודלים

ברחבי הממשל מתקיים מירוץ להטמעת כלי AI למגוון צרכים, אך הוויכוח סביב בחירת המודלים קיבל גם גוון פוליטי. לפי הדיווח, בכירים בבית הלבן סבורים כי עמדות הבטיחות הפומביות של חברת אנתרופיק וקשריה לתורמים דמוקרטיים עלולים להפוך אותה ל"פרוגרסיבית מדי" כספקית אמינה.

נשיא ארה"ב דונלד טראמפ הודיע כי הממשל הפדרלי יפסיק לעבוד עם אנתרופיק והורה לכל הסוכנויות לחדול מיידית משימוש בטכנולוגיה שלה. קודם לכן העניק הפנטגון לחברה אולטימטום להסכים לכללים מקלים יותר בשימוש הצבאי במוצריה. עד להסכם עם xAI, אנתרופיק הייתה המפתחת היחידה שאושרה לשימוש בסביבות מסווגות.

לפי הגורמים שצוטטו, השליטה הפחות הדוקה בגרוק וגישתו המוחלטת של מאסק לחופש ביטוי הפכו את הכלי לאטרקטיבי יותר עבור הפנטגון - אף שבכירים אחרים התריעו כי אותה גמישות עלולה גם להוות סיכון.

בעיות בטיחות אפשריות. גרוק, צילום: רויטרס

אד פורסט, בכיר ב-GSA, התריע בחודשים האחרונים בפני גורמים בבית הלבן על בעיות בטיחות אפשריות בגרוק. גורמים נוספים ב-GSA הביעו חשש כי הכלי "נוטה לרצות" ומשתכנע בקלות מנתונים שגויים או מוטים - תכונה שעלולה לייצר סיכון מערכתי.

בסוף דצמבר ובתחילת ינואר ספגה גרוק ביקורת לאחר שאפשרה עריכה מינית של תמונות, כולל של ילדים. בממשל ראו בכך דוגמה לאופן שבו גורמים זדוניים עשויים לנצל את המערכת. הנושא הגיע לראש הסגל בבית הלבן, סוזי ויילס, ששוחחה עם בכיר ב-xAI וקיבלה הבהרה כי החברה פועלת לטפל בבעיות שגרמו לכלי להיות "צייתני מדי".

גורם נוסף במערך הרכש הממשלתי הבטיח כי גרסת גרוק לממשל מופרדת מזו הציבורית - והסוגיה נרגעה.

במקביל, פקידים ב-GSA התבקשו לשלב את לוגו xAI בכלי בשם USAi - סביבת ניסוי לעובדי ממשל לבחינת מודלי בינה מלאכותית. עם זאת, לפי הדיווח, גרוק עצמו עדיין אינו נגיש בפלטפורמה בשל חששות בטיחותיים, אף שבאתר מופיע לוגו החברה לצד מודלים של גוגל, אנתרופיק ומטא.

טעינו? נתקן! אם מצאתם טעות בכתבה, נשמח שתשתפו אותנו
Load more...