סוכן כפול - גרסת ה-AI: התגלתה פרצת אבטחה חמורה בגוגל

ענקית הסייבר פאלו אלטו נטוורקס חשפה כי מנוע הסוכנים של גוגל מעניק הרשאות רחבות מדי, שעלולות להפוך סוכן AI ל"איום פנימי" שגונב קוד מקור ומדליף מידע רגיש • בעקבות הדיווח, גוגל עדכנה את הפלטפורמה • כך פועלת השיטה

סוכן כפול - גרסת ה-AI: פרצת אבטחה חמורה בגוגל. צילום: Gemini

מחקר חדש של חוקרי Unit 42, יחידת המחקר של ענקית הסייבר פאלו אלטו נטוורקס, מזהיר כי מנוע Vertex AI של Google Cloud מעניק לסוכני AI הרשאות רחבות מדי כברירת מחדל, באופן שעלול להפוך סוכן שנפרץ לאיום פנימי המסכן את סביבת הענן הארגונית.

סוכני בינה מלאכותית (AI) מתקדמים במהירות לכדי מערכות אוטונומיות עוצמתיות, המסוגלות לבצע משימות מורכבות, להשתלב בתהליכים ארגוניים, לתקשר עם שירותים שונים ולקבל החלטות באופן עצמאי. פלטפורמת Vertex AI של גוגל, יחד עם מנוע הסוכנים (Agent Engine) וADK, מאפשרת פיתוח והטמעה של סוכנים מתקדמים בקנה מידה רחב.

לדוח המלא

Vertex AI, צילום: גוגל

עם זאת, לצד היכולות, עולה גם סיכון מהותי בו סוכן, שהוגדר בצורה שגויה או שנפגע, עלול להפוך ל"סוכן כפול". כזה שנראה כי הוא פועל כמתוכנן, אך בפועל מדליף מידע רגיש, פוגע בתשתיות ויוצר דלתות אחוריות למערכות קריטיות.

במחקר נמצא שסוכן AI שהוטמע במנוע הסוכנים של Vertex AI בפלטפורמת גוגל (GCP) יכול להפוך לכלי בידי התוקפים. ניצול חולשה בהגדרת הרשאות ברירת המחדל, לצד פגיעה בסוכן שירות יחיד, מאפשרים שימוש לרעה במודל ההרשאות של הפלטפורמה ולהובלת תרחישים לא צפויים.

במסגרת הממצאים הודגמה אפשרות להשגת גישה בעלת הרשאות גבוהות לנתונים בפרויקט צרכני, וכן גישה לתמונות מוגבלות ולקוד מקור בפרויקט יצרן כחלק מתשתיות גוגל. בעקבות הגילוי, הועברו הפרטים לגוגל ונערך שיתוף פעולה עם צוות האבטחה שלה, אשר הוביל לעדכון של גוגל והבהרת אופן השימוש במשאבים, חשבונות וסוכנים ב- Vertex AI.

טעינו? נתקן! אם מצאתם טעות בכתבה, נשמח שתשתפו אותנו

כדאי להכיר