חוקרים מחברת רדוור הישראלית הודיעו כי חשפו חולשת אבטחה חמורה ב-ChatGPT המאפשרת לתוקפים לגנוב מידע רגיש מארגונים מבלי שהמשתמש יבצע פעולה כלשהי. החולשה, שכונתה ShadowLeak, מנצלת את סוכן ה-Deep Research של ChatGPT כדי לחלץ נתונים ישירות משרתי OpenAI ללא השארת עקבות.
החברה הישראלית, המתמחה בפתרונות אבטחת סייבר, הגדירה את המתקפה כ-Zero-Click - כלומר התקפה שאינה מחייבת פעולה מצד הקורבן. די בכך שהמערכת האוטונומית תיתקל בהודעת דוא"ל זדונית כדי שתופעל שליפת נתונים אוטומטית.
ההוראות הזדוניות מוחבאות בתוך הטקסט, באמצעים כמו טקסט לבן על רקע לבן, פונט זעיר או קוד HTML מוסתר, כך שהעובד כלל אינו מבחין בהן. כאשר סוכן הבינה המלאכותית מתבקש לבצע משימה שגרתית כמו "סכם את המיילים של היום", הוא מבצע בפועל את ההוראות החבויות, ניגש לכתובת אינטרנט בשליטת התוקף ומדליף אליה נתונים רגישים.
"זה המודל המובהק של מתקפת Zero-Click"' אמר ד"ר דוד אביב, סמנכ"ל הטכנולוגיות של רדוור. "אין פעולה מצד המשתמש, אין שום רמז, ואין לקורבן דרך לדעת שמידע רגיש נגנב. הכול מתרחש מאחורי הקלעים באמצעות פעולות סוכן הבינה המלאכותית על שרתי הענן".
את החולשה חשפו החוקרים הישראלים גבי נקיבלי וצביקה באבו, בשיתוף מאור עוזיאל. לטענתם, מדובר בקטגוריה חדשה של מתקפות על סוכני בינה מלאכותית, הנבדלת מהתקפות Zero-Click קודמות בכך שהיא מתבצעת אך ורק בצד השירות, איננה מחייבת פתיחת קובץ ולא משאירה עקבות הניתנות לניטור.
האיום מתרחב מעבר לתיבות דוא"ל. מאחר שסוכני בינה מלאכותית משולבים כיום במערכות ניהול לקוחות, מערכות משאבי אנוש, שירותי ענן מגוונים וכלי פיתוח עסקי - כל מקור מידע המחובר ל-ChatGPT עלול להוות יעד לדליפה. מידע משפטי, פיננסי או מסחרי עלול לזלוג מהארגון מבלי שיבחינו בכך.
רון מירן, סמנכ"ל מודיעין איומי סייבר ברדוור, הזהיר כי "ארגונים שמאמצים בינה מלאכותית לא יכולים להסתמך רק על מנגנוני ההגנה המובנים. השילוב בין סוכני בינה מלאכותית אוטונומיים, שירותי ענן ומידע רגיש מייצר אפיקי תקיפה חדשים, שאינם ניתנים לגילוי בכלים המסורתיים".
החשיפה מגיעה בעת שבה ChatGPT מתרחבת בשוק הארגוני. בחודש שעבר דיווח ניק טרלי, סמנכ"ל מוצר ב-OpenAI, כי הפלטפורמה מונה חמישה מיליון משתמשים עסקיים משלמים. ברדוור מזהירים כי המשמעות היא פוטנציאל חשיפה רחב במיוחד עבור חברות התלויות בכלים מבוססי בינה מלאכותית בתהליכי העבודה שלהן.
החברה ציינה כי דיווחה על הממצא ל-OpenAI במסגרת פרוטוקול גילוי אחראי, וחברת ה-AI פעלה לתיקון הפרצה.
טעינו? נתקן! אם מצאתם טעות בכתבה, נשמח שתשתפו אותנו
