OpenAI, היצרנית של ChatGPT, שלחה הלילה (בין רביעי לחמישי) לרבים ממשתמשי ChatGPT הודעות דוא"ל ובו עדכנה על אירוע אבטחה שבמהלכו נחשף מידע מוגבל על משתמשי פלטפורמת ה-API שלה.
לדברי החברה, הדליפה אירעה דרך ספק צד שלישי בשם Mixpanel, פלטפורמת אנליטיקה שאוספת נתונים סטטיסטיים על שימוש במוצרים דיגיטליים. החברה הדגישה כי המערכות שלה עצמה לא נפגעו, וכי לא נחשפו פרטי התחברות, מידע על תשלומים או נתוני API של המשתמשים.
האירוע התרחש כתוצאה מגישה לא-מורשית למאגר מידע במערכות Mixpanel. לפי OpenAI, התוקף הצליח לייצא נתונים שהכילו מידע מזהה מסוים של משתמשים שהשתמשו בפלטפורמת ה-API - הממשק הטכני המאפשר למפתחים ולארגונים לשלב את הטכנולוגיה של החברה במוצרים שלהם.
הפרטים שייתכן כי נחשפו כוללים שמות שסופקו בחשבונות API, כתובות דוא"ל, מידע משוער על מיקום גיאוגרפי, פרטים על מערכת ההפעלה והדפדפן בהם השתמשו המשתמשים, אתרים שהפנו אליהם, ומזהים של הארגונים או המשתמשים המקושרים לחשבונות ה-API.
OpenAI הדגישה כי לא נחשפו יומני שיחות, בקשות API, סיסמאות, מפתחות גישה, פרטי תשלום או מסמכי זיהוי רגישים. הדליפה הייתה מוגבלת רק למידע שנאסף למטרות אנליטיקה דרך Mixpanel.
המהפכה השלמה: כך הפכה OpenAI מסטארט-אפ לכלי שמשרת מיליארד משתמשים בשלוש שנים | יובל קחלון
בתגובה לאירוע, OpenAI הודיעה שהפסיקה לחלוטין את השימוש ב-Mixpanel בשירותי הייצור שלה. החברה בדקה את כל מאגרי הנתונים המעורבים באירוע ועובדת עם Mixpanel ושותפים אחרים כדי להעריך את היקף הפרצה. לדברי החברה, אין ראיות לכך שהאירוע השפיע על מערכות או מידע מחוץ לסביבה של Mixpanel, אך היא ממשיכה לעקוב אחר שימוש לרעה אפשרי במידע שנחשף.
במסגרת תגובתה, OpenAI מבצעת ביקורות אבטחה מורחבות על כל מערך הספקים שלה ומעלה את דרישות האבטחה לכל השותפים החיצוניים. החברה הודיעה שתחייב ספקים חיצוניים בסטנדרטים גבוהים יותר של אבטחת מידע כחלק מהתגובה המתמשכת שלה.
המידע שעלול להיות נחשף עשוי לחשוף משתמשים לסיכון מוגבר לניסיונות פישינג - הונאות דיגיטליות בהן התוקפים מתחזים לגורם לגיטימי - או לתקיפות הנדסה חברתית. OpenAI המליצה לכל הלקוחות והמשתמשים להישאר ערניים כלפי כל תקשורת חשודה או לא מבוקשת שעשויה להיות קשורה לאירוע. החברה חזרה והדגישה שהיא לעולם לא מבקשת מידע רגיש כמו סיסמאות, מפתחות API או קודי אימות בדוא"ל, הודעות טקסט או צ'אט.
המשתמשים גם עודדו להפעיל אימות דו-שלבי כאמצעי הגנה נוסף לחשבונותיהם. אימות דו-שלבי מצריך אישור נוסף מעבר לסיסמה, בדרך כלל דרך אפליקציה או הודעת SMS, מה שמקשה על תוקפים לחדור לחשבונות גם אם הסיסמה נחשפה.
דובר OpenAI אמר: "אמון, אבטחה ופרטיות הם יסודיים למוצרים שלנו, לארגון שלנו ולמטרות שלנו. אנחנו מחויבים לשקיפות, ומודיעים לכל הלקוחות והמשתמשים שנפגעו. אנחנו גם תובעים מהשותפים והספקים שלנו לעמוד ברף הגבוה ביותר של אבטחה ופרטיות של השירותים שלהם. לאחר בחינת האירוע הזה, OpenAI הפסיקה את השימוש ב-Mixpanel".
"גבולות המידע נעשים פחות ברורים"
"הדור החדש של מערכות AI יוצר מציאות שבה גבולות המידע נעשים פחות ברורים - גם ברמה האישית וגם ברמה הארגונית. מה שפעם היה דליפה נקודתית הופך היום לאירוע מערכתי: נתונים עוברים בין שירותים, ספקים ומערכות אוטומטיות, ולא תמיד ברור מי ראה מה, ומה נשמר בדרך. כל חוליה חלשה, כמו ספק אנליטיקה חיצוני, יכולה להפוך לנקודת חשיפה משמעותית", אומר הוד בן נון, VP R&D ושותף-מייסד ב-MIND Security.
"האתגר המרכזי הוא שאנחנו כבר לא מדברים רק על תקיפות כוונתיות, אלא על דליפות שנובעות מפעולות לגיטימיות לחלוטין. משתמש שמדביק טקסט לצ'אטבוט, מערכת שמעבירה מידע בין שירותים, או תהליכי ניטור שלא תוכננו לעולם של AI, כל אלה יוצרים סיכון חדש. הפתרון הוא קודם כול שקיפות: לדעת איפה המידע נמצא, מי ניגש אליו, ובאיזה הקשר. בנוסף, יש צורך בהגנות שמגיבות בזמן אמת ולא רק מנתחות אירועים בדיעבד", מוסיף בן נון. "גם לאנשים פרטיים וגם לארגונים, ההמלצה ברורה: להפעיל חשיבה ביקורתית על כל מידע שנחשף מחוץ למערכת, להשתמש באימות דו-שלבי, ולהציב מנגנוני בקרה שמסוגלים לזהות חוסר התאמה עוד לפני שהמידע עוזב את הגבולות המורשים. בעידן שבו ה-AI מאיץ תהליכים, האחריות להבין ולפקח על תנועת המידע גדלה משמעותית וכל עוד אין שליטה, אין הגנה".
טעינו? נתקן! אם מצאתם טעות בכתבה, נשמח שתשתפו אותנו