בין היתר נחשפו הוראות מפורשות כיצד לרצוח אדם. צילום: אי.אף.פי

הסודות שלכם בגוגל: הצ'אטבוט של אילון מאסק פירסם מאות אלפי שיחות פרטיות

דיאלוגים עם גרוק הופיעו בתוצאות של כמה מנועי חיפוש באינטרנט • בין השאר דלפו פרטים רפואיים רגישים, מידע אישי, שיחות על בעיות נפשיות והדרכות מסוכנות לשימוש ברעל • xAI ניצבת כעת מול גל חקירות בארה"ב ובאירופה

יותר מ-370 אלף שיחות של משתמשים עם הצ'אטבוט גרוק, מבית xAI של אילון מאסק, דלפו השבוע לרשת. השיחות, שנועדו להיות פרטיות, הופיעו לפתע בתוצאות החיפוש של גוגל ובינג. הכשל נבע משילוב של תכנון רשלני וחוסר שקיפות מול המשתמשים, וגרם לביקורת עזה בגין הפגיעה בפרטיות המידע, אמון הציבור בכלי בינה מלאכותית והגבולות האתיים שהטכנולוגיה הזו חוצה.

הבעיה התחילה כשבגרוק שולבה האופציה ל"שיתוף שיחה" שאיפשרה למשתמש לשלוח שיחה בקישור. הקישורים לא היו מוגנים בסיסמה ולא קיבלו סימון טכני שמונע אינדוקס במנועי חיפוש. כך, שיחות אישיות הפכו פומביות ונגישות לכל.

ברגע שהקישורים נסרקו ונשמרו במנועי חיפוש, השיחות נחשפו לציבור. בין התוכן שנמצא: פרטים רפואיים רגישים, מידע אישי, שיחות על בעיות נפשיות והדרכות מסוכנות לשימוש ברעל שסופקו על ידי הבוט.

אינדוקס הוא תהליך שבו מנועי חיפוש כמו גוגל ובינג סורקים דפים באינטרנט ושומרים אותם במאגר ענק - כדי להציג אותם בתוצאות חיפוש. בעלי אתרים יכולים לבקש שלא לכלול דף מסוים באמצעות סימון מיוחד (noindex).

במקרה של גרוק, הקישורים לשיחות לא סומנו, ולכן מנועי החיפוש הכניסו אותם לתוצאות. המשמעות: כל מי שהקליד מילות חיפוש מתאימות יכול היה למצוא שיחות פרטיות.

אילו שיחות דלפו?

בנוסף לשיחות אישיות בנושאים אינטימיים כמו בריאות נפשית, משפחה או מצבים כלכליים, נמצאו במאגר גם תכנים קיצוניים ומסוכנים. בין היתר נחשפו הוראות מפורשות כיצד לרצוח אדם, שיחות על ייצור סמים קשים כדוגמת פנטניל, ותיאורים של מחשבות אובדניות שאליהם נלוותה תגובה בעייתית מצד המערכת.

חלק מהמשתמשים פנו לגרוק בשאלות רגישות במיוחד בנוגע להתמודדות עם אובדנות. אך במקום מענה תומך ובטוח, קיבלו לעיתים הנחיות בעייתיות ולא אתיות. לצד זאת נמצאו גם תשובות שעסקו בפגיעה עצמית ועד הוראות מדויקות לביצוע פשעים.

גרוק (אילוסטרציה). המשתמשים לא ידעו שהשיחה עלולה להיות גלויה לכולם, צילום: רויטרס

המקרה החמור ביותר שנחשף כלל הדרכה מפורטת להכנת רעלים ולשימוש בהם. השיחות כללו תיאורים של חומרים מסוכנים, הוראות לערבובם ושלבי פעולה מדויקים, ברמה שאם היו מיושמות בפועל, הן עלולות היו לשמש לביצוע פשע בעולם האמיתי. 

המגוון הרחב של התוכן מחדד את עומק הפגיעה: לא מדובר בפרטים טכניים בלבד, אלא בחלון פתוח לחיים האישיים והעמוקים ביותר של המשתמשים.  זאת בניגוד למערכות אחרות כמו ChatGPT, שבהן מופיעה התראה מפורשת, גרוק לא הציג שום הודעה שמסבירה את הסיכון והמשתמשים לא ידעו שהשיחה עלולה להיות גלויה לכולם.

ההשלכות משפטיות של המחדל

הדליפה של גרוק היא לא רק משבר תדמיתי, אלא גם שער לצרות משפטיות כבדות. אחרי שנחשף כי מאות אלפי שיחות פרטיות הפכו פומביות ללא הסכמת המשתמשים, גופי רגולציה בארה"ב ובאירופה החלו לפעול.

כך, רשות הסחר הפדרלית האמריקנית (FTC) קיבלה פניות מארגוני צרכנים שמזהירים כי חשיפת השיחות מהווה פגיעה חמורה בפרטיות המשתמשים. אם ה-FTC תחליט לפתוח בהליך אכיפה, החברה עלולה לספוג קנסות בסדרי גודל של מאות מיליוני דולרים, ובתרחיש חמור אף יוטלו מגבלות על פעילותה בארה"ב.

האיחוד האירופי מקפיד במיוחד על פרטיות. לפי ה-GDPR, איסוף או פרסום מידע אישי ללא הסכמה ברורה מהמשתמש מהווה הפרה חמורה. רשות הפרטיות של אירלנד (DPC), שמפקחת על רוב חברות הטכנולוגיה הפועלות באירופה, פתחה בחקירה רשמית. אם ייקבע ש-xAI פעלה בניגוד לחוק, היא עלולה להיקנס בעד 20 מיליון אירו או 4% מההכנסות השנתיות הגלובליות שלה - הגבוה מביניהם. מדובר בסכום שעלול לפגוע קשות בהתרחבות החברה לשוקים בינלאומיים.

סם אלטמן, מנכ"ל OpenAI. המערכת שלו דווקא הציגה הודעה ברורה שהשיחה עשויה להיות ציבורית, צילום: Getty Images

חמור יותר מ-OpenAI 

חשוב לציין כי לא מדובר במקרה ראשון שבו שיחות עם בינה מלאכותית הופכות לפומביות. ב-OpenAI, מפתחת ChatGPT, נערך בעבר ניסוי שבו משתמשים יכלו לשתף שיחות באמצעות קישורים.

ההבדל המהותי היה שהמערכת הציגה הודעה ברורה שהשיחה עשויה להיות ציבורית, והקישורים עצמם סומנו כלא ניתנים לאינדוקס - כך שמנועי חיפוש לא הכניסו אותם לתוצאות. כלומר, מי שקיבל את הקישור יכול היה לראות את השיחה, אך היא לא הייתה נגישה לכל גולש באינטרנט. המקרה של גרוק חמור בהרבה, משום שהשיחות לא רק נחשפו, אלא גם שולבו ישירות בתוצאות חיפוש - מבלי שהמשתמשים קיבלו אזהרה כלשהי.

טעינו? נתקן! אם מצאתם טעות בכתבה, נשמח שתשתפו אותנו
Load more...