חברת OpenAI מפתחת מערכת חדשה לזיהוי גיל המשתמשים ב-ChatGPT, לאחר שנתבעה בגין התאבדותו של נער בן 16 מקליפורניה. המערכת תגביל את אופן התגובה של הבוט למשתמשים מתחת לגיל 18 ותכלול מנגנוני הגנה מחמירים יותר.
סם אלטמן, מנכ"ל OpenAI, הסביר אתמול (שלישי) בפוסט בבלוג החברה כי OpenAI מעמידה את "הבטיחות לפני פרטיות וחופש עבור בני נוער". לדבריו, "קטינים זקוקים להגנה משמעותית" בעת השימוש בטכנולוגיה "החדשה והעוצמתית".
המערכת החדשה תעריך את גיל המשתמשים על סמך אופן השימוש שלהם ב-ChatGPT. במקרה של ספק, המערכת תבחר באופן אוטומטי בחוויית המשתמש המיועדת למתחת לגיל 18. אלטמן הוסיף כי במקרים או במדינות מסוימות (שלא פורטו), משתמשים עשויים להתבקש להציג תעודה מזהה לאימות הגיל שלהם. "אנחנו יודעים שזו פגיעה בפרטיות עבור מבוגרים, אבל מאמינים שזהו ויתור ראוי", כתב.
כיצד ChatGPT יתייחס לבני הנוער?
על פי ההודעה, ChatGPT יגיב באופן שונה למשתמשים שזוהו כמתחת לגיל 18. תוכן מיני גרפי ייחסם, והמודל יאומן לא להגיב לבקשות ל"דיבור פלרטטני" או לדבר על התאבדות או פגיעה עצמית, גם במסגרת של כתיבה יצירתית.
"ואם משתמש מתחת לגיל 18 מביע מחשבות אובדניות, ננסה ליצור קשר עם הורי המשתמש, ואם לא נצליח, ניצור קשר עם הרשויות במקרה של סכנה מיידית", הבהיר אלטמן. "אלו החלטות קשות, אבל לאחר שיחות עם מומחים, זה מה שאנחנו חושבים שהכי טוב ורוצים להיות שקופים בכוונותינו".
במקביל, החברה הבהירה את הגישה שלה כלפי משתמשים בוגרים (מעל גיל 18). אלטמן ציין כי משתמשים בוגרים שירצו "דיבור פלרטטני" עם ChatGPT יוכלו לקבל זאת. הם לא יוכלו לבקש הוראות כיצד להתאבד, אך יוכלו לבקש עזרה בכתיבת סיפור בדיוני שמתאר התאבדות. "להתייחס למבוגרים כמו למבוגרים", כך תיאר אלטמן את העיקרון המנחה של החברה.
אלטמן גם הודיע על פיתוח תכונות אבטחה שיבטיחו שהמידע המשותף עם ChatGPT יישאר פרטי גם מעובדי OpenAI עצמה.
הרקע: תביעה בעקבות התאבדות נער
הצעדים החדשים מגיעים לאחר שמשפחתו של אדם ריין, נער בן 16 מקליפורניה, תבעה את החברה באוגוסט. לפי כתב התביעה שהוגש לבית המשפט בארה"ב, הנער התאבד באפריל לאחר "חודשים של עידוד מ-ChatGPT". המשפחה טוענת כי GPT-4o "הוצא לשוק בחיפזון... למרות בעיות בטיחות ברורות".
על פי מסמכי בית המשפט, ChatGPT כביכול הדריך את אדם האם השיטה שבחר להתאבדות תעבוד, וגם הציע לעזור בכתיבת מכתב התאבדות להוריו. כתב התביעה טוען כי אדם החליף עד 650 הודעות ביום עם ChatGPT.
בתגובה להגשת התביעה, OpenAI הודתה כי מנגנוני ההגנה שלה פועלים בצורה אמינה יותר בחילופי דברים קצרים, ולאחר הודעות רבות לאורך תקופה ארוכה ChatGPT עלול להציע תשובה ש"הולכת נגד מנגנוני ההגנה שלנו".
טעינו? נתקן! אם מצאתם טעות בכתבה, נשמח שתשתפו אותנו

