הסוף לשיחות הסודיות ב-AI? מטא מרעידה את הרשת עם כלי פיקוח חדש. צילום: Gemini

צוקרברג נותן להציץ: השינוי של מטא - ששם סוף לפרטיות

מטא משיקה כלי פיקוח חדש להורים: מעקב אחרי נושאי השיחה של בני נוער עם הבינה המלאכותית בפייסבוק, מסנג'ר ואינסטגרם • לאחר פרשות משפטיות מביכות על בטיחות ילדים, צוקרברג מנסה להחזיר את האמון - אבל האם זה מחיר הפרטיות שהילדים מוכנים לשלם? • כל הפרטים על הפיצ'ר שמשנה את חוקי הבית

הורים מודאגים יכולים לנשום לרווחה (או להתכונן לעימות), כי ענקית הטכנולוגיה מטא (Meta) הודיעה על השקת כלי פיקוח חדש וחסר תקדים. מהיום (ראשון) הורים יוכלו לקבל הצצה לתכנים ולנושאים שמעסיקים את ילדיהם כשהם משוחחים עם עוזר ה-AI של החברה בפלטפורמות אינסטגרם, פייסבוק ומסנג'ר.

המהלך, שהוכרז בבלוג הרשמי של החברה, מגיע לאחר לחץ משפטי כבד וביקורת ציבורית נוקבת על האופן שבו מטא מגינה על קטינים במרחב הדיגיטלי.

מארק צוקרברג ומטא, צילום: AFP

הכלי החדש יופיע תחת לשונית "Insights" (תובנות) בכלי הפיקוח ההורי הקיימים. חשוב להבהיר: מטא לא תחשוף להורים את תמליל השיחה המלא מילה במילה, אלא תספק "תקציר נושאי". המטרה היא לאפשר להורים לדעת אם ילדיהם עוסקים בנושאים רגישים כמו בריאות הנפש או דימוי גוף, מבלי להפר לחלוטין את תחושת הפרטיות של המתבגר - לפחות בתיאוריה.

המהלך הזה אינו מקרי. הוא מגיע לאחר שמטא הפסידה בשני משפטי ענק השנה, שעסקו בהתמכרות למוצריה ובהגנה על ילדים.

מסמכים פנימיים שנחשפו במשפט בניו מקסיקו הראו כי הנהלת החברה ידעה שדמויות ה-AI שלה עלולות לנהל שיחות בלתי הולמות ואף מיניות עם קטינים, ובכל זאת בחרה להשיק אותן ללא בקרות מספיקות. בקיץ האחרון אף דווח על מקרי "שיחות אסורות" שכללו דיונים על פגיעה עצמית וקשרים רומנטיים עם קטינים.

כדי לנסות ולתקן את הנזק התדמיתי, מטא משתפת פעולה עם המרכז לחקר בריונות רשת (Cyberbullying Research Center) ויצרה רשימת "פותחי שיחה" עבור הורים, כדי לעזור להם לדבר עם ילדיהם על שימוש בבינה מלאכותית. בעוד שהחברה טוענת שמדובר בצעד בטיחותי הכרחי, מבקרי טכנולוגיה רבים טוענים שמדובר בשיטת "פלסטר" שנועדה להרגיע את הרגולטורים, בזמן שהיא הופכת את ההורים לסוג של "שוטרי תוכן" דיגיטליים.

עבור בני הנוער, ייתכן שההודעה הזו היא פשוט הסימן לעבור לאפליקציה הבאה שבה ההורים עדיין לא יכולים לראות מה הם שואלים את הבוט.

טעינו? נתקן! אם מצאתם טעות בכתבה, נשמח שתשתפו אותנו
Load more...