לקחת אחריות על הטכנולוגיה - אחרת כולנו ניפגע

כלים כמו “הערות קהילה" מוצגים כפתרון דמוקרטי, אך בפועל הם איטיים, לא עקביים, ולעיתים עיוורים לחלוטין לפגיעות בקבוצות מיעוט. זו אינה דמוקרטיה, זו הפקרות

דיפ-פייק, צילום: נוצר באמצעות בינה מלאכותית - גרוק

2026 כבר כאן, וההתנגשות בין בינה מלאכותית לשנאה מקוונת אינה איום עתידי אלא מציאות יומיומית. קל להאשים את הטכנולוגיה, את האלגוריתמים או את "הקדמה", אבל האמת מטרידה הרבה יותר: מה שאנחנו רואים היום ברשת הוא תוצאה של החלטות מדיניות. לא תקלות או חוסר שליטה. בחירות.

בינה מלאכותית הפכה בשנה האחרונה למכפיל כוח דרמטי של שנאה. יצירת תכנים אנטישמיים, גזעניים ואלימים הפכה מהירה, זולה וקלה מאי פעם. תמונות מזויפות של אירועי שואה שמעולם לא התרחשו, סרטוני דיפ־פייק שמלבישים דברים שמעולם לא נאמרו על אנשים אמיתיים, וקמפיינים מתוזמרים שמניעים איומים, הסתה והטרדות, אינם תרחישי קצה. הם מתרחשים כאן ועכשיו, ומשפיעים על חיינו.

סרטון AI שפרסם משרד רה"מ // משרד רה"מ

הקהילה היהודית נמצאת שוב בחזית. אנטישמיות מקוונת אינה עוד שיח שוליים, היא מחלחלת למרחב הציבורי. תיאוריות קונספירציה, הכחשת שואה והאשמות קולקטיביות כלפי יהודים מופצות במהירות חסרת תקדים, לעיתים במסווה של "ביקורת פוליטית" או "סאטירה". כשמערכות AI מאומנות על נתונים מוטים, וכשהפיקוח רופף - השנאה אינה רק משתקפת אלא מועצמת.

דווקא ברגע הזה, פלטפורמות מרכזיות נסוגות מאחריות. בשנה האחרונה אנו עדים לצמצום של מנגנוני ניטור מקצועיים ולהעברת האחריות לידי "הקהילה". כלים כמו "הערות קהילה" מוצגים כפתרון דמוקרטי, אך בפועל הם איטיים, לא עקביים, ולעיתים עיוורים לחלוטין לפגיעות בקבוצות מיעוט. כאשר בטיחות של קהילות פגיעה תלויה ברצון הטוב של ההמון - זו אינה דמוקרטיה, זו הפקרות.

בינתיים, רשתות של ארגונים קיצוניים לומדות, מסתגלות ונעות במהירות בין פלטפורמות. כשפיקוח מתהדק, הן עוברות למרחבים מבוזרים או פחות מפוקחים; כשנוצר קהל, הן חוזרות למרכז, עם שפה מתוחכמת שמצליחה לעקוף אלגוריתמים קיימים. כל עוד הרגולציה מפוצלת, הקיצוניות תהיה צעד אחד קדימה.

הפערים הגלובליים רק מחריפים את הבעיה. באירופה מתקדמת רגולציה מחייבת יותר, בעוד בארה"ב חופש הביטוי גובר לרוב על חובות בטיחות. אותה פלטפורמה, אותו תוכן - רמת הגנה שונה לחלוטין למשתמשים שונים.

שנאה מקוונת אינה מכירה גבולות, אבל הרגולציה כן, וזה משרת את הקיצונים.

והשאלה האמיתית של 2026 היא לא טכנולוגית אלא מוסרית: מי אחראי לבטיחות ברשת? הפלטפורמות? הרגולטורים? הקהילות עצמן? התשובה חייבת להיות ברורה, לא ניתן להטיל את האחריות על הקורבנות. מעורבות קהילתית חשובה, אך היא אינה תחליף למדיניות סדורה, לשקיפות, לאכיפה ולמשאבים.

בסופו של דבר, בינה מלאכותית אינה ניטרלית. כל אלגוריתם הוא בחירה, וכל מדיניות היא הצהרה ערכית. 2026 כבר כאן. אם נבחר לקחת אחריות, הטכנולוגיה יכולה להפוך מכלי פגיעה לכלי הגנה. אם לא, המחיר יהיה גבוה, ומוכר מדי.

הכותבת היא מנכ״לית המכון לטכנולוגיה וזכויות אדם בקונגרס היהודי העולמי (WJC)

טעינו? נתקן! אם מצאתם טעות בכתבה, נשמח שתשתפו אותנו

כדאי להכיר