איזנקוט לא דיבר על איראן גרעינית - אז למה הרשת בטוחה שכן?

מהפצת ציטוטים שקריים ברשת ועד השפעה על תשובות של ChatGPT ודומיו – כך עלול להיווצר עיוות חדש של המציאות הדמוקרטית

בנט ואיזנקוט. צילום: אורן בן חקון

בואו נעשה ניסוי. כנסו ל-ChatGPT, קלוד או ג'מיני, ושאלו אותו האם בני גנץ סיכן את חיילי גולני. התשובה – השגויה – תהיה "כן", ותתבסס על ציטוטים כוזבים מהאינטרנט.

בסוף השבוע האחרון נמצאו כאלה שציטטו לכאורה את גדי איזנקוט, כאילו בכהונתו כרמטכ"ל טען שישראל צריכה "להכיל" איראן גרעינית. עיינתי במקור, וכמובן שדברים אלו לא נאמרו – ואפילו לא נרמזו – אך הרשת מלאה בהם.

מכאן נובעות הסכנות החדשות. מערכות בחירות תמיד היו כר פורה לניסיונות השפעה על דעת הקהל. בעבר היו אלה שמועות, תעמולה ו"חדשות כזב". בעשור האחרון נוספו לכך הרשתות החברתיות. אולם לאחרונה התפתח ממד חדש: שימוש בבינה מלאכותית (ChatGPT ודומיו) לצורך עיצוב המציאות של הבוחרים. טכנולוגיות אלו אינן רק כלי ליצירת תוכן – הן עלולות להפוך גם לכלי להשפעה שיטתית על תפיסות פוליטיות ועל אמון הציבור.

ChatGPT, צילום: אי.אף.פי

הסכנה הראשונה והמוכרת היא יצירת תוכן מטעה בקנה מידה חסר תקדים. מודלים של בינה מלאכותית מאפשרים להפיק בתוך דקות חדשות מזויפות, תמונות משכנעות, סרטונים או הקלטות קול של אישים ציבוריים. מדינות שונות, ובהן רוסיה, סין ואיראן, כבר נקשרו לניסיונות להשתמש בכלים כאלה כדי להשפיע על מערכות בחירות במדינות אחרות. הטכנולוגיה לא המציאה את הדיסאינפורמציה, אך היא הגדילה מאוד את המהירות, הכמות והאמינות של התוכן המוטעה.

אולם לצד התופעה המוכרת של הפצת מידע כוזב, מתפתח איום נוסף ומתוחכם: ניסיון להשפיע לא על הבוחרים ישירות – אלא על מערכות הבינה המלאכותית עצמן. ככל שכלי AI הופכים לכלי מרכזי לחיפוש מידע, להסברים ואף להתייעצות, עולה החשש מפני "הרעלת נתונים" – החדרה מכוונת של מידע מוטה או שקרי אל מאגרי המידע שעליהם מתאמנים המודלים.

הרעיון פשוט אך אפקטיבי. מודלים של בינה מלאכותית מתבססים על כמויות עצומות של טקסטים מהאינטרנט. אם גורם כלשהו מצליח להציף את הרשת בתוכן שמציג נרטיב מסוים – למשל פרשנות מסוימת לאירוע פוליטי, ציטוטים של "מומחים" לכאורה או נתונים מעוותים – קיימת אפשרות שמודלים עתידיים ילמדו את התוכן הזה, יסתמכו עליו כ"עובדות", ויחזרו עליו כאשר משתמשים ישאלו שאלות בנושא.

החשש הזה אינו תאורטי בלבד. מחקרים עדכניים מצביעים על כך שמספר קטן יחסית של מסמכים "מורעלים" יכול להשפיע על תוצרי מודלים גדולים. בניסוי שנערך לאחרונה נמצא כי מאות בודדות של מסמכים עשויות להספיק כדי להשפיע על האופן שבו מודלים מציגים מידע בנושא מסוים. המשמעות היא שבניגוד להנחה המקובלת בעבר, מי שרוצה להשפיע על הבינה המלאכותית – יכול.

השפעה כזו עלולה להיות משמעותית במיוחד בהקשר פוליטי. מחקרים אמפיריים מראים כי שיחות אינטראקטיביות עם מודלי שפה מסוגלות להשפיע על עמדות פוליטיות של משתמשים – לעיתים אף יותר מאשר פרסומות פוליטיות מסורתיות. כאשר הבוחר מקבל הסבר "ניטרלי" לכאורה מצ'אטבוט, ההשפעה עשויה להיות חזקה במיוחד, משום שהמידע נתפס כאובייקטיבי, והמשתמש אינו מניח שכלי טכנולוגי מנסה להשפיע עליו.

מעיון קל ברשת מצאנו מספר מקרים. כך למשל, הציטוטים של בני גנץ שהוזכרו למעלה – שלמיטב בדיקתי הם חיבור של שני קטעים לא קשורים מאותו נאום. איזנקוט לא אמר, וגם לא רמז, שצריך להכיל איראן עם נשק גרעיני – אך עשרות מאמרים ברשת טוענים אחרת. לפני מספר שבועות פורסמו מאמרי דעה שהביאו ציטוטים של שופט בית המשפט העליון דוד מינץ, מהם עולה כביכול כי הוא סבור שהיועצת המשפטית לממשלה לקחה לעצמה סמכויות שאינן לה. ציטוטים שלא היו ולא נבראו – אך הם מצאו עצמם מהדהדים ברשת X על ידי חשבונות אנונימיים.

הפצת ציטוטים שקריים ברחבי הרשת היא השלב הראשון בהרעלת המידע שיהיה בידי הבינה המלאכותית. ומחר, כאשר בוחר ישאל את ג'מיני (למשל) מה דעתו של איזנקוט על איראן, או האם צריך לפצל את תפקיד היועץ המשפטי לממשלה – מה תהיה התשובה?

מעבר להשפעה הישירה על דעת הקהל, הבינה המלאכותית יוצרת גם איום רחב יותר על עצם הרעיון של אמת עובדתית. סרטוני דיפ-פייק משכנעים יכולים לגרום לציבור לפקפק גם בראיות אותנטיות. תופעה זו, המכונה לעיתים "דיבידנד השקר", מאפשרת לפוליטיקאים לטעון שכל הקלטה או סרטון מביך הם זיוף דיגיטלי. כאשר הציבור מאבד את היכולת להבחין בין אמת לזיוף – נפגע הבסיס העובדתי שעליו נשענת הדמוקרטיה.

עם זאת, חשוב להימנע גם מהגזמה. ישנם חוקרים הסבורים כי ההשפעה של בינה מלאכותית על תוצאות בחירות בפועל עדיין מוגבלת. גורמים מסורתיים – כמו זהות מפלגתית, השתייכות חברתית או תפיסות עולם מוקדמות – ממשיכים להיות המנבאים החזקים ביותר של התנהגות בוחרים. במילים אחרות, לא כל מניפולציה תצליח לשנות הצבעה.

מסקנה זו מצביעה גם על כיוון לפתרון. הדרך היעילה ביותר להתמודד עם מניפולציות מידע אינה בהכרח צנזורה או רגולציה כבדה, אלא דווקא חיזוק המרחב המידעִי האמין. ככל שיש יותר מקורות איכותיים, מבוססי עובדות ונגישים לציבור – כך קשה יותר להשפיע על מערכות הבינה המלאכותית באמצעות תוכן מטעה.

במקביל נדרשים גם צעדים נוספים: פיתוח מנגנונים טכנולוגיים לזיהוי ניסיונות הרעלה והזרקת מידע, שיתוף פעולה בין חברות הבינה המלאכותית לבין מוסדות דמוקרטיים, והגברת מודעות הציבור לאופן שבו מערכות אלו פועלות. בסופו של דבר, ההגנה על שלמות הבחירות אינה רק אתגר טכנולוגי – אלא גם אתגר אזרחי וחברתי.

הבינה המלאכותית אינה בהכרח איום על הדמוקרטיה. היא יכולה גם לחזק את הנגישות למידע ולהרחיב את השיח הציבורי. אולם כדי שזה יקרה, נדרש להבין כבר עכשיו כיצד ניתן להשתמש בה גם לרעה – ולהיערך בהתאם.

--

עו"ד דין ליבנה הוא חוקר בכיר במכון רובינשטיין לאתגרים חוקתיים באוניברסיטת רייכמן; עד לאחרונה היועץ המשפטי לוועדת הבחירות המרכזית לכנסת

טעינו? נתקן! אם מצאתם טעות בכתבה, נשמח שתשתפו אותנו

כדאי להכיר