עיצוב המציאות של הבוחרים. צילום: אורן בן חקון, הרצי שפירא, עיבוד AI

כל קוד קובע: החשש האמיתי ממערכת הבחירות הקרובה

הבינה המלאכותית, שנכנסה בסערה אל חיינו, שינתה גם את פני המערכת הפוליטית • אלא ששאלות פוליטיות פשוטות מקבלות בצ׳אט GPT ודומיו תשובות שקריות, ש"הורעלו" מראש • עם זיופים דיגיטליים וציטוטים מומצאים, ה־AI עלול לאיים על טוהר הבחירות

בואו נעשה ניסוי. היכנסו עכשיו לצ'אט GPT, קלוד או ג'מיני ותשאלו אותם אם בני גנץ סיכן את חיילי גולני. התשובה, השגויה, תהיה "כן", ותתבסס על ציטוטים כוזבים מהאינטרנט. 

בסוף השבוע האחרון נמצאו אלה שציטטו לכאורה את גדי איזנקוט, כאילו בכהונתו כרמטכ"ל טען שישראל צריכה "להכיל" את איראן כמדינה גרעינית. עיינתי במקור, וכמובן דברים אלו לא נאמרו, ואפילו לא נרמזו, אבל הרשת מלאה בהם.

מכאן, הסכנות החדשות. מערכות בחירות תמיד היו כר פורה לניסיונות השפעה על דעת הקהל. בעבר היו אלה שמועות, תעמולה ו"חדשות כזב". בעשור האחרון נוספו לכך הרשתות החברתיות. אולם לאחרונה התפתח ממד חדש: שימוש בבינה מלאכותית (צ'אט GPT ודומיו) לצורך עיצוב המציאות של הבוחרים. טכנולוגיות אלו אינן רק כלי ליצירת תוכן - הן עלולות להפוך גם לכלי להשפעה שיטתית על תפיסות פוליטיות ועל אמון הציבור.

נפתלי בנט בכנס לקראת הבחירות%3A "נתניהו ביקש שאשב עם מנסור עבאס"

כר פורה לניסיונות השפעה. מערכת הבחירות, צילום: אורן בן חקון

יצירת תוכן מטעה

הסכנה הראשונה והמוכרת היא יצירת תוכן מטעה בקנה מידה חסר תקדים. מודלים של בינה מלאכותית מאפשרים להפיק בתוך דקות חדשות מזויפות, תמונות משכנעות, סרטונים או הקלטות קול של אישי ציבור. מדינות שונות, ובהן רוסיה, סין ואיראן, כבר נקשרו לניסיונות להשתמש בכלים כאלה כדי להשפיע על מערכות בחירות במדינות אחרות. הטכנולוגיה לא המציאה את הדיסאינפורמציה, אך היא הגדילה מאוד את המהירות, הכמות והאמינות של התוכן המוטעה.

אולם לצד התופעה המוכרת של הפצת מידע כוזב מתפתח איום נוסף ומתוחכם: ניסיון להשפיע לא על הבוחרים ישירות אלא על מערכות הבינה המלאכותית עצמן. ככל שכלי ה־AI הופכים לכלי מרכזי לחיפוש מידע, הסברים ואף להתייעצות, עולה החשש מפני "הרעלת נתונים" - החדרה מכוונת של מידע מוטה או שקרי אל מאגרי המידע שעליהם מתאמנים המודלים.

הפצת "ציטוטים" שקריים

הרעיון פשוט אך אפקטיבי. מודלים של בינה מלאכותית מתבססים על כמויות עצומות של טקסטים מהאינטרנט. אם גורם כלשהו מצליח להציף את הרשת בתוכן שמציג נרטיב מסוים – למשל פרשנות מסוימת לאירוע פוליטי, ציטוטים של "מומחים" לכאורה או נתונים מעוותים – קיימת אפשרות שמודלים עתידיים ילמדו את התוכן הזה, יסתמכו עליו כ"עובדות" ויחזרו עליו כאשר משתמשים ישאלו שאלות בנושא.

בוט בינה מלאכותית (להמחשה), צילום: נוצר באמצעות בינה מלאכותית - גרוק

החשש הזה אינו תיאורטי בלבד. מחקרים עדכניים מצביעים על כך שמספר קטן יחסית של מסמכים "מורעלים" יכול להשפיע על תוצרי מודלים גדולים. בניסוי שנערך לאחרונה נמצא כי מאות בודדות של מסמכים עשויות להספיק כדי להשפיע על האופן שבו מודלים מציגים מידע בנושא מסוים. המשמעות היא שבניגוד להנחה המקובלת בעבר, מי שרוצה להשפיע על הבינה המלאכותית - יכול.

השפעה כזו עלולה להיות משמעותית במיוחד בהקשר פוליטי. מחקרים אמפיריים מראים כי שיחות אינטראקטיביות עם מודלי שפה מסוגלות להשפיע על עמדות פוליטיות של משתמשים, לעיתים אף יותר מאשר פרסומות פוליטיות מסורתיות.

כאשר הבוחר מקבל הסבר "ניטרלי" לכאורה מצ'אטבוט, ההשפעה עשויה להיות חזקה במיוחד, משום שהמידע נתפס על ידיו כאובייקטיבי, והוא אינו מניח שכלי טכנולוגי מנסה להשפיע עליו או לשנות את דעתו.

הפעם יותר מתמיד - הבוחר יושפע, צילום: הרצי שפירא

חיבור של קטעים

מעיון קל ברשתות מצאנו כמה מקרים: כך, למשל, הציטוטים המוזכרים לעיל של בני גנץ, שלמיטב בדיקתי הם חיבור משני קטעים לא קשורים, מאותו הנאום. איזנקוט לא אמר, וגם לא רמז, שצריך להכיל את איראן עם נשק גרעיני, אך עשרות מאמרים ברשת טוענים אחרת. לפני שבועות אחדים פורסמו כמה מאמרי דעה שמביאים ציטוטים של שופט בית המשפט העליון דוד מינץ, ומהם עולה כי הוא סבור שהיועצת המשפטית לממשלה לקחה לה סמכויות לא לה. ציטוטים שלא היו ולא נבראו, אבל הם מצאו עצמם מהודהדים ברשת X על ידי חשבונות אנונימיים.

הפצת ציטוטים שקריים ברחבי הרשת היא החלק הראשון בהרעלת המידע שיהיה בידי הבינה המלאכותית. ומחר, כשבוחר ישאל את ג'מיני (למשל) מה דעתו של איזנקוט על איראן, או אם צריך לפצל את תפקיד היועץ המשפטי לממשלה – מה תהיה תשובתו?

מעבר להשפעה הישירה על דעת הקהל, הבינה המלאכותית יוצרת גם איום רחב יותר על עצם הרעיון של אמת עובדתית. סרטוני "דיפ־פייק" משכנעים יכולים לגרום לציבור לפקפק גם בראיות אותנטיות. תופעה זו מכונה לעיתים "דיבידנד השקר" ומאפשרת לפוליטיקאים לטעון שכל הקלטה או סרטון מביך הם זיוף דיגיטלי. כאשר הציבור מאבד את היכולת להבחין בין אמת לזיוף, נפגע הבסיס העובדתי שעליו נשענת הדמוקרטיה.

השופט דוד מינץ, צילום: אורן בן חקון
היועצת המשפטית לממשלה גלי בהרב-מיארה, צילום: אורן בן חקון

הפתרון: לא עוד רגולציה

עם זאת, חשוב להימנע גם מהגזמה. ישנם חוקרים הסבורים כי השפעת הבינה המלאכותית על תוצאות בחירות בפועל עדיין מוגבלת. גורמים מסורתיים – כמו זהות מפלגתית, השתייכות חברתית או תפיסות עולם מוקדמות – ממשיכים להיות המנבאים החזקים ביותר של התנהגות בוחרים. במילים אחרות, לא כל מניפולציה תצליח לשנות הצבעה.

מסקנה זו מצביעה גם על כיוון לפתרון. הדרך היעילה ביותר להתמודד עם מניפולציות מידע אינה בהכרח צנזורה או רגולציה כבדה, אלא דווקא חיזוק המרחב המידעִי האמין. ככל שיש יותר מקורות איכותיים, מבוססי עובדות ונגישים לציבור, כך קשה יותר להשפיע על מערכות הבינה המלאכותית באמצעות תוכן מטעה.

במקביל, נדרשים צעדים נוספים: פיתוח מנגנונים טכנולוגיים לזיהוי ניסיונות הרעלה והזרקת מידע, שיתוף פעולה בין חברות הבינה המלאכותית לבין מוסדות דמוקרטיים, והגברת מודעות הציבור לאופן שבו מערכות אלו פועלות. בסופו של דבר, ההגנה על שלמות הבחירות אינה רק אתגר טכנולוגי, אלא גם אתגר אזרחי וחברתי.

הבינה המלאכותית אינה בהכרח איום על הדמוקרטיה. היא יכולה גם לחזק את הנגישות למידע ולהרחיב את השיח הציבורי. אולם כדי שזה יקרה נדרש להבין כבר עכשיו כיצד ניתן להשתמש בה גם לרעה – ולהיערך בהתאם.

הכותב הוא חוקר בכיר במכון רובינשטיין לאתגרים חוקתיים באוניברסיטת רייכמן. כיהן עד לאחרונה כיועץ המשפטי לוועדת הבחירות המרכזית לכנסת

טעינו? נתקן! אם מצאתם טעות בכתבה, נשמח שתשתפו אותנו
Load more...