הפגנה פרו-פלסטינית בצרפת. צילום: רויטרס

זהירות: ChatGPT עומד להתחיל לשקר על ישראל

ישראל עוברת לשימוש באסטרטגים בכירים כדי להחדיר תוכן "מתוכנת" למעמקי מודלי הבינה המלאכותית, אך יש סכנה לקריסה טוטאלית • האם מדובר בניצחון הסברתי גאוני או ב"הרעלת נתונים" שתהפוך אותנו לכתם עיוור ברשת? • המהלך שנועד לנצח בקרב על הנרטיב עלול להפוך אותנו לסוכני הכאוס של עצמנו

הדיווחים על כך שישראל שכרה את שירותיו של אסטרטג דיגיטל בכיר כדי "להנדס" תוכן חיובי לתוך מקורות המידע של מערכות ה-AI מעוררים שאלות נוקבות שחורגות מעולם הדוברות וההסברה המסורתי. כמי שעוסקת שנים בבינה מלאכותית, אני מוטרדת מההשלכות הנלוות ליוזמה זו, מעבר למענה האסטרטגי המידי אותו היא מספקת.

הידיעה מעוררת תהיות אתיות לצד שאלות טכנולוגיות. האם אנחנו באמת יכולים "לתכנת" את הנרטיב העולמי מחדש, או שמא אנחנו מאיצים את קריסתה של האמינות הדיגיטלית במרחב שבו האמת היא ממילא מוצר במחסור? האם בעל המאה הוא בעל הדעה?

הפגנות פרו פלסטיניות בדאבלין%2C אירלנד %2F%2F חשבון הטיקטוק %40i_blogtoo

כדי להבין את גודל השעה, יש להבין תחילה כיצד מודלי שפה גדולים (LLMs) בונים תשובה. המערכות הללו אינן "יודעות" דבר במובן האנושי של המילה; הן פועלות על בסיס סטטיסטיקה הסתברותית של רצפי מילים. הן מאומנות על טריליוני טוקנים שנשאבו מהרשת - ויקיפדיה, פורומים, אתרי חדשות ומאמרים מדעיים. כאשר המודל נשאל שאלה על ישראל, הוא שולף את הנרטיב השכיח והמבוסס ביותר בדאטה שעליו התאמן.

הניסיון להזין את המודל בתוכן "חיובי" באופן יזום הוא למעשה ניסיון לבצע "הרעלת נתונים" הפוכה - החדרת מידע סלקטיבי בכמויות מסחריות כדי להטות את הממוצע הסטטיסטי לטובתנו.

ופה עולה תהיה טכנולוגית, כמה מידע נדרש על מנת להטות סטטיסטיקה שחושבה על בסיס דאטה עצום. כמו כן, ככל שהמודלים ממשיכים להתאמן על דאטה שחלקו כידוע הוא FAKE, וחלקו האחר נוצר על ידי מודלי שפה, דהיינו, מידע שהוא עצמו הינו נגזרת של הדאטה הגרעיני שהיה קיים עד לפריצתם של המודלים הגדולים קורות התופעות של איבוד ההקשר לדאטה האמיתי מחד, וצורך בכמויות אינפורמציה הולכות וגדלות על מנת להטות את המודלים, מאידך. 

כאן נכנסת לתמונה הדיפלומטיה הדיגיטלית של ישראל, שסובלת מפיגור כרוני אל מול מכונות התעמולה המשומנות של מתנגדיה.

הניסיון להזין את המודל בתוכן "חיובי" הוא ניסיון לבצע "הרעלת נתונים" הפוכה. ChatGPT, צילום: אי.אף.פי

במשך שנים הסתמכה ההסברה הישראלית על תגובתיות (ריאקטיביות) ועל ניסיונות "לכבות שריפות" ברשתות החברתיות. המעבר לאסטרטגיה של השפעה ישירה על תשתיות המידע של ה-AI מסמן שינוי פרדיגמה. ישראל מבינה סוף סוף שהקרב על התודעה כבר לא מתנהל רק בטוויטר או בטיקטוק, אלא בשכבת הדאטה העמוקה ביותר. אולם, השימוש באסטרטגים פוליטיים כדי לפתור בעיה טכנולוגית-פילוסופית הוא הימור מסוכן. אם המערך ההסברתי ייתפס כמניפולטיבי מדי, אנו עלולים למצוא את עצמנו מודרים ממקורות המידע הלגיטימיים, מה שיהפוך את ישראל ל"כתם עיוור" באימונם של מודלי הבינה המלאכותית העתידיים.

הסכנה המקצועית הגדולה ביותר במגמה זו היא "קריסת מודלים" (Model Collapse). מדובר בתהליך שבו מערכות AI מתחילות להתאמן על תוכן שנוצר על ידי מערכות AI אחרות, ולא על ידי בני אדם. אם המרחב הדיגיטלי יוצף בתוכן סינתטי ומיוחצן - הן מצד ישראל והן מצד מתנגדיה - המודלים הבאים יאבדו את הקשר למציאות העובדתית. הם ימחזרו נרטיבים מעוותים עד שהמידע יהפוך ל"רעש" חסר משמעות. במצב כזה, האם אנחנו מצליחים להשתלט על ה-AI  או שהוא כבר משתולל באופן מסוכן?

התשובה היא שהשליטה חומקת מאיתנו ככל שאנו מזהמים את בסיס הנתונים במידע מוטה.

ChatGPT עומד להתחיל לשקר על ישראל, צילום: Gemini

מערכות ה- AI המודרניות אינן חשופות להשפעה חיצונית פשוטה כבעבר. הן מצוידות במנגנוני RLHF (למידה מחיזוקים על ידי משוב אנושי) ובשכבות בקרה שנועדו לזהות הטיות בולטות. קמפיין אגרסיבי מדי עלול לגרום למודלים לסמן מקורות ישראליים כבלתי אמינים באופן אוטומטי. הניצחון בקרב על הנרטיב לא יבוא ממניפולציה של האלגוריתם, אלא משמירה על שלמות הדאטה ועל אמינות המקורות.

קמפיינים של מיליוני דולרים עשויים לשנות תשובה נקודתית בצ'אטבוט, אך הם לא יכולים להוות תחליף למדיניות שקופה ואמינה. בעידן שבו הבינה המלאכותית מעצבת את תודעת הדור הבא, עלינו להיזהר שלא נהפוך לסוכני הכאוס של עצמנו. אם נרעיל את באר המידע שכולנו שותים ממנה רק כדי להיראות טוב יותר לרגע אחד, בסוף כולנו נישאר צמאים לאמת במציאות דיגיטלית שאיבדה כל קשר למציאות.

הכותבת היא ראש התוכנית לתואר שני במערכות תבוניות ומומחית לבינה מלאכותית באפקה- המכללה האקדמית להנדסה בת"א

טעינו? נתקן! אם מצאתם טעות בכתבה, נשמח שתשתפו אותנו
Load more...