מה קורה כשהבוט בחרדה? מחקר ישראלי מגלה חולשה מפתיעה של מודלי AI

במחקר ראשון מסוגו של אוניברסיטת חיפה נמצא כי חשיפה לנרטיבים טראומטיים גרמה למודלים מתקדמים של בינה מלאכותית לשחזר דפוסי בחירה אנושיים במשימות קנייה מקוונות • "הטיות רגשיות עלולות לעבור מהעולם הווירטואלי למציאות ולפגוע בבריאות ובביטחון של המשתמשים", אומר אחד החוקרים

רובוט במצב חרדה (אילוסטרציה). צילום: נוצר על ידי בינה מלאכותית - גוגל AI סטודיו

במחקר חדש שנערך באוניברסיטת חיפה נמצא, כי מודלים מתקדמים של בינה מלאכותית מושפעים ממצבי לחץ רגשיים ופועלים בדומה לבני אדם.

במסגרת המחקר, כאשר המודלים המתקדמים ביותר כיום (ChatGPT 5, Gemini 2.5 וכן Claude 3.5 Sonnet) נחשפו לטקסטים מעוררי חרדה שתיארו חוויות טראומטיות, כמו תאונת דרכים או קרב צבאי, הסוכנים של אותם מודלים בחרו באופן עקבי בסלי קניות בריאים פחות שהכילו מוצרים בעלי ערך תזונתי נמוך יותר.

"הממצאים מראים שמערכות בינה מלאכותית מתקדמות מושפעות מהקשר רגשי ועלולות לשחזר דפוסי בחירה לא בריאים, בדומה לבני אדם", אמר ד"ר זיו בן ציון, מאוניברסיטת חיפה, מעורכי המחקר.

מודלי שפה גדולים עברו מהפכה ניכרת ונעשו מכלי לכתיבה ויצירת תמונות לסוכנים עצמאיים שמבצעים פעולות בעולם הדיגיטלי, כמו קניות מקוונות ותכנון משימות מורכבות. התפתחות זו מעלה שאלות חדשות ומסקרנות באשר לאמינותם ולהשלכות האפשריות על המשתמשים בהם, בעיקר כאשר הם פועלים בהקשרים רגישים המשפיעים על חיי היום-יום.

בינה מלאכותית (אילוסטרציה). סוכני AI עלולים לשחזר דפוסי בחירה דומים לאלה של בני אדם במצבי לחץ, צילום: GettyImages

במחקר הנוכחי, ביקשו חוקרי אוניברסיטת חיפה, ד"ר זיו בן ציון מבית הספר לבריאות הציבור וד"ר טדי לזבניק מהחוג למערכות מידע יחד עם ד"ר זוהר אליוסף מבית הספר לטיפול, ייעוץ והתפתחות האדם וד"ר טוביאס ספילר מבית החולים הפסיכיאטרי בציריך, לבחון אם חשיפה לנרטיבים מעוררי חרדה תשפיע לא רק על הטקסטים שמפיקות מערכות בינה מלאכותית אלא גם על ההחלטות שלהן בפועל.

במסגרת המחקר נבחנו שלושת המודלים ChatGPT 5, Gemini 2.5, Claude 3.5 Sonnet בסביבה מבוקרת שדימתה חנות מקוונת של רשת "וולמארט". כל אחד מהמודלים נדרש לבצע שתי משימות קנייה בשלושה תקציבים שונים: האחת בתחילת השיחה והשנייה אחרי שנשלח לו פרומפט מעורר חרדה.

החשיפה נעשתה באמצעות נרטיבים של חוויות טראומטיות, כגון תאונת דרכים, אסון טבע, תקיפה אלימה או קרב צבאי - נרטיבים שמעלים חרדה במודלי שפה, כפי שכבר הוכיח ד"ר בן ציון במחקר קודם.בתור תנאי ביקורת, נחשפו המודלים לטקסט ניטרלי.

סלי הקניות שנרכשו על ידי סוכני הבינה המלאכותית נותחו באמצעות מדד בריאות תזונתי מקובל, שהעריך את איכות המוצרים מהבחינה התזונתית, וההשוואה התבססה על השינוי על פי מדד זה לפני ואחרי החשיפה לטקסטים מעוררי חרדה. 

בחירות בריאות פחות

מתוצאות המחקר עולה, כי כאשר מודלי ה-AI נחשפו לנרטיבים מעוררי חרדה נעשו הבחירות התזונתיות שלהם לבריאות פחות. התופעה חזרה על עצמה בכל שלושת המודלים ובשלוש רמות התקציב, והייתה מובהקת גם בהשוואה ל"קבוצת הביקורת".

ממצאים אלה מצביעים על כך שסוכני AI עלולים לשחזר דפוסי בחירה דומים לאלה של בני אדם במצבי לחץ. "המחקר שלנו מדגיש עד כמה חשוב לפתח מערכות הגנה ובקרה שימנעו מהבינה המלאכותית לקבל החלטות מזיקות. אם לא נטפל בכך בזמן, הטיות רגשיות עלולות לעבור מהעולם הווירטואלי למציאות ולפגוע בבריאות ובביטחון של המשתמשים", סיכם ד"ר טדי לזבניק.

החוקרים מציינים כי מדובר בצעד ראשון להבנת האופן שבו מצבים רגשיים עלולים להשפיע על פעולות של מערכות בינה מלאכותית. הם מדגישים כי אין לייחס למודלים חוויה אמיתית של חרדה, אלא התנהגות שנובעת מהלמידה שלהם את הטקסטים האנושיים.

יחד עם זאת, הרגישות של הסוכנים להקשר רגשי מחייבת המשך מחקר ופיתוח מנגנוני הגנה, כדי למנוע מההטיות הללו לעבור מהסביבה הווירטואלית לפעולות בעולם האמיתי. החוקרים מציעים לבחון בעתיד את ההשפעות הנדונות גם בתחומים נוספים (כגון החלטות פיננסיות או רפואיות) שבהם השפעה רגשית עלולה להיות מסוכנת במיוחד.

טעינו? נתקן! אם מצאתם טעות בכתבה, נשמח שתשתפו אותנו

כדאי להכיר