כאשר אדם רואה משהו שאינו קיים במציאות, התופעה מכונה לעיתים הזיה. הזיות מתרחשות כאשר התפיסה החושית שלנו אינה תואמת לגירויים חיצוניים. אך לא רק בני אדם חווים הזיות – גם טכנולוגיות המבוססות על בינה מלאכותית יכולות "לראות" דברים שאינם שם. כשבינה מלאכותית מייצרת מידע שנשמע סביר, אך למעשה אינו מדויק או אפילו מטעה, מדעני מחשבים מכנים זאת "הזיית AI". ביקשנו מגרוק – שמואשם לעתים קרובות בחוסר אמינות – להסביר לנו איך זה קורה לו, ולמתחרים הלא פחות מתבלבלים שלו.
חוקרים זיהו התנהגויות של "הזיות AI” בסוגים שונים של מערכות בינה מלאכותית – החל מצ'אטבוטים כמו ChatGPT, דרך מחוללי תמונות כמו Dall-E (שכידוע, מפותח ע”י אותה חברה), ועד לרכבים אוטונומיים.
בכל מקום שבו משתמשים במערכות AI בחיי היומיום, ההזיות שלהן עלולות להוות סיכונים. חלק מהמקרים עשויים להיות קלים – למשל, כאשר צ'אטבוט נותן תשובה שגויה לשאלה פשוטה, המשתמש עלול להישאר עם מידע מוטעה. אך במקרים אחרים, ההשלכות חמורות יותר ולשנות, או לסכן, חיים של אנשים.
המצאה מתוך דמיון
הזיות והשפעותיהן תלויות בסוג מערכת ה-AI; במודלי שפה גדולים, שעליהם מבוססים צ'אטבוטים, הזיות הן פיסות מידע שנשמעות משכנעות אך אינן נכונות או רלוונטיות. למשל, צ'אטבוט עשוי להמציא התייחסות למאמר מדעי שלא קיים, או לספק עובדה היסטורית שגויה.
במקרה משפטי משנת 2023 בניו יורק, עורך דין הגיש מסמך משפטי שכתב בעזרת ChatGPT. השופט, שהיה ערני לפרטים, הבחין כי המסמך התייחס לתיק משפטי שהצ'אטבוט המציא. מקרה כזה עלול להוביל לתוצאות שונות בבתי משפט אם בני אדם לא יצליחו לזהות את המידע המומצא.
מקרה דומה בישראל, שבו מסמכים משפטיים כללו 36 תיקים שהומצאו ע"י הבינה המלאכותית, גרם לשלושה שופטי בג"ץ להודיע לאחרונה כי עורכי דין שייתפסו משתמשים ב-AI ללא בדיקה – תביעותיהם תיפסלנה על הסף והם ישלמו הוצאות משפט ויעמדו בפני הליכים משמעתיים.
בכלי AI המזהים עצמים בתמונות, הזיות מתרחשות כאשר המערכת מייצרת כיתובים שאינם נאמנים לתמונה. דמיינו שאתם מבקשים ממערכת לפרט את העצמים בתמונה שבה מופיעה אישה מדברת בטלפון מהחזה ומעלה, ומקבלים תגובה שמתארת אישה מדברת בטלפון תוך ישיבה על ספסל – פרט שאינו נראה בתמונה ועשוי להיות נכון או לא, אך בכל אופן אינו מתאר את התמונה. מידע שגוי זה עלול להשפיע על תוצאות במצבים שבהם דיוק הוא קריטי.
מקרה קיצוני במיוחד הוא זה של רכבים אוטונומיים, שהתוצאות של "הזיותיהם" עלולות להיות קטלניות. בארה"ב תועדה סדרת מקרים שבה רכבים אוטונומיים (מכמה יצרניות שונות, כולל Waymo של גוגל, Cruise של ג’נרל מוטורס וטסלה) התנגשו ברכבי חירום ובאנשים המאיישים אותם, בשל חוסר יכולת להבדיל בין הבהובי אורות החירום לסתם אורות המהבהבים ברקע. שוטר אחד לפחות נפצע בהתנגשות כזו,
מה גורם להזיות?
מהנדסים בונים מערכות AI על ידי איסוף כמויות אדירות של נתונים והזנתם למערכת חישובית שמזהה דפוסים. המערכת מפתחת שיטות להגיב לשאלות או לבצע משימות על בסיס דפוסים אלה. אם מספקים למערכת 1,000 תמונות של גזעי כלבים שונים עם תוויות מתאימות, היא תלמד לבסוף להבחין בין פודל לגולדן רטריבר. אך אם מראים לה תמונה של מאפין אוכמניות, היא עשויה לטעון שמדובר בצ'יוואווה.
כאשר מערכת אינה מבינה את השאלה או את המידע המוצג לה, היא עלולה ‘להזות’. ‘הזיות’ מתרחשות לעיתים כאשר המודל ממלא פערים על בסיס הקשרים דומים מנתוני האימון שלו, או כאשר הוא נבנה על נתוני אימון מוטים או חלקיים. זה מוביל לניחושים שגויים, כמו במקרה של המאפין שזוהה ככלב.
חשוב להבחין בין ‘הזיות’ לבין תוצרים יצירתיים מכוונים של AI; כאשר מבקשים ממערכת להיות יצירתית – כמו בכתיבת סיפור או יצירת תמונות אמנותיות – תוצרים לא עובדתיים הם רצויים. לעומת זאת, ‘הזיות’ מתרחשות כאשר המערכת נדרשת לספק מידע עובדתי או לבצע משימות ספציפיות, אך במקום זאת מייצרת תוכן שגוי או מטעה. ההבדל המרכזי טמון בהקשר ובמטרה: יצירתיות מתאימה למשימות אמנותיות, בעוד ‘הזיות’ מהוות בעיה כאשר נדרשים דיוק ואמינות.
כדי להתמודד עם הבעיה, חברות מציעות להשתמש בנתוני אימון איכותיים ולהגביל את תגובות ה-AI להנחיות מסוימות. עם זאת, אפילו זה לא פותר את כל הבעיות, כמו תגובות של רכבים אוטונומיים להבהובים שהם אינם מבינים או שלטים ‘מסנוורים’, מערכות תמלול ששומעות מילים אחרות לגמרי מאלו שאמר מרואיין לעיתונאי או משתתף בוועידת זום מקצועית, או צ’אטבוטים שלא מבינים הקשרים של מידע מסוים בכתבות כלכליות ו’מדווחים’ על נפילת מניה של חברה לא נכונה.
לכן, לפחות לעת עתה, על המשתמשים להישאר ערניים ולבחון את תוצרי ה-AI, במיוחד בהקשרים הדורשים דיוק. אימות מידע שנוצר על ידי AI מול מקורות מהימנים, התייעצות עם מומחים בעת הצורך והכרה במגבלות הכלים הללו הם צעדים חיוניים להפחתת הסיכונים כל עוד המערכות הללו נמצאות עדיין בשלב התפתחותי מוקדם.
טעינו? נתקן! אם מצאתם טעות בכתבה, נשמח שתשתפו אותנו