איך ייתכן שהצ'אטבוט שלנו מסוגל לכתוב תוך שניות מאמר מקצועי בפיזיקת קוונטיים, לנסח עבורנו דוא"ל שיווקי מלוטש בשלל שפות, ולהציע לנו לעיתים עצות טובות לחיים, אך באותה עת הוא מתועד אינספור פעמים בטעויות מביכות במיוחד לשאלות פשוטות, כמו למשל כשטען שלזברה בתמונה יש חמש רגליים, כשהתבלבל ואמר שהאות r מופיעה רק פעמיים במילה strawberry, או כשהציע למשתמש לשדרג את הפיצה על ידי הוספה של דבק... אז הוא גאון או טיפשון? ובאיזה מידה אנחנו באמת יכולים לסמוך עליו במשימות חשובות?
זה לא באג, זו בעיה ידועה בעולם ה-AI והיא קרויה "אינטליגנציה לא-אחידה" (Jagged Intelligence). המונח מתייחס לתופעה המתסכלת שבה הבינה המלאכותית יכולה להציג יכולות מאוד גבוהות בתחום ידע מסוים, ובה בעת להיכשל בטעויות פעוטות באותו תחום ידע, כמו פרופסור למתמטיקה שמתבלבל בפעולת כפל פשוטה.
למעשה, זו אחת הבעיות המרכזיות שמעכבות את אימוץ ה-AI בתחומים קריטיים כמו רפואה, מדע, עסקים ופיננסים. בפרט, זו בעיה מכבידה במיוחד בתחום המתפתח של סוכני AI, שבו אנחנו רוצים שהצ'אטבוט לא רק יפלוט ידע, אלא יפעל באופן עצמאי יותר בתוך מערכות דיגיטליות ובאינטראקציה מול בני אדם, לקבל החלטות חשובות ולבצע פעולות ממשיות כמו לספק אבחנה רפואית, להחליט החלטה עסקית או לבצע פעולה חשבונאית במערכת פיננסית.
הכול עניין של סטטיסטיקה
מדוע זה קורה? בגדול, מדובר בשילוב של חוסר "הבנה" וביטחון עצמי מופרז במיוחד. קל לנו לשכוח זאת לנוכח יכולותיה המרשימות, אך הבינה המלאכותית אינה באמת "מבינה", אלא היא מודל סטטיסטי מורכב במיוחד שלומד למצוא קשרים בין יחידות לשוניות. תהליך האימון אינו מקנה למודל יכולות הבנת עולם, היגיון או אינטואיציה, אלא פונקציות סטטיסטיות ("משקלים") שמאפשרות לו להרכיב רצף מתקבל על הדעת של הברות ("אסימונים"). אם המודל ראה, למשל, את המושג "גולדה מאיר" ואת המושג "אוגנדה" פעמים רבות בסמיכות זה לזה (למשל, אם התאמן על ספרים רבים אודות "מבצע יונתן"), הוא עשוי לטעות ולחשוב שגולדה מאיר היתה ראש ממשלת אוגנדה. הוא אינו מבין תחביר, סיבתיות והקשר פוליטי, אלא רק קשרים סטטיסטיים בין מילים.
כך, למשל, המודל ספר חמש רגליים בתמונת הזברה מאחר שהיא היתה מעט מטושטשת, אבל הטעות הזו חשפה כי בכל תהליך הלמידה שלו הוא לא הפנים לעומק את עובדת העולם, המובנת מאליה לכל ילד, כי לחיות כדוגמת זברה יש ארבע רגליים. מאותה סיבה בדיוק, המודלים הללו מאוד בטוחים בעצמם ולא מהססים לרגע לענות על כל שאלה. בעוד שמנגנונים של שיפוט וביקורת עצמית מובנים בתוך תהליך החשיבה שלנו, מודל ה-AI בסך הכול מבצע פעולה חישובית.
סוכניים שעובדים בצוות
אחת החברות שמנסות לפתור את בעיית האינטליגנציה הלא-אחידה היא סיילספורס, הענקית העולמית בתחום מערכות ניהול לקוחות (CRM). לא רבים יודעים אבל לצד OpenAI ו-DeepMind של גוגל, חטיבת מחקר ה-AI של סיילספורס נחשבת לאחת החשובות בהתפתחות ה-AI בשנים האחרונות, וגם החברה עצמה נחשבת למאמצת ראשנית של AI בפתרונותיה.
בשיחה עם "ישראל היום" מסביר איתי אסיאו, מנהל בכיר בחטיבת מחקר ה-AI של החברה, מדוע סוגיית האינטליגנציה הלא-אחידה היא כה מהותית עבורה: "מודלי הייסוד יכולים מצד אחד לענות על שאלות ברמה של דוקטורט, ובה בעת להיכשל בשאלה שכל ילד בכיתה ד' יודע את התשובה עבורה. זה אולי נסלח כשמדובר בצ'אטבוט לצרכן, אבל זו בעיה קשה כשמדובר בפתרונות AI לארגונים, כשהצ'אטבוט עלול להמציא נתון או לייצר מצג שווא שעשוי לפגוע בחברה".
"אנחנו מחפשים דרכים שיהפכו את המודלים לעקביים ואמינים יותר, כדי שניתן יהיה לסמוך ולהסתמך עליהם", הוא מוסיף.
על פי אסיאו, אחת הבעיות במודלי השפה הגדולים (LLM) היא שהם פועלים כמעין "קופסה שחורה". בשל המבנה המתמטי המורכב שלהם, לעיתים קשה מאוד להתחקות כיצד המודל הגיע למסקנה כלשהי. זו, כאמור, בעיה ממשית ב-AI לארגונים, כאשר המערכת עשויה, לדוגמה, להפיק תחזית עסקית כלשהי או לסמן לקוח ככזה שעשוי בסבירות גבוהה לעזוב לטובת המתחרים. לא ניתן להסתמך או לפעול לפי קביעות כאלה ללא הסבר.
לכן, בסיילספורס מטמיעים ומפתחים מנגנונים של "בינה מלאכותית מבוארת" (Explainable AI), שגורמים למודל לא רק להפיק תשובה אלא גם להסביר מדוע הגיע למסקנתו ואילו פריטי מידע היוו את הגורמים העיקריים להחלטה.
יש עוד גישות שנועדו להפוך את תהליך החשיבה של ה-AI למבוקר יותר, כמו למשל מנגנונים של "זיכרון ארוך-טווח", שנועדו לאפשר למודל להבין הקשר, לחשוב בעקביות ולהתמצא לאורך אינטראקציות ממושכות, או מנגנונים שבאמצעותם המודל בוחן את הפלט של עצמו, ומתקן אותו במידת הצורך, עוד לפני שהמשתמש ראה את התשובה.
בתחום סוכני ה-AI, יש גם גישות המתבססות על שימוש בריבוי סוכנים שמבקרים זה את זה. כלומר, מערכות שמחלקות את החשיבה לשלבים שונים, כגון תכנון, ביצוע, תיעוד, ובקרה - ממש כמו צוות עובדים עם חלוקת תפקידים ברורה. במקום תשובה אחת שטוחה, הארכיטקטורה הזו יוצרת תהליך מובנה עם יותר איזונים ובלמים.
"בחטיבת מחקר ה-AI בסיילספורס בוחנים שיטות נוספות, למשל יצירת סביבות אימון ייעודייות לסוכני AI בתחום הארגוני. אנחנו מייצרים סביבת אימון סינתטית, שמותאמת בדיוק לתפקיד שאליו אנחנו מכשירים את סוכן ה-AI, בין אם מדובר בסוכן שיווק, שירות לקוחות או משימות אדמיניסטרציה", אומר אסיאו. "אחת הבעיות במודלי הייסוד היא שהם לעיתים מבלבלים בין תחומי ידע שונים. כאן אנחנו מייצרים סביבת הכשרה מדויקת ומדידה יותר, וזה גם מאפשר לנו לבחון את ביצועיו ויכולותיו של הסוכן במשימות הרלוונטיות".
טעינו? נתקן! אם מצאתם טעות בכתבה, נשמח שתשתפו אותנו
