השאלה כבר אינה אם הבינה המלאכותית תנהל, אלא מתי יהיה לנו מנהל, שופט או אפילו שר מבוסס בינה מלאכותית. מאלבניה, בה דמות וירטואלית בשם דיאלה משמשת כ"שרה" במשרד ראש הממשלה כדי להילחם בשחיתות, ועד חדרי הישיבות של התאגידים הגדולים בעולם, נראה כי הבינה המלאכותית זוחלת מעבר לאוטומציה משרדית אל עמדות כוח.
אולם, מה יקרה אם נהפוך את היוצרות? במקום שהבינה המלאכותית תעבוד בשבילנו, האם אנחנו נהיה מוכנים לעבוד בשבילה?
לפני כמה ימים, שאלתי את השאלה הזו את אמיר ליברמן, מנכ"ל חברת EMOTION LOGIC, שמתמחה בפיתוח פתרונות מבוססי בינה מלאכותית לזיהוי ועיבוד רגשות. השיחה שלנו התגלגלה לשאלת שילובם של עובדים עם מוגבלות במקום עבודה. הוא אמר כי מנהלים רבים חסרים את הסבלנות וההבנה הנדרשת לעבודה איתם. למעשה, לעתים קרובות, עובדים אלה נשכרים בשל רגולציה בלבד, ומוצגים לראווה במסדרונות כסמל ל"הכלה", במקום להשתלב באמת בצוות כאנשים בעלי יכולות ייחודיות.
מנכ"ל בינה מלאכותית, בניגוד למנהל חסר הסובלנות, לא ייקח צד, לא ייסחף לפוליטיקה משרדית ולא יפגין יחס מועדף. אי אפשר לסחוט אותו, להחמיא לו או לגרום לו לקדם את האדם הלא-נכון מתוך רגשות אשמה. הוא לא יתעלל, יגנוב או יטריד. הוא יפעל באופן עקבי מתוך פרספקטיבה מערכתית, יחשב כיצד להשיג את התוצאה הטובה ביותר, למזער נזקים ולחלק משאבים - תקציבים, הטבות, ותשומת לב - למקומות בהם יספקו את הערך הגבוה ביותר עבור הכלל.
אולי זה מה שקסם לממשלת אלבניה?
עכשיו דמיינו עובד עם מוגבלות, למשל מישהו על הספקטרום האוטיסטי. מנהלים אנושיים מתקשים לעיתים קרובות להתאים את סגנון התקשורת שלהם. מנהל AI, לעומת זאת, יכול להתאים את ההנחיות באופן ברור וסבלני לכל פרט ופרט. זה לא רק יעיל יותר; במקרה הזה, הבינה המלאכותית תהיה למעשה, ובאופן פרדוקסלי, אנושית יותר.
למה לעצור בחברות עסקיות? אם הבינה המלאכותית יכולה להוביל צוות, האם היא יכולה אולי לנהל עיר? לשפוט בסכסוך משפטי בהגינות? לאזן תקציב לאומי?
הפיתוי ברור. שופט בינה מלאכותית לא נוטר טינה. ראש עירייה מבוסס בינה מלאכותית לא מנהל קמפיין לבחירה מחדש. שר אוצר בינה מלאכותית לא מקבל תרומות מחברות גדולות. עם מספיק נתונים ויעדים ברורים, בינה מלאכותית יכולה לכאורה לספק החלטות עקביות, ניתנות להרחבה, וממוקדות במיקסום טובת הציבור, לא בהישרדות פוליטית.
אבל האם אנחנו יכולים לסמוך על מכונה שתבין את האתיקה שלנו? לוגיקה ללא אמפתיה עלולה להיות מסוכנת. בינה מלאכותית עלולה, למשל, להקריב את רווחתה של קבוצת מיעוט אם תחשוב שזה יביא לטובה מערכתית גדולה יותר. האם גם אז נדבר במונחים של קדמה, או שהחלטות אלו יוצגו כאכזריות שמקורה בגיליון אלקטרוני?
ומה קורה כשהבינה המלאכותית מקבלת החלטה שגויה? לא באג טכני, אלא החלטה רציונלית לחלוטין שמתבררת כפסולה מבחינה מוסרית או חוקית? בני אדם טועים כל הזמן, אך הם נושאים באחריות. החוק עדיין לא מוכן לסוכנים אוטונומיים. אם הבינה המלאכותית שלכם מתמרנת מחירי מניות כדי להגדיל את רווח, מי הולך לכלא? אתם, או הקוד?
מנהיגות אינה רק אופטימיזציה. היא דורשת שיקול דעת, הבנת הקשר, ולעיתים, כן, גם אינטליגנציה רגשית - תכונות שעדיין לא מתאימות לאלגוריתם. אבל המציאות שבה מנהיגים אנושיים ממשיכים לאכזב אותנו עם הטיות, אגו וחשיבה לטווח קצר, מציבה בפנינו מראה. לא תחליף מושלם, אלא כלי שמכריח אותנו להגדיר מחדש מה באמת משמעותם של הגינות, שקיפות ואחריות.
העתיד הקרוב אולי לא שייך למנהיגי בינה מלאכותית. אך הוא בהחלט יבחן את מידת אומץ ליבנו לשאול: האם נכון לנו לוותר על הלב והנשמה של הנהלה או מנהיגות, לטובת המוח של מכונה?
הכותבת היא משנה למנכ"ל אינשורטק ישראל
טעינו? נתקן! אם מצאתם טעות בכתבה, נשמח שתשתפו אותנו
