X

אתיקה רובוטית – מי אחראי כשמכונית אוטונומית דורסת אדם?

אתם נוסעים במכונית אוטונומית, והיא נקלעת למצב הבא: עץ שקורס בגלל סערה עומד ליפול עליכם ולמחוץ את הרכב. הם הרכב יסטה לימין – הוא ידרוס 10 ילדים. אם הוא יסטה לשמאל – הוא ידרוס רב ראשי ושופט עליון בדימוס. מה הוא צריך לעשות? ומי אשם בתוצאה? לפי הציבור בישראל, התשובה מפתיעה

השיקולים האנושיים ישפיעו. רכב אוטונומי. צילום: GettyImages

התפתחות הבינה המלאכותית והרובוטיקה הביאה ליצירת מערכות אוטונומיות שמקבלות החלטות עצמאיות יותר ויותר. החל מרכבים שנוהגים בעצמם ועד רובוטים רפואיים, המערכות הללו מתמודדות עם דילמות מוראליות מורכבות, שדורשות אפילו מבני אנוש לחשוב רבות לפני שהם מבצעים החלטות או מעשים. השאלה המרכזית שהופכת למהותית יותר ויותר היא מי נושא באחריות כאשר רובוט מקבל החלטה שגויה שפוגעת באחרים.

בתחום הרכבים האוטונומיים, הבעיה מתגלה במלוא חומרתה; רכב אוטונומי המתמודד עם מצב חירום חייב לבחור בין אלטרנטיבות פגיעה. האם לסטות למדרכה ולפגוע בהולכי רגל כדי להציל את נוסעי הרכב? להתנגש במכונית אחרת כדי להימנע מפגיעה בילדים חוצים? להתנגש בעמוד ולסכן את נוסעי הרכב כדי להימנע מתאונת שרשרת? מי מתכנת, או רשאי לתכנת, את הבחירות המוראליות האלו – המהנדס שכותב את התוכנה, החברה שמעסיקה אותו, או אולי הממשלה?

"המכונה המוראלית" הוא פרויקט מחקר מתמשך של MIT, שכבר הספיק לחשוף הבדלים תרבותיים משמעותיים בתפיסות מוראליות; בעוד תרבויות מערביות נוטות לטעון שיש להציל צעירים על פני מבוגרים, תרבויות אחרות מעדיפות לכבד זקנים. בישראל, אגב, התוצאות מראות חריגות גדולות בהעדפות לגבי חוסר פעולה (אנחנו מאוד, מאוד לא אוהבים חוסר פעולה – או, במלים אחרות, אנחנו נוטים לחשוב שאין לאף אחד, כולל בינה מלאכותית, זכות לא לעשות כלום במצב שבו כל האפשרויות רעות) ולגבי בחירה בין מספרי נפגעים (אנחנו ממש, ממש, ממש בולטים בהעדפה שלנו להציל יותר אנשים). אך אילו ערכים יש לתכנת לרכבים אוטונומיים הפועלים ברחבי העולם?

הסטנדרטים המוסריים של ישראלים לבינה מלאכותית, צילום: צילום מסך מתוך אתר Moral Machine של MIT

בתחום הרפואה, רובוטים מתוחכמים מבצעים ניתוחים ומקבלים החלטות רפואיות. רובוט כירורגי שנוקט בהליך לא סטנדרטי שמוביל לסיבוכים מעורר שאלות אחריות מורכבות: האם הרופח אחראי, משום שהשתמש במערכת אוטומטית? האם יצרן הרובוט נושא באחריות? או שמא בית החולים שהחליט להשתמש בטכנולוגיה?

מערכות צבאיות אוטונומיות מציבות את האתגר הגדול ביותר. רובוטים לוחמים שמתוכנתים לזהות ולתקוף יעדים עצמאית מעוררים דאגות עמוקות: מה קורה כשרובוט לוחם פוגע בחפים מפשע עקב שגיאת זיהוי? ארגונים בינלאומיים קוראים לאיסור מוחלט על נשק אוטונומי קטלני, אך כמו בכל פעם אחרת בהיסטוריה שארגונים קראו לחרם על נשק מסוים, זה רק גורם למדינות רבות לחתור אליו עוד יותר בנחישות.

מערכות בינה מלאכותית בבתי משפט מתחילות לסייע בקבלת החלטות שיפוטיות. אלגוריתמים מנתחים את הסבירות לשיקום עבריינים ומשפיעים על החלטות שחרור על תנאי. אולם אלגוריתמים אלו נמצאו כמפלים באופן סדרתי נגד מיעוטים אתניים. מי אחראי כשמערכת שיפוט אוטומטית מובילה להחלטה לא צודקת?

הפיתוח הנוכחי של חוקי אחריות רובוטית מתמקד במספר מודלים: המודל הראשון מטיל אחריות על היצרן, בדומה לאחריות על מוצרים פגומים; המודל השני מטיל אחריות על המפעיל או הבעלים של הרובוט – כלומר הנהג, בית החולים או המדינה, לפי הדוגמאות שהובאו לעיל; מודל שלישי, מתקדם יותר, מציע יצירת זהות משפטית נפרדת לרובוטים.

האיחוד האירופי מוביל ביצירת מסגרת חוקית לאתיקה של בינה מלאכותית. הוועדה האירופית פרסמה הנחיות המדגישות שקיפות, אחריות וביקורת אנושית על החלטות אוטומטיות. עקרון "human in the loop" דורש שמירת יכולת התערבות אנושית בכל מצב קריטי.

חברות טכנולוגיה גדולות מקימות מחלקות אתיקה פנימיות, המתמודדות עם דילמות אלו; גוגל, מיקרוסופט ו-IBM פרסמו עקרונות אתיים לפיתוח בינה מלאכותית, אך הביקורת מתמקדת בפער בין ההצהרות למעשה.

הפתרונות המוצעים כוללים יצירת "ביטוח חובה" למערכות אוטונומיות, הקמת רשות פיקוח על בינה מלאכותית, ופיתוח תקנים בינלאומיים לאתיקה טכנולוגית. יש המציעים מערכת הסמכה למערכות בינה מלאכותית, הדומה להסמכת רופאים או טייסים.

השאלות האתיות יעמיקו עם התפתחות הטכנולוגיה. רובוטים שיוכלו ללמוד ולהשתנות באופן עצמאי יעוררו שאלות חדשות על אחריות והגדרת הזהות המכונית. התמודדות עם אתגרים אלו תדרוש שיתוף פעולה בין מהנדסים, פילוסופים, משפטנים וקובעי מדיניות.

הכתבה נכתבה בעזרת קלוד.

טעינו? נתקן! אם מצאתם טעות בכתבה, נשמח שתשתפו אותנו

כדאי להכיר