האם בינה מלאכותית יכולה להיות מודעת? זו לא עוד שאלה תיאורטית של סרטי מדע בדיוני, אלא דיון אמיתי שמתנהל היום בין חוקרים וממשלות ברחבי העולם. חברות טכנולוגיה גדולות משקיעות סכומים גדולים בפיתוח בינה מלאכותית שמתוכננת לחשוב כמו בני אדם, ויש כאלה שטוענים שמכונות מודעות יגיעו בקרוב. אבל הפילוסוף ד"ר טום מקללנד מאוניברסיטת קיימברידג' מזהיר: אנחנו אפילו לא יודעים איך למדוד את זה.
במאמר חדש שפורסם בכתב העת המדעי Mind & Language, מקללנד טוען שהמדע פשוט לא יודע מספיק על מהי מודעות כדי לבדוק אם מכונה באמת מודעת. לדבריו, "העמדה המוצדקת היחידה היא אגנוסטיות" - כלומר, אנחנו צריכים להודות שאיננו יודעים, וזה עשוי להישאר נכון לזמן רב מאוד.
מקללנד מסביר שיש הבדל חשוב בין שני מושגים: מודעות (consciousness) ותחושתיות (sentience). מודעות פירושה שהמכונה תופסת את העולם סביבה ומודעת לעצמה - אבל זה עדיין לא מספיק כדי להפוך אותה לבעלת ערך מוסרי. לדבריו: "מודעות תגרום ל-AI לפתח תפיסה ולהפוך למודעת לעצמה, אבל זה עדיין יכול להיות מצב נייטרלי".
תחושתיות, לעומת זאת, פירושה היכולת להרגיש סבל או הנאה. "תחושתיות כרוכה בחוויות מודעות שהן טובות או רעות, וזה מה שהופך ישות למסוגלת לסבול או ליהנות. כאן האתיקה נכנסת לתמונה", הוא אומר. הדוגמה שלו: "למשל, מכוניות אוטונומיות שחוות את הכביש שלפניהן יהיו עניין עצום. אבל מבחינה אתית, זה לא משנה. אם הן מתחילות להיות בעלות תגובה רגשית ליעדים שלהן, זה משהו אחר".
למה קשה כל כך לבדוק מודעות
יש שני מחנות מרכזיים בדיון על בינה מלאכותית מודעת. חלק מהחוקרים סבורים שאם מחשב מדמה נכון את דפוסי החשיבה של המוח האנושי, הוא יהיה מודע - גם אם הוא עשוי משבבי סיליקון ולא מתאי מוח. אחרים טוענים שמודעות היא תופעה ביולוגית שדורשת גוף אורגני חי, ומחשב יכול רק לחקות מודעות מבלי באמת "להרגיש" משהו.
הבעיה, לפי מקללנד, היא שלמדע אין דרך להכריע ביניהם. "אין לנו הסבר עמוק של מודעות. אין ראיות המצביעות על כך שמודעות יכולה להתפתח עם המבנה החישובי הנכון, או אכן שמודעות היא ביולוגית במהותה", אומר מקללנד. גם במקרה הטוב ביותר, לדבריו, נדרשת פריצת דרך מדעית מהפכנית לפני שנוכל לפתח מבחן אמין למודעות - ופריצה כזו עדיין לא נראית באופק.
מקללנד נותן דוגמה אישית: "אני מאמין שהחתול שלי הוא בעל מודעות. זה לא מבוסס על מדע או פילוסופיה אלא על שכל ישר – זה פשוט די ברור". אבל כשמדובר במכונות, השכל הישר לא עוזר. "השכל הישר הוא תוצר של היסטוריה אבולוציונית ארוכה שבמהלכה לא היו צורות חיים מלאכותיות, ולכן לא ניתן לסמוך על השכל הישר כשמדובר בבינה מלאכותית. אבל אם אנחנו מסתכלים על הראיות והנתונים, גם זה לא עובד".
סכנות ההייפ סביב בינה מלאכותית
מקללנד מזהיר שחברות הטכנולוגיה עלולות לנצל את חוסר הוודאות הזה. "יש סיכון שחוסר היכולת להוכיח מודעות ינוצל על ידי תעשיית הבינה המלאכותית כדי להעלות טענות מופרכות על הטכנולוגיה שלה. זה הופך לחלק מההייפ, כך שחברות יכולות למכור את הרעיון של רמה הבאה של חוכמת AI".
הוא מצביע גם על בעיה מוסרית: "גוף גדל של ראיות מצביע על כך שסרטנים יכולים להיות מסוגלים לסבל, ובכל זאת אנחנו הורגים כחצי טריליון סרטנים מדי שנה. בדיקה למודעות בסרטנים היא קשה, אבל לא קשה בשום צורה כמו בדיקה למודעות בבינה מלאכותית". במילים אחרות - אולי כדאי שנדאג קודם ליצורים שאנחנו יודעים שהם בעלי תחושתיות.
מקללנד מספר שאנשים כבר היום משוכנעים שהצ'אטבוטים שלהם מודעים. "אנשים גרמו לצ'אטבוטים שלהם לכתוב לי מכתבים אישיים שטוענים בפני שהם בעלי מודעות. זה הופך את הבעיה לקונקרטית יותר כשאנשים משוכנעים שיש להם מכונות מודעות שראויות לזכויות שכולנו מתעלמים מהן".
האזהרה שלו חריפה: "אם יש לך קשר רגשי עם משהו המבוסס על כך שהוא בעל מודעות והוא לא, יש לזה פוטנציאל להיות רעיל באופן קיומי. זה בוודאי מוחמר על ידי הרטוריקה המנופחת של תעשיית הטכנולוגיה".
לסיכום, לפי מקללנד: "אם אנחנו יוצרים בטעות בינה מלאכותית מודעת או בעלת תחושתיות, עלינו להיזהר למנוע נזקים. אבל להתייחס למה שהוא בעצם טוסטר כאל בעל מודעות כאשר יש שם בחוץ ישויות מודעות בפועל שאנחנו פוגעים בהן בקנה מידה אפי, גם זה נראה כטעות גדולה".
טעינו? נתקן! אם מצאתם טעות בכתבה, נשמח שתשתפו אותנו
