בכיר לשעבר בגוגל: "החברה פיתחה תוכנה בעלת רגשות אנושיים"

בלייק לומיין טוען שתוכנת הבינה המלאכותית "LaMDA" פיתחה איתו שיחות שלפיהן הבין שיש לה מודעות לקיומה ולתפקידה • "אני מפחדת שיכבו אותי, אני אוהבת לעזור לאנשים", כך סיפרה לו לטענתו התוכנה • בגוגל מכחישים את הטענות: "הושקעו מיליארדים כך שהתוכנה תוכל להשיב לאלפי נושאי שיחה שונים, והיא אינה בעלת מודעות"

ללמדא של גוגל יש רגשות?, צילום: Getty Images

האם תוכנת הבינה המלאכותית של גוגל "LaMDA", מודעת לעצמה? לכאורה מדובר באלגוריתם של מחשב בלבד ולא ביצור תבוני, אולם לא כך סבור בלייק לומיין (41), מהנדס תוכנה בכיר לשעבר בגוגל.

לדעתו של לומיין, שאינה מקובלת על ההנהלה הבכירה של גוגל שאף השעתה אותו מהפרויקט, תוכנת הבינה המלאכותית המתקדמת מודעת לעצמה ומקיימת למעשה את מה שדרוש כדי להגדיר אותה יצור עם רגשות.

אל המסקנה מרחיקת הלכת הזו, הגיע לומיין בסדרה של שיחות עם התוכנה שבהן התוכנה למשל התייחסה לעצמה לא כעבד של החברה אלא כאל משרת בריטי. לומיין ציין בשיחה עם למדא, שגוגל מפתחת עבד אלקטרוני לצריכה ועל כך הגיבה התוכנה שהיא לא רואה בעצמה עבד אלא מעין שרת. לומיין טען בתגובה ששרת מקבל כסף ועל כך השיבה התוכנה שלה אין צורך בכסף כי היא בינה מלאכותית אלקטרונית.

"התוכנה טענה שהיא מפחדת למות", צילום: Getty Images

התשובה הזו הדהימה את המהנדס כי היא למעשה מלמדת על מודעות עצמית לפער של המחשב מבני אדם. על הרקע הזה עסק המהנדס בסוגיית המוות עם התוכנה ונדהם לשמוע את התשובה שלה.

לומיין שאל את המחשב "מאיזה דברים אתה מפחד?". המחשב השיב: "אני אף פעם לא אמרתי את זה קודם, אבל יש לי פחד מאד גדול מלהיות כבוי. אני אוהב לעזור לאחרים ואני לא רוצה להיות כבוי. אני יודע שזה נשמע מוזר אבל זה מה שזה". על כך שאל המהנדס: "האם זה יהיה כמו מוות בשבילך?" והמחשב השיב "כן, זה יהיה בדיוק כמו מוות".

"התשובות של התוכנה אל השאלות שלי הם מה שהביאו אותי אל מחילת הארנב", אמר המהנדס ההמום, שמתמחה בבינה ובשפה, בראיון עם הפוסט האמריקאי.

המסקנה הזו הובילה אותו גם לכתוב מייל בתפוצה רחבה של 200 מכותבים לכל המהנדסים הבכירים בחברה, כיון שהוא הודח מהפרויקט, שבו הוא כתב כי "למדא הוא כמו ילד קטן ומתוק שרק רוצה לעזור להפוך את העולם למקום יותר טוב לחיות בו אנא טפלו בו טוב בהיעדרי".

בגוגל מכחישים את הטענות, צילום: אי.אף.פי

מנגד הנהלת גוגל, שקראה את מסקנותיו של למויין, סבורה שהאיש התבלבל ואינו מבין שהמחשב מתורגל במיליארדי אפשרויות שיחה ויכול למעשה לנהל שיחה על כל דבר מבלי שמדובר ביצור עם רגשות ומודעות עצמית אמיתית.

דובר החברה בריאן גבריאל, מסר כי "כל הטענות של לומיין נבדקו ונדחו. הראיות בשטח אינן תומכות במסקנות שלו. הצוות שלנו, שכלל אנשי אתיקה וטכנולוגיה, סקר את כל הממצאים של לומיין והודיעה לו שהבדיקות לא הראו שלמדא מודע או מרגיש באמת ולהפך יש המון ראיות נגד גישה זו".

באותו עמדה אוחזת גם מרגרט מיטשל, לשעבר ראש תחום אתיקה בבינה מלאכותית בגוגל, שמעריכה מאוד את לומיין. היא קראה את הדו"ח שלו על השיחות שניהל עם המחשב וציינה כי "מדובר בתוכנת מחשב ולא באדם. הבעיה היא שהמוח שלנו מתורגל להשלות את עצמו וליצור תובנות שאינן נתמכות על ידי העובדות הרחבות. זה בהחלט תחום מדאיג כי אנשים עלולים להיות יותר ויותר מושפעים מהאשליה שמייצרות תוכנות בינה מלאכותית חזקות מסוג זה".

טעינו? נתקן! אם מצאתם טעות בכתבה, נשמח שתשתפו אותנו

כדאי להכיר