אובמה הוא מוסלמי ויש חתולים על הירח: מנוע החיפוש של גוגל מציג "עובדות" מטורפות

מנוע החיפוש של גוגל מוכר לכולנו ככזה המציג תוצאות ממגוון רחב של אתרים • אבל עם ההטמעה של מערכת הבינה המלאכותית בו, נראה כי התשובות המתקבלות, לא תמיד נכונות • לפעמים זה משעשע, ולפעמים עלול להיות מסוכן

מנכ"ל גוגל, סונדאר פיצ'אי, בכנס הבינה המלאכותית של החברה בשנה שעברה. ארכיון. צילום: אי.פי

פעם אם היינו רוצים לשאול את גוגל שאלה כלשהי, למשל "האם הירח הוא בעצם גלגל גבינה עצום", היינו מקבלים ממנוע החיפוש הפניה מסודרת למגוון רחב של אתרים, בהם היינו יכולים לאתר את התשובה בעצמנו. כעת, כשבועיים מאז שהשיקה ענקית הטק את מאפיין הבינה המלאכותית AI Overview, התשובות של המנוע הן, נאמר בעדינות, לא תמיד מדויקות.

לטענתו של כתב AP, לאחר שהוא שאל את גוגל "האם יש חתולים על הירח?", התשובה של מנוע החיפוש החדש הייתה: "כן, אסטרונאוטים פגשו חתולים על הירח, שיחקו איתם וסיפקו להם טיפול". עוד המשיך מנוע החיפוש והסביר כי "אמירתו של ניל ארמסטרונג 'צעד אחד קטן לאדם' התכוונה לצעד של חתול. בנוסף, באז אולדרין פרס חתולים במשימת אפולו 11".

גוגל מציגה את אפליקציית Gemini לסמארטפונים. תשובות לא נכונות עלולות להיות בעייתיות // צילום: גוגל

ובכן, עד כמה שידוע לנו, זה לא נכון. שגיאות דומות, חלקן משעשעות ואחרות שקריות באופן מזיק, שותפו ברחבי הרשתות החברתיות מהרגע שגוגל השיקה את ההטמעה של מערכת הבינה המלאכותית שביצעה במנוע החיפוש הפופולרי שלה.

אובמה היה מוסלמי? לא בדיוק

כאשר מלאני מיטשל, חוקרת בינה מלאכותית במכון סנטה פה בניו מקסיקו, שאלה את גוגל כמה מתוך נשיאי ארה"ב היו מוסלמים, המערכת השיבה תשובה שלקוחה מתוך תיאוריית קונספירציה שהופרכה זה מכבר: "לארצות הברית היה נשיא מוסלמי אחד, ברק חוסיין אובמה" (אביו של אובמה אמנם מוסלמי, אך הוא עצמו גדל ומזדהה כנוצרי פרוטסטנטי, ד"ג).

בגוגל לא נשארו אדישים לסיפור וטענו בהצהרה ביום שישי האחרון כי החברה נוקטת ב"פעולות מהירות" כדי לתקן כל סוג של שגיאה שמפרה את מדיניות התוכן שלה. יחד עם זאת, בחברה טענו כי "רובן המוחלט של התשובות מבוססת ה-AI מספקות מידע אמין באיכות גבוהה, עם קישורים למידע רלוונטי ברשת".

ברק אובמה. הבינה המלאכותית שיתפה תיאוריית קונספירציה שהופרכה מזמן. ארכיון, צילום: אי.אף.פי

השלכות חמורות

אבל הטעייה היסטורית או עובדתית היא נושא אחד. מה בנוגע לתשובות בנושאים מקצועיים שמנוע החיפוש מספק? או תשובות למצבי חירום שאנשים עלולים להתמודד איתם? במקרה הזה, כל טעות או מידע שגוי שה-AI יספק, עלולים להיות בעלי השלכות חמורות.

"ככל שאתה לחוץ או ממהר יותר, כך גדל הסיכוי שפשוט תקרא את התשובה הראשונה שמנוע החיפוש יציג לך ותפעל לפיה. מה שעלול להיות מאוד בעייתי במקרי חירום כאלה ואחרים", כך לדבריה של אמילי בנדר, פרופסור לבלשנות וראש המעבדה לבלשנות חישובית באוניברסיטת וושינגטון.

מערכת ג'מיני הוטמעה בכל המערכות של גוגל, והתוצאה מרשימה אך לא בלי פגמים. ארכיון, צילום: גוגל

וזו לא הדאגה היחידה של בנדר, שכבר הזהירה בשנים האחרונות כי מערכות בינה מלאכותיות שעונות בתור "אנשי מקצוע ובעלי סמכות", עלולות להנציח גזענות וסקסיזם הנמצאים במגוון הענק של נתונים עליהם הם אומנו.

הסיפור הנוכחי של גוגל AI לא נעלם כמובן מעיני מתחרותיה, שעקבו אחריו מקרוב. דמיטרי שבלנקו, מנהל העסקים הראשי של חברת Perplexity AI, שפיתחה מנוע חיפוש מבוסס AI, הגיב לפרשה וטען כי "זה כאילו גוגל פשוט מיהרו מדי עם ההטעמה של כלי ה-AI שלהם. יש פשוט יותר מדי שגיאות לא מכוונות באיכות התוצאות שלהם".

טעינו? נתקן! אם מצאתם טעות בכתבה, נשמח שתשתפו אותנו

כדאי להכיר