גוגל השיקה את חלונית הסיכומים (AI Overviews) כדי לקצר תהליכים ולספק תשובות מיידיות, אבל במקרה אחד היא הפכה לכלי עבודה מושלם לנוכלים. איש עסקים שחיפש מספר טלפון של חברת שיט התענוגות Royal Caribbean קיבל תשובה ישירות מה־AI, התקשר ושילם מאות דולרים – מבלי לדעת שהכול חלק מתרמית מתוחכמת.
כך נראתה ההונאה
בצד השני של השיחה חיכה "נציג שירות" שהסביר כי עליו לשלם דמי שירות בסך 768 דולר כדי לקבל כרטיסים. הלקוח שילם - ולאחר מכן חויב שוב בסכומים נוספים. רק כשהצליח להשיג את החברה האמיתית, הבין שנפל קורבן לתרמית.
לפי דיווח ב- Washington Post, המספר שהוצג בתשובה לא היה קשור כלל ל- Royal Caribbean, אלא לחברת קש שכבר הופיעה ברשימות אזהרה של גורמי אבטחה. למרות זאת, האלגוריתם של גוגל שילב אותו אוטומטית בסיכום שהוצג ללקוח.
תגובת גוגל: "תקלה חמורה"
בגוגל מודים כי מדובר בתקלה חמורה. החברה מסרה שהמספר הוסר מהמערכת והיא פתחה בחקירה, אך הדגישה כי לא ניתן להבטיח 100 אחוזי אמינות במידע שמופיע בתשובות אוטומטיות. "אנחנו פועלים ללא הרף לשפר את האמינות ולהגן על המשתמשים", נמסר מהחברה.
מומחי אבטחת מידע מזהירים כי המקרה הזה הוא דוגמה קלאסית לבעיה הולכת ומתרחבת - התחזות דיגיטלית במוקדי שירות. הם מזכירים שגם לפני עידן הבינה המלאכותית הופיעו ברשת אתרים מפוברקים ומספרי טלפון מזויפים, אך כיום הסיכון גדל, משום שהמידע המוטעה עלול להגיע ישירות מהמקור הכי אמין לכאורה - גוגל.
מה אפשר ללמוד מזה
עבור המשתמשים, המשמעות ברורה: אין להסתמך בעיניים עצומות על תשובות אוטומטיות. במקרה של ספק, מומלץ להיכנס ישירות לאתר הרשמי של החברה או להשתמש בערוצים מוכרים.
הסיפור הזה ממחיש היטב את גבולות הבינה המלאכותית: היא מסוגלת לייעל את החיפוש ולהפוך אותו לנגיש יותר, אבל כשהיא סומכת על מקורות בעייתיים - המחיר עלול להיות כבד.
טעינו? נתקן! אם מצאתם טעות בכתבה, נשמח שתשתפו אותנו