טיסת דלתא איירליינס. צילום: יוסי זליגר

ענקית התעופה מתחרטת: לא תיתן ל-AI לקבוע תמחור אישי

סערה תקשורתית ופוליטית גרמה לדלתא איירליינס לחזור בה מהצהרתה שתשתמש בבינה מלאכותית להעלאת מחירים ללקוחות עשירים או נואשים. אבל זה ממש לא הסוף של סוגיית השימוש ב-AI לתמחור לא הוגן

מה שהחל כהכרזה גאוותנית על "מהפכת התמחור האישי" הסתיים בנסיגה מביכה ושינוי גרסה דרמטי. חברת התעופה דלתא, אחת הגדולות בעולם, נאלצה השבוע להסביר ולהכחיש את תוכניתה להשתמש בבינה מלאכותית כדי לגבות מחירים שונים מלקוחות שונים על בסיס הנתונים האישיים שלהם.

ההכרזה המקורית היתה בנובמבר שעבר, כאשר נשיא החברה, גלן האוונשטיין, הכריז בגאווה בשיחת משקיעים על המהפכה הטכנולוגית הקרבה: "יהיה לנו מחיר זמין בטיסה ספציפית, בזמן ספציפי, אליך, האדם הספציפי". המסר היה ברור: כל לקוח יקבל מחיר מותאם אישית, שנקבע על ידי אלגוריתם של בינה מלאכותית שמנתח את הנתונים האישיים שלו ומעריך מה הסכום המרבי שאותו אדם יסכים לשלם.

החברה פיתחה את הטכנולוגיה בשיתוף עם הסטארטאפ הישראלי Fetcherr, ותכננה להחיל אותה על כ-20% מהרשת הפנימית שלה בארה"ב עד סוף השנה. האוונשטיין הציג את הבינה המלאכותית כ"סופר אנליסט" שמגיב לשינויים בזמן אמת.

לחץ פוליטי ונסיגה מהירה

אלא שההכרזה עוררה זעם בקונגרס האמריקני. הסנטורים הדמוקרטים רוּבֶּן גאלֶגוֹ, מארק וורנר וריצ'רד בלומנתל שלחו מכתב זועם למנכ"ל דלתא, אד בסטיאן, בו הביעו דאגה עמוקה מהטכנולוגיה החדשה. במקביל, חברי הקונגרס גרג קאסר והאנטישמית רשידה טְלַאיבּ הציגו הצעת חוק שתאסר על חברות להשתמש בבינה מלאכותית לקביעת מחירים או שכר על בסיס נתונים אישיים של אמריקאים.

תחת הלחץ הפוליטי, דלתא שינתה את גרסתה באופן דרמטי: פיטר קרטר, סגן נשיא בכיר לענייני חוץ, שלח מכתב תשובה שבו הכחיש את הכל: "אין שום מוצר תעריף שדלתא השתמשה בו אי פעם, בודקת או מתכננת להשתמש בו, שמכוון ללקוחות עם מחירים אישיים על בסיס נתונים אישיים".

הגרסה החדשה: "כלי תמיכה"

במקום הרטוריקה הגאוותנית על מחירים אישיים, דלתא מציגה כעת את הטכנולוגיה כ"כלי תמיכה בהחלטות", שפשוט מספק תובנות מבוססות למנתחים אנושיים. לפי הגרסה החדשה, המערכת מגיבה למחירי המתחרים ולמגמות רכישה כלליות, במטרה למצוא את המחיר הגבוה ביותר שניתן להציע בהתאם לתנאי השוק – לא ללקוח ספציפי.

קרטר טען שהחברה מקפידה על "אפס סובלנות" לתמחור מפלה או לא הוגן, ושהיא לא משתפת מידע אישי עם Fetcherr.

האיום הרחב: AI ככלי ניצול

המקרה של דלתא מדגיש סכנה רחבה יותר – שימוש בבינה מלאכותית ככלי לניצול צרכנים. כאשר אלגוריתמים מתחכמים יכולים לנתח מיליארדי נתונים על הרגלי קנייה, הכנסות, מיקום ואף מצב רגשי, הם יכולים לקבוע בדיוק כמה כל אדם מוכן לשלם בכל רגע נתון – ולגבות את המחיר המקסימלי האפשרי.

מעבר לתמחור דינאמי אישי, קיימים שימושים נוספים בבינה מלאכותית שכדאי לאסור עליהם, או לפחות להחרים כל חברה שתנסה אותם. באופן אירוני, ביקשנו מהבינה המלאכותית קלוד עזרה בהרכבת רשימה של שימושים פסולים כאלה. זה מה שהיא הציעה:

  • מניפולציה רגשית ממוקדת: שימוש באלגוריתמים לזיהוי רגשות בזמן אמת כדי לתמחר מוצרים גבוה יותר כשהלקוח נמצא במצב פגיע – למשל, העלאת מחירי ביטוח בריאות כשמזהים לחץ או חרדה מהפוסטים של המשתמש ברשתות החברתיות.
  • אפליה אלגוריתמית בשירותי יסוד: שימוש ב-AI להעלאת מחירי מזון, תרופות או שירותי חירום על בסיס נתונים דמוגרפיים, גזעיים או כלכליים.
  • ניצול נתוני בריאות נפשית: חברות טכנולוגיה שמנתחות פוסטים, חיפושים או התנהגות ברשת כדי לזהות דיכאון, חרדה או מחשבות אובדניות, ואז מוכרות את המידע הזה לחברות אחרות, באופן שהופך מי שנתפס ע”י AI בתקופת משבר הופך פתאום למוקצה בעיני מעסיקים שמקבלים אזהרה על כך.
  • מניפולציה של קטינים: שימוש באלגוריתמים לזיהוי ילדים ברשתות החברתיות כדי למכור להם מוצרים מזיקים, להוביל אותם להתמכרויות או לנצל אותם בדרכים אחרות.
  • סחטנות נתונים: איסוף נתונים אישיים בעילות שווא, ואז איום בחשיפה או מכירה אלא אם הצרכן ישלם עבור "הגנה על פרטיות" (משהו שלפי כל הסימנים קורה כבר שנים גם בלי בינה מלאכותית).

הדרך קדימה: חקיקה נגד ניצול אלגוריתמי

המקרה של דלתא מוכיח שבלי פיקוח וחקיקה, חברות יחפשו דרכים יצירתיות ואכזריות למדי לנצל את כוחה של הבינה המלאכותית למיקסום רווחיהן. הבינה המלאכותית שוברת את כללי השוק החופשי, ומעלה את האפשרות שתידרש חקיקה מקיפה שתאסור על שימושים פסולים, תקבע עונשים כבדים לחברות שיעברו על האיסורים, ותיצור מנגנוני פיקוח יעילים.

טעינו? נתקן! אם מצאתם טעות בכתבה, נשמח שתשתפו אותנו
Load more...