הצד האפל של בינה מלאכותית: הטיות, אפליה וסכנות אתיות

בינה מלאכותית מוצגת כפתרון קסם לטעויות אנושיות – אבל למען האמת, היא לא רק שלא פותרת אותן, אלא אף עלולה להנציח אותן אם הפיתוח שלה ימשיך במסלול הנוכחי

ה-AI של גוגל חשב שבני אדם שחורים הם קופים. המחשה. צילום: נוצר באמצעות Imagen 4

בשנת 2018 נאלצה אמזון לזנוח מערכת בינה מלאכותית לגיוס עובדים, לאחר שהתגלה כי היא מפלה נשים באופן שיטתי. המערכת, שאומנה על קורות חיים מהעשור הקודם, למדה להעדיף מועמדים גברים, פשוט כי רובם המכריע של המהנדסים בחברה היו גברים. זוהי רק דוגמה אחת לבעיה עמוקה יותר: מערכות AI אינן באמת טובות יותר מבינה אנושית והטיותיה – הן פשוט לומדות מאיתנו את אותן הטיות, ומנציחות אותן בקנה מידה חסר תקדים.

כשאלגוריתמים הופכים לשופטים

כבר היום, מערכות בינה מלאכותית מקבלות החלטות גורליות על חיינו. הן קובעות מי יקבל הלוואה, מי יוזמן לראיון עבודה, איזה טיפול רפואי נקבל, ואפילו כמה זמן מאסר יקבל נאשם. הבעיה היא שהמערכות הללו פועלות כ"קופסאות שחורות" – אפילו המתכנתים שלהן לא תמיד מבינים כיצד הן מגיעות להחלטות.

מערכת COMPAS (ר”ת באנגלית של “פרופיל ניהול עבריינים כליאתיים לעונשים חלופיים”), המשמשת בתי משפט אמריקאים להערכת סיכון לחזרה לפשע, נמצאה מוטה נגד נאשמים אפרו-אמריקאים. היא חזתה שיעור חזרה לפשע כפול עבורם לעומת נאשמים לבנים עם רקע פלילי דומה. המערכת מעולם לא תוכנתה להיות גזענית – היא פשוט זיהתה דפוסים סטטיסטיים שמשקפים אפליה מערכתית היסטורית.

אשליה של אובייקטיביות

החברות הגדולות מציגות AI כפתרון אובייקטיבי וניטרלי, אך האמת רחוקה מכך. כל מערכת בינה מלאכותית משקפת את הערכים, ההנחות וההטיות של יוצריה, ושל הנתונים שעליהם היא מאומנת. כאשר צוותי הפיתוח חסרי גיוון, וכאשר הנתונים ההיסטוריים מכילים אפליה, התוצאה בלתי נמנעת.

מערכות זיהוי פנים, למשל, מדויקות הרבה פחות בזיהוי אנשים בעלי עור כהה. לפני עשור, המערכת של גוגל לתיוג אוטומטי של תמונות ב"גוגל פוטוס" הצמידה לאנשים אפרו-אמריקאים את התגית “גורילה”. מיקרוסופט פיתחה צ'אט-בוט בשם טאי, שהפך לגזעני ואנטישמי תוך 24 שעות. אלו לא תקלות – אלו תוצאות צפויות של תהליך פיתוח פגום.

מעגל הדיכוי הדיגיטלי

הסכנה הגדולה ביותר היא יצירת מעגלי משוב שמנציחים אי-שוויון. אלגוריתמים של שיטור חזוי שולחים יותר שוטרים לשכונות מוחלשות, מה שמוביל ליותר מעצרים, שמזינים חזרה את האלגוריתם עם נתונים שמחזקים את ההטיה המקורית. מערכות הערכת אשראי מענישות אנשים על מגורים בשכונות עניות, מה שמקשה עליהם לצאת ממעגל העוני.

בסין, מערכת הקרדיט החברתי משתמשת ב-AI כדי לדרג אזרחים על סמך התנהגותם. ציון נמוך יכול למנוע קניית כרטיס רכבת, רישום לאוניברסיטה או קבלת עבודה. זוהי דוגמה קיצונית לדרך שבה AI יכולה להפוך לכלי שליטה ודיכוי.

מניפולציה סמויה

אלגוריתמי המלצות בפלטפורמות כמו יוטיוב ופייסבוק מתוכננים לעודד מעורבות (כלומר לייקים, תגובות ושיתופים, כדי למשוך עוד אנשים לצפות בתוכן ובפרסומות הצמודות), ולא אמת או רווחה חברתית. הם מגלים שתכנים קיצוניים ומפלגים מושכים יותר תשומת לב, ולכן מקדמים אותם. התוצאה: רדיקליזציה, קיטוב חברתי והתפשטות של תיאוריות קונספירציה.

מערכות AI גם מסוגלות ליצור "בועות", שמחזקות דעות קיימות ומונעות חשיפה לנקודות מבט שונות. הן יכולות לתמרן רגשות, להשפיע על החלטות פוליטיות ולעצב את תפיסת המציאות שלנו בלי שנהיה מודעים לכך.

המירוץ לתחתית האתית

התחרות העזה בין חברות הטכנולוגיה יוצרת תמריצים להתעלמות מסיכונים אתיים. מודלי שפה גדולים משוחררים ללא הבנה מלאה של השפעותיהם. מערכות נשק אוטונומיות מפותחות למרות אזהרות מומחים. הרגולציה מפגרת בשנים רבות אחרי הטכנולוגיה.

הדרך קדימה

הפתרון אינו לזנוח את ה-AI, אלא לפתח אותה באחריות. הוא דורש צוותי פיתוח מגוונים, שקיפות אלגוריתמית, ביקורת אתית מתמדת ורגולציה אפקטיבית. חייבים לדרוש מחברות להסביר החלטות של AI, לאפשר ערעור אנושי ולפצות על נזקים שנגרמו מהחלטות מוטות או שגויות.

הטכנולוגיה עצמה אינה רעה או טובה – היא כלי שמשקף את הבחירות שלנו. אם נמשיך להתעלם מהצד האפל של AI, נמצא את עצמנו בעתיד שבו אלגוריתמים מנהלים את חיינו על פי הטיות וערכים מיושנים.

טעינו? נתקן! אם מצאתם טעות בכתבה, נשמח שתשתפו אותנו

כדאי להכיר