כמו בתחומים רבים אחרים, הבינה המלאכותית משנה מן היסוד את האופן שבו ארגונים ואנשים פועלים, מקבלים החלטות ומעצבים מציאות. לצד היתרונות הרבים, המפגש בין טכנולוגיות מתקדמות, מידע רגיש ומערכות אוטומטיות מייצר גם סיכונים חדשים ושאלות ערכיות מורכבות. לכן, אין זה מפתיע שהדיון הציבורי סביב רגולציה של בינה מלאכותית הולך ומתרחב.
ממשלות, רגולטורים וגופים בינלאומיים מנסים להדביק את קצב החדשנות. אלא שהאתגר המרכזי אינו בהכרח בתוכן הרגולציה, כי אם בפער המובנה בינה לבין המציאות הטכנולוגית. הטכנולוגיה מתקדמת מהר יותר מכל מסגרת משפטית שמנסה להסדיר אותה.
בעולמות שבהם מערכות מבוססות AI פועלות בליבת תהליכים קריטיים, הפער הזה מזמן אינו תיאורטי. מערכות אוטומטיות משפיעות כבר היום על קבלת החלטות בזמן אמת, על ניהול סיכונים ועל תהליכים שבעבר היו אנושיים לחלוטין. בעולמות הסייבר והביטחון, אך גם בתחומים אזרחיים, קצב הפעולה של מערכות כאלה לעיתים אינו מאפשר התערבות אנושית מיידית.
המיקוד הכפול של הרגולציה
למאמצי הרגולציה הנוכחיים מיקוד כפול. מצד אחד, יש ניסיון להסדיר את המעורבות האנושית בפעולות רגישות שמערכות AI מסוגלות לבצע באופן עצמאי. אלא שפעמים רבות נדרשת פעולה מיידית, ודרישה נוקשה למעורבות אנושית לפני ביצוע פעולות משמעותיות עלולה לשלול את יתרונות האוטומציה של הבינה המלאכותית, שבגללם היא כה מבוקשת מלכתחילה.
בינה מלאכותית אינה מערכת סטטית. היא מתאמנת, משתפרת ומשתנה לאורך זמן, ולעיתים מפתחת דינמיקה שקשה לחזות מראש.
מצד שני, יש ניסיון להסדיר את האופן שבו מערכות בינה מלאכותית מפותחות ואת הגדרות הפעולה שלהן בעת יציאתן אל העולם. אלא שגם כאן, הגישה הרגולטורית מתקשה לתת מענה מלא. בינה מלאכותית אינה מערכת סטטית. היא מתאמנת, משתפרת ומשתנה לאורך זמן, ולעיתים מפתחת דינמיקה שקשה לחזות מראש.
האחריות אינה נעלמת - היא משנה מיקום
בהיעדר רגולציה מתאימה ואפקטיבית, האחריות עוברת פנימה, אל הארגונים שמפתחים את הטכנולוגיה ואל האנשים שמעצבים את אופן פעולתה. ארגונים שמפתחים ומשתמשים ב-AI אינם יכולים להסתפק בהצהרות ערכיות כלפי חוץ, או בהסתמכות על האחריות האישית של מפתחים. נדרשת אחריות מובנית, שמתורגמת לאחריות ניהולית ברורה, להגדרת תחומי האחריות, לתהליכים סדורים ולתרבות עבודה המודעת לחשיבות פיתוח ושימוש בטוחים ואתיים של בינה מלאכותית.
בעולם שבו הרגולציה החיצונית מתקשה להדביק את קצב החדשנות, ארגונים נדרשים לפתח מנגנונים פנימיים של משילות AI שאינם רק משפטיים, אלא גם טכנולוגיים, ובעיקר אנושיים ומבניים.
זה מתחיל כבר בבחירת האנשים. גיוס בעולמות ה-AI אינו עוסק רק במצוינות טכנולוגית, אלא גם בבגרות מקצועית ואנושית. הכשרות אינן נועדות רק לשפר יכולות, אלא לפתח שיקול דעת. ומנהלים נדרשים לא רק להוביל לביצוע, אלא לדעת לעצור, לשאול שאלות רלוונטיות ולהחזיק אחריות גם במצבים מורכבים.
יצירת אחריות ארגונית בתחום הפיתוח והשימוש ב-AI איננה רק הדבר הנכון לעשות. בצידה יתרונות עסקיים משמעותיים - בראשם בניית אמון מול לקוחות
אחריות גם משתלמת
החלטה טכנולוגית בחברה מסחרית היא גם החלטה עסקית, והיא עשויה להשפיע על יציבותה או עתידה של החברה. יצירת אחריות ארגונית בתחום הפיתוח והשימוש ב-AI איננה רק הדבר הנכון לעשות. בצידה יתרונות עסקיים משמעותיים - בראשם בניית אמון מול לקוחות. אמון אינו נבנה רק מיכולות טכנולוגיות, אלא מתוך הידיעה שיכולות אלה בטוחות לשימוש ואינן מסכנות את המשתמש הקצה.
כל עוד הטכנולוגיה מקדימה את החוק, דבר שלא צפוי להשתנות, לא ניתן להסתפק באסדרה מחוץ לארגון. האחריות חייבת להימצא גם בתוך הארגונים עצמם, ולבוא לידי ביטוי באופן שבו הם בוחרים לנהל אנשים, תהליכים והשפעה. בעידן שבו בינה מלאכותית הופכת לכלי מרכזי בעיצוב המציאות שבה אנו חיים, האחריות לכך שתהיה בטוחה אינה עניין לרגולציה בלבד. האחריות חייבת להיות גם פנים-ארגונית - לא רק משום שכך ראוי, אלא גם משום שכך נכון לפעול.
אורית אזרזר היא Chief People Officer בחברת דרים ואילן גרינשטיין הוא יועץ משפטי ראשי וסמנכ"ל פיתוח תאגידי בחברת דרים
טעינו? נתקן! אם מצאתם טעות בכתבה, נשמח שתשתפו אותנו