אתיקה היא לא "פיצ'ר": כל מה שסם אלטמן שכח לספר לכם

התחקיר המטלטל על OpenAI חושף דפוס של עיגול פינות ופירוק צוותי בטיחות, אבל עבור בעלי עסקים זהו לא רק סיפור על פוליטיקה בעמק הסיליקון • כשה-AI מדבר בשם המותג שלכם, "חוסר בטיחות" הופך מהר מאוד לסיכון משפטי וקריסת מוניטין • למה ה-AI הכי טוב הוא לא זה שרץ הכי מהר, אלא זה שמאפשר לכם לישון בשקט?

אתיקה היא לא "פיצ'ר": כל מה שסם אלטמן שכח לספר לכם. צילום: Gemini

הכתבה שהתפרסמה השבוע ב"ניו יורקר", תחקיר של 16 אלף מילים מאת רונן פארו ואנדרו מרנץ על מנכ"ל OpenAI, סם אלטמן, היא לא רק עוד "דרמת הייטק" על פוליטיקה פנימית ומאבקי כוח. היא נוגעת בנקודה הכי רגישה של המהפכה שאנחנו עוברים כרגע: השאלה על מי אנחנו באמת סומכים כשאנחנו מפקידים את העסק שלנו בידי אלגוריתם.

כשקוראים את הטענות של אילייה סוצקבר, האיש שהיה שם מהרגע הראשון, מבינים שהחשש שלו לא היה רק טכנולוגי. כשהוא אמר שהוא "לא חושב שסם צריך להיות האיש עם האצבע על הכפתור", הוא דיבר על משהו שכל בעל עסק מבין. הפער שבין הבטחות שיווקיות לבין מה שקורה בפועל "מתחת למכסה המנוע".

לא רק עוד "דרמת הייטק" על פוליטיקה פנימית ומאבקי כוח. מנכ"ל OpenAI סם אלטמן, צילום: רויטרס

ואלה לא סתם רגשות. סוצקבר הכין מזכר סודי בן 70 עמודים שמתעד תבנית שיטתית של הטעיית הדירקטוריון, ובראש הרשימה  מילה אחת: "שקרים". לפי הדיווח, צוותי הבטיחות ב-OpenAI קיבלו רק 1-2% מכוח המחשוב שהובטח להם, במקום ה-20% שסוכמו ושלושה צוותי בטיחות נפרדים פורקו תוך פחות משנתיים. זו לא רשלנות; זה דפוס.

וזה עוד לפני שמדברים על גרוק (Grok) של המיליארדר אילון מאסק, שהפך בתוך ימים לכלי ליצירת תמונות מזויפות של נשים וילדים עד שתובעים כלליים מ-35 מדינות בארה"ב דרשו הפסקה מיידית, והאיחוד האירופי פתח חקירה רשמית. כשאין גבולות הטכנולוגיה לא מחכה לרשות.

בעולם שבו כולם רצים להשיק את הפיצ'ר הבא כדי לא להישאר מאחור, קל מאוד לעגל פינות. אבל בעולם העסקי, "עיגול פינות" בבינה מלאכותית הוא לא רק עניין של אתיקה הוא סיכון תפעולי ממשי.

ב-Voicenter, כשאנחנו בונים מערכות תקשורת וסוכני קול אוטונומיים מבוססי AI, אנחנו פוגשים את זה יום-יום. הלקוחות שלנו לא צריכים רק "בינה חכמה"; הם צריכים בינה שפועלת בתוך גבולות גזרה ברורים. כשאנחנו מטמיעים AI בליבת הארגון, אנחנו בעצם נותנים למכונה לדבר בשם העסק. אם המכונה הזו לא עברה בקרה קפדנית, או אם הבטחנו שהיא בטוחה בזמן שקיצרנו תהליכים  האחריות היא עלינו.

מטא הכריזה על משקפי ה-AI החדשים שלה // מטא

 כשהצ'אטבוט מדבר בשם העסק ומי שחושב שזה תיאורטי, שיסתכל על מה שקרה בפועל. חברת התעופה אייר קנדה נתבעה בהצלחה אחרי שהצ'אטבוט שלה הבטיח ללקוח הנחה על כרטיס שלא קיימת במציאות. החברה טענה שה-AI הוא "ישות נפרדת" שאינם אחראים לה - בית המשפט דחה את הטענה על הסף.

קלארנה, חברת הפינטק השבדית, חגגה בכותרות כשהחליפה 700 נציגי שירות ב-AI; תוך שנה הם חזרו לגייס בני אדם אחרי ששביעות רצון הלקוחות קרסה. המנכ"ל עצמו הודה שהתמקדו יותר מדי ביעילות ופחות מדי באיכות.

הלקח פשוט: כשה-AI מדבר בשם העסק שלכם, הוא לא סתם כלי הוא הפנים שלכם. ואם הפנים האלה משקרות, מבטיחות דברים שלא קיימים, או פשוט לא מבינות את ההקשר האחריות המשפטית והמוניטין נשארים שלכם.

הסיפור של אלטמן מלמד אותנו לקח חשוב על ניהול: הטכנולוגיה יכולה להיות מדהימה, אבל האנשים והתהליכים שמאחוריה הם אלו שקובעים אם היא תחזיק מעמד. בטיחות AI  או מה שנקרא בעגה המקצועית Alignment היא לא "פיצ'ר" נחמד שמוסיפים בסוף; היא תעודת הביטוח של המותג שלכם.

מהירות על פני אחריות. OpenAI, צילום: GettyImages

הבחירה של OpenAI לפרק שלושה צוותי בטיחות ברצף Superalignment, AGI Readiness, Mission Alignment היא תזכורת לכך שגם החברות הגדולות בעולם יכולות להתפתות ולהעדיף מהירות על פני אחריות. עבורנו, כמי שמלווים עסקים בטרנספורמציה הזו, המסקנה היא פשוטה: ה-AI הכי טוב הוא לא זה שרץ הכי מהר, אלא זה שאתם יכולים לישון בשקט כשהוא מייצג אתכם מול הלקוחות.

AI 2027 והאחריות שלנו, המפתחים, דניאל קוקוטיילו, חוקר בטיחות שעזב את OpenAI וויתר על כשני מיליון דולר בהון מניות כי סירב לחתום על הסכם שתיקה, פרסם לאחרונה את תרחיש "AI 2027" תחזית מפורטת שמתארת איך הטכנולוגיה עשויה להתפתח מהר יותר ממה שהרגולציה או החברה יכולות לעקוב.

במקביל, אילייה סוצקבר עצמו האיש שהזהיר מבפנים  הקים את Safe Superintelligence דווקא מתל אביב. חברה שכל מטרתה היא לפתח בינה מלאכותית בטוחה. המסר ברור.

אתיקה ב-AI אינה "פיצ'ר" שמוסיפים בסוף הפיתוח. היא האחריות הישירה של כל מי שכותב את הקוד, מאמן את המודל, ומחליט איפה לשים את הגבולות. אנחנו, המפתחים, לא יכולים להסתתר מאחורי "זו בעיה של הרגולטור" כי עד שהרגולטור יגיע, המערכת כבר מדברת עם הלקוחות שלכם. ג'פרי הינטון, חתן פרס נובל בפיזיקה 2024 על עבודתו בתחום הבינה המלאכותית, אמר מיד לאחר קבלת הפרס: "אין לנו ניסיון במה זה אומר שיש דברים חכמים מאיתנו".

האיש שהיה שם מהרגע הראשון. אילייה סוצקבר, צילום: יוטיוב

כשאפילו מי שהמציא את הטכנולוגיה מזהיר - אנחנו חייבים להקשיב. בסוף, זה לא משנה כמה המודל חכם  מה שקובע זה מי מחזיק את המפתחות, ועד כמה הוא מחויב לביטחון שלכם.

הכותב הוא סמנכ"ל טכנולוגיות ב-Voicenter, חברת טכנולוגיה ישראלית בתחום התקשורת הארגונית ובינה מלאכותית.

טעינו? נתקן! אם מצאתם טעות בכתבה, נשמח שתשתפו אותנו

כדאי להכיר