95% מהפיילוטים נכשלים: החברות הישראליות שמנסות להציל את מהפכת ה-AI הארגוני

מחקר MIT חשף כי רק 5% מפיילוטי הבינה המלאכותית בארגונים מגיעים לפריסה רחבה • AI21 Labs ו-Plurai פיתחו פתרונות לאמינות ויעילות שיכולים לשנות את כללי המשחק

בינה מלאכותית והשקעות בבורסה (אילוסטרציה). צילום: GettyImages

בחודשים האחרונים קשה למצוא ארגון שאינו מנסה לשלב בינה מלאכותית בפעילותו. בנקים וחברות פיננסיות בוחנים מערכות לייעול שירות הלקוחות ולזיהוי הונאות, תאגידי טכנולוגיה מפתחים כלים פנימיים לשיפור פרודוקטיביות הפיתוח, חברות בריאות מתנסות באבחון וסיכום מידע רפואי, ועסקים קמעונאיים מחפשים דרכים חדשות להתאים הצעות אישיות ללקוחות.

הפיילוטים מתרבים, המצגות זוהרות, ונדמה שכולם מחפשים את הדרך הנכונה לאמץ את הטכנולוגיה שתסמן את העשור הקרוב. ההבטחה עצומה: שיפור בפרודוקטיביות, חיסכון בעלויות ובכוח אדם, ויצירת יתרון תחרותי. אבל הדרך מהפיילוט להטמעה אמיתית מתגלה כקשה הרבה יותר משנדמה.

ביולי השנה פורסם המחקר שטלטל את התעשייה. מחקר MIT שכותרתו "פער ה-GenAI: מצב הבינה המלאכותית בעסקים 2025" טרף את הקלפים והפך במהרה לרפרנס מרכזי בכל דיון. הנתון המרכזי שעלה ממנו היה חד: רק כ-5% מהפיילוטים בתחום ה-GenAI בקרב ארגונים מצליחים להגיע לפריסה רחבה, בעוד 95% נעצרים בדרך. יש שראו בו סיכה שמפוצצת את בועת ההייפ, אחרים מצאו בו עידוד לכך שהתחום עוד בשלביו המוקדמים - אבל כולם הסכימו שהפער שחשף הוא נקודת השבר הגדולה ביותר של המהפכה.

השאלה מרחפת מעל כל כנס ותכנית השקעות: האם הבינה המלאכותית, שסחפה את העולם הצרכני בצ'אטבוטים נוצצים, באמת מצליחה לפרוץ אל תוך הארגונים הגדולים? עיון מעמיק בדוח של MIT ובמחקרים נוספים מגלה את הסיבות שבולמות את האימוץ במגזר הארגוני: הזיות שמערערות את האמון, חוסר שקיפות, קשיי אינטגרציה עם מערכות קיימות, וגם שאלות של ציות ורגולציה. בעוד שטעות של צ'אט צרכני מסתיימת בהרמת גבה או חיוך, טעות של מערכת ארגונית עלולה להוביל לנזק כספי של מיליונים, לפגיעה בלקוחות ואף לסיכון משפטי. זו הסיבה שארגונים מתקדמים בזהירות רבה, גם כשהפוטנציאל ברור.

למעשה, שאלת האימוץ הארגוני היא הגורלית ביותר - שכן רק פריסה אמיתית במגזר העסקי והממשלתי תוכל להצדיק את ההשקעות האדירות בבינה מלאכותית ולחולל את הטרנספורמציה הכלכלית המצופה.

AI21 Labs: מודל שפה שאפשר לסמוך עליו

AI21 Labs נחשבת לאחת החברות המבטיחות ביותר בזירת הבינה המלאכותית הגנרטיבית בישראל, ואולי גם הבולטת שבהן. היא נוסדה בשנת 2017 בידי פרופ' אמנון שעשוע, פרופ' יואב שוהם והמנכ"ל אורי גושן, וגייסה מאז יותר מ-300 מיליון דולר ממשקיעים ובהם גוגל ואנבידיה.

אורי גושן, AI21 labs, צילום: עומר הכהן

אם חשבתם שאין בישראל מי שמפתח מודלי שפה גדולים בקנה מידה עולמי, AI21 היא ההוכחה ההפוכה. היא החברה היחידה בארץ שמשחקת בליגה של הגדולות מול OpenAI, Cohere ו-Mistral. הנישה שבה פועלת החברה מתמקדת בשני אתגרים מרכזיים של אימוץ AI בארגונים: אמינות ויעילות.

"יש שני אתגרים שאנחנו מנסים לפתור", אומר המנכ"ל גושן ל"ישראל היום". "האחד הוא אמינות, כי מודלים הסתברותיים עלולים להחזיר תשובות לא נכונות, ולעשות זאת בביטחון מוחלט, וזה מסוכן מדי כשמדובר בשימושים קריטיים. השני הוא יעילות, כי אימוץ רחב של בינה מלאכותית דורש כוח חישוב עצום, והעלויות עלולות להפוך את כל המהלך לבלתי ישים בקנה מידה גדול".

לדבריו, גם ההתקדמות המרשימה בתחום עדיין לא פותרת את הבעיה. "המודלים השתפרו הודות לדאטה ולכוח מחשוב", מוסיף גושן, "אבל כשמדובר במערכות פיננסיות, בריאותיות או ביטחוניות, הם עדיין לא מדויקים מספיק. כדי להביא את ה-AI לעולם העסקי צריך לשלב בין גישה הסתברותית ליכולות דטרמיניסטיות. זו הדרך קדימה. זו גישה שנקראת 'נוירו-סימבוליק AI', ואנחנו מאמינים שזה הכיוון המבטיח ביותר".

גישה זו, נוירו-סימבוליקה, נולדה מתוך ההבנה שמודלי השפה הגדולים מבוססי רשתות נוירונים הם בעיקר הסתברותיים: הם יודעים לנבא את המילה הבאה, אבל לא תמיד שומרים על עקביות או כללים ברורים. החלק הסימבולי מוסיף לשכבה הזו עקרונות דטרמיניסטיים - חוקים לוגיים והגדרות חד-משמעיות - וכך נוצרת מערכת שגם לומדת מדאטה עצום וגם פועלת לפי כללים שניתנים לבקרה. במילים אחרות, זהו שילוב בין "המוח הימני" שמזהה תבניות באופן יצירתי, לבין "המוח השמאלי" שמקפיד על היגיון ודיוק.

Plurai: לבדוק את ה-LLM לפני שהוא פוגש את המציאות

עוד חברה ישראלית שמנסה לפתור את אותה בעיה, אלא מזווית אחרת, היא Plurai. בעוד AI21 בונה את המודלים הגדולים עצמם, Plurai מתמקדת בשאלה קריטית: איך לוודא שמודל שפה גדול או סוכן AI יתפקד כראוי כאשר הוא עובר לשלב היישומי במערכות הארגון. לשם כך פיתחה החברה את IntellAgent, מעין סימולטור מבוסס AI שמדמה אינטראקציות מורכבות ומריץ את המודלים מול תרחישים מגוונים. המטרה היא לחשוף באגים, לזהות כשלים ולוודא שהמערכת מתנהגת כפי שהארגון מצפה, גם מחוץ לסביבת הדמו.

אילן כדר, Plurai, צילום: יח"ץ

"חברות לא סומכות עדיין על פתרונות ה-AI", אומר ד"ר אילן כדר, מייסד וה-CTO של החברה. "מודל AI הוא כמו עובד זוטר; אם אי אפשר לסמוך עליו, אי אפשר לשים אותו מול לקוחות. היה לנו חשוב לבנות מערכת מורכבת שתאפשר בדיקה מקיפה ותגן עליהם גם בשלב היישום בפועל".

כדר מדגיש כי המירוץ אחר המודל החכם ביותר אולי מושך את תשומת הלב, אבל השאלה המכרעת היא מי יצליח לבנות את השכבות המשלימות - בדיקות, אמינות ויעילות - שבלעדיהן ארגונים פשוט לא יפתחו את הדלת בפני מערכות AI. "זה לא מספיק שיהיה מודל ברמה של דוקטורט", הוא אומר, "צריך לדעת לקחת את המנוע הזה ולהפוך אותו לאמין, לבנות מערכות שחוסכות עלויות ונותנות לארגון ביטחון שהמערכת תתנהג בדיוק כפי שהוא מצפה".

בסופו של דבר, שתי החברות הישראליות, AI21 ו-Plurai, מציעות פתרונות לשתי פנים של אותה בעיה. האחת בונה מודלים מתקדמים עם שאיפה ליעילות ואמינות, השנייה מפתחת את מנגנוני הבקרה שיבטיחו שהמודלים הללו יעמדו במבחן המציאות. יחד הן ממחישות כיצד האקוסיסטם המקומי מתמודד עם השאלה הגדולה ביותר של הבינה המלאכותית הארגונית: איך להפוך טכנולוגיה נוצצת לתשתית שאפשר לסמוך עליה.

טעינו? נתקן! אם מצאתם טעות בכתבה, נשמח שתשתפו אותנו

כדאי להכיר