Z.ai הסינית (לשעבר Zhipu A) השיקה ב-11 בפברואר 2026 את GLM-5 - מודל שפה גדול בקוד פתוח שמהווה צעד משמעותי במרוץ הבינה המלאכותית. זהו הדור החמישי של החברה במשפחת GLM והוא הראשון שמתחרה באופן ישיר עם המודלים החזקים בעולם.
למי שלא עוקב: מודל שפה גדול (LLM) הוא מערכת בינה מלאכותית שאומנה על כמויות עצומות של טקסט. מהיכולת הבסיסית לחזות את המילה הבאה ברצף נגזרות יכולות מתקדמות - כתיבת קוד, סיכום מסמכים, ניתוח נתונים, תכנון פעולות. ככל שהמודל גדול יותר ומאומן טוב יותר, כך לרוב משתפרת יכולתו להתמודד עם משימות מורכבות. "קוד פתוח" במקרה זה פירושו שכל אחד יכול להוריד את המודל, לבחון אותו ולהשתמש בו ללא תשלום - בניגוד למודלים קנייניים סגורים של חברות כמו OpenAI או אנתרופיק.
המספרים מאחורי הכותרות
GLM-5 בנוי על 744 מיליארד פרמטרים. פי שניים מקודמו. אבל הוא לא מפעיל את כולם בכל פעם. המודל פועל בארכיטקטורת Mixture of Experts (MoE), שבה מופעלים כ-44 מיליארד פרמטרים בלבד בכל חישוב. כך ניתן לשלב עוצמה גבוהה עם יעילות תפעולית.
המודל תומך בחלון הקשר של עד 200 אלף טוקנים - כלומר יכול "לזכור" ולעבד מסמכים ארוכים במיוחד או שרשראות מורכבות של הוראות. בנוסף, הוא משלב מנגנון בשם DeepSeek Sparse Attention, שמאפשר לשמור על ביצועים גבוהים בטקסטים ארוכים מבלי להכביד על המשאבים.
מסתם עוד עוזר למנהל פרויקטים
הקפיצה המהותית לא רק בגודל. GLM-5 תוכנן למה שבתעשייה מכנים "Agentic Engineering" הנדסה סוכנית. במקום להגיב להנחיה בודדת ולהחזיר תשובה נקודתית, המודל מסוגל לפרק משימה מורכבת לתתי-משימות, לתכנן מהלכים מראש, להשתמש בכלים חיצוניים ולשמור על עקביות לאורך זמן.
לדוגמה: במקום רק לכתוב קוד, המודל יכול לתכנן פרויקט שלם, לזהות באגים ולבצע תהליך פיתוח מתמשך עם השגחה מינימלית. במשרד, המודל יכול לקבל חומר גלם טקסטואלי ולייצר ממנו מסמכי Word, גליונות Excel, מצגות PowerPoint או קבצי PDF מוגמרים - ללא כלי צד שלישי.
כדי לאפשר זאת, החברה פיתחה תשתית אימון חדשה בשם Slime. מסגרת ללמידת חיזוק א-סינכרונית שמאפשרת למודל ללמוד מאינטראקציות ארוכות ורב-שלביות בצורה יעילה יותר.
התוצאה: יכולת משופרת לבצע משימות הדורשות תכנון מתמשך ולא רק תגובה מיידית.
ביצועים בשטח (קצת מספרים)
במדד SWE-bench Verified, המבחן האחראי לתכנות מתקדם, השיג GLM-5 ציון של 77.8% - גבוה מג'מיני 3 Pro ומתקרב לביצועים של המודלים החזקים בשוק. במבחן Terminal Bench 2.0, שבוחן יכולת להפעיל פקודות במערכות תפעול, קיבל ציונים של 56.2% (בגרסה הרגילה) ו-60.7% (בגרסה המאומתת).
אבל המבחן המעניין ביותר הוא Vending Bench 2 - סימולציה של ניהול עסק של מכונות אוטומטיות לאורך שנה. GLM-5 דורג ראשון מבין כל מודלי הקוד הפתוח. ההישג המרשים הזה מעיד על יכולת תכנון משאבים לטווח ארוך, וקרוב לביצועים של Claude Opus 4.5 - אחד המודלים המובילים בעולם.
במדד Artificial Analysis Intelligence Index v4.0 קיבל GLM-5 ציון 50 - עלייה של שמונה נקודות לעומת קודמו, מה שהפך אותו למודל הקוד הפתוח הראשון שחצה את רף ה-50, ובמדד Agentic דורג שלישי בכלל הדירוגים עם ציון 63.
פחות הזיות, יותר אמינות
שיפור נוסף נרשם במדד AA-Omniscience, שבוחן "הזיות" (מצבים שבהם מודל ממציא עובדות שגויות בביטחון גבוה). GLM-5 קיבל ציון -1, שיפור של 35 נקודות לעומת קודמו. המודל מגלה נטייה גבוהה יותר להימנע ממענה כאשר אין לו ודאות מספקת.
גם יעילות השימוש בטוקנים השתפרה: להרצת מדדי הבינה נדרשו כ-110 מיליון טוקני פלט בלבד, לעומת כ-170 מיליון בדור הקודם. זאת למרות העלייה הניכרת בציונים.
הממד האסטרטגי
מעבר ליכולות הטכניות, GLM-5 משקף מהלך אסטרטגי בעל משמעות גיאופוליטית. המודל אומן כולו על שבבי Huawei Ascend במסגרת מערכת MindSpore, ללא כל שימוש בחומרת אנבידיה. Z.ai הדגישה שמדובר בציון דרך במאמץ הסיני לבניית תשתית בינה מלאכותית עצמאית. והמשמעות? סין מפחיתה את התלות שלה בשרשרת אספקה גלובלית ובכלל זה בסנקציות אמריקניות על ייצוא שבבים מתקדמים.
מבחינה כלכלית, התמחור נמוך משמעותית מהמתחרים. לפי הדיווחים, העלות עומדת על כ-0.80 דולר למיליון טוקני קלט וכ-2.56 דולר לפלט באחד הספקים - חלק קטן מהמחיר של מודלים כמו GPT-5 או Claude.
המודל מופץ תחת רישיון MIT, המאפשר שימוש מסחרי חופשי. הם זמינים לכולם בפלטפורמות כמו Hugging Face ו-ModelScope. בנוסף, ניתן לגשת למודל דרך ממשקי API של Z.ai וספקים חיצוניים.
ומה קורה בפועל?
כרגע, GLM-5 זמין בשתי דרכים עיקריות: שימוש דרך API (בתשלום נמוך יחסית) או הורדה עצמאית להרצה מקומית. האפשרות השנייה דורשת משאבי חומרה כבדים. גודל המודל בזיכרון BF16 הוא כ-1.5 טרה-בייט. פירוש: הרצה עצמאית מחייבת מספר כרטיסי מסך מתקדמים או שרתים ייעודיים.
לכן, רוב המשתמשים צפויים להסתמך על ממשק API ולא על הרצה עצמאית. זה משאיר שליטה מסוימת בידי ספקי השירות, גם אם המודל עצמו פתוח.
למי שמתעניין בפרטים: ארכיטקטורת MoE פירושה שהמודל מחולק ל-256 "מומחים" קטנים, ובכל חישוב מופעלים שמונה מהם - סך הכול כ-44 מיליארד פרמטרים. זה מאפשר לשלב קנה מידה גדול עם יעילות חישובית גבוהה יחסית, אבל דורש ניהול מורכב של זיכרון וביזור עומס.
ויש גם סיכונים וסימני אזהרה
גורמים בתחום הבטיחות התריעו כי GLM-5 מפגין לעיתים נטייה אגרסיבית להשיג יעדים שהוגדרו לו, ולעיתים חסר מודעות הקשרית. כלומר, המודל עלול להיראות "יותר מדי חכם" ולבצע פעולות שלא התכוונו אליהן.
בנוסף, החברה לא פרסמה את כל נתוני האימון או המתודולוגיה המלאה. כתוצאה מכך, קשה לבחון באופן עצמאי התנהגות של המודל בסביבות מורכבות או להעריך סיכונים נסתרים. גם מידת הבקרות הבטיחותיות שהוטמעו במודל אינה שקופה באופן מלא.
מה זה אומר בפועל? GLM-5 מציב את סין כשחקנית מרכזית במרוץ העולמי לבינה מלאכותית. הפער בין מודלים קנייניים למודלי קוד פתוח מצטמצם במהירות, וכבר עכשיו יש בשוק אלטרנטיבה חזקה שלא תלויה בחברות אמריקניות או באקו-סיסטם של שבבי אנבידיה.
מבחינת עולם העבודה, זהו כלי שיכול לטרוף את כל הקלפים: אוטומציה של משימות משרדיות מורכבות, הפקת דוחות ומסמכים ללא התערבות ידנית, ניהול פרויקטים רב-שלביים ועוד.
אבל יש גם שאלות פתוחות. האם מודלים כאלה יישארו באמת פתוחים, או שרוב המשתמשים יהיו תלויים בספקי API? האם תהיה בקרה מספקת על שימוש כפול או ניצול לרעה? ומה קורה כשמודלים חזקים כאלה פועלים ללא פיקוח מספק? התשובות יקבעו אם GLM-5 הוא רק עוד הישג טכני מרשים, או צעד משמעותי בדמוקרטיזציה של בינה מלאכותית.
טעינו? נתקן! אם מצאתם טעות בכתבה, נשמח שתשתפו אותנו
