נשק יום הדין או קו ההגנה האחרון? OpenAI חושפת את GPT-5 Cyber. צילום: Gemini

אחרי אנתרופיק: OpenAI חושפת את ה-ChatGPT ה"מסוכן מדי" שלה

בזמן שהעולם מעכל את המודלים החדשים, OpenAI מבצעת מהלך אסטרטגי ומשיקה את גרסת ה-Cyber של GPT-5 • עם יכולות פריצה ותיקון קוד אוטומטיות, המודל החדש מעורר פחד ותקווה במקביל • האם מדובר בנשק המושלם בידיים הלא נכונות?

בעוד העולם עדיין מעכל את היכולות של סדרת המודלים o1, חברת OpenAI מבצעת מהלך אסטרטגי מפתיע ומכריזה על GPT-5-4 Cyber. זהו אינו סתם עדכון גרסה נוסף, אלא המודל הראשון של החברה שנבנה מהיסוד עם מטרה אחת ברורה: שליטה מוחלטת והבנה עמוקה של עולם אבטחת המידע והתשתיות הדיגיטליות.

מה הופך את "Cyber" למיוחד?

בניגוד למודלים הקודמים שהיו רב-תכליתיים, GPT-5-4 Cyber עבר אימון ייעודי (Fine-tuning) על מאגרי נתונים עצומים של קוד מקור, פרוטוקולי תקשורת, דפוסי תקיפה וארכיטקטורות אבטחה.

בלי לכתוב שורת קוד: ה-AI שיכול לפרוץ לשרתים שלכם, צילום: Gemini

המודל החדש לא רק "יודע" לכתוב קוד, אלא מסוגל להבין את הלוגיקה שמאחורי פרצות אבטחה מורכבות ברמה שעד כה הייתה שמורה להאקרים אנושיים מהשורה הראשונה.

החידוש המרכזי במודל הוא היכולת שלו לפעול כ"סוכן אוטונומי" (Agentic AI). הוא מסוגל לקבל משימה כמו "בדוק את החוסן של שרת ה-SQL הזה", ובאופן עצמאי להריץ סדרת בדיקות, לזהות חולשות ולייצר דוח המלצות לתיקון בתוך שניות ספורות.

הגנה אקטיבית מול איומים מתפתחים

עבור אנשי ה-Blue Team (מגיני הסייבר), המודל החדש הוא בגדר מהפכה. אתר גאדג'טי מדווח כי המודל מצטיין בניתוח איומים בזמן אמת: יכולת לסרוק לוגים (Logs) של רשתות ענק ולזהות דפוסים חריגים שמעידים על תחילתה של מתקפת Zero-day, עוד לפני שהיא גורמת נזק.

בנוסף, מתכנתים יכולים להזין למערכת קוד של אפליקציה, והמודל יזהה חולשות אפשריות (כמו SQL Injection או Cross-Site Scripting) ויציע קוד חלופי ומאובטח באופן מיידי. כמו כן, ארגונים יוכלו להשתמש במודל כדי "לתקוף את עצמם" בסביבה סטרילית, ובכך לחשוף נקודות תורפה לפני שגורמים עוינים ינצלו אותן.

נשק בידי האקרים? אנתרופיק ו-OpenAI, צילום: רויטרס

הדילמה המוסרית: נשק בידי האקרים?

כפי שקורה בכל פעם שמושק כלי עוצמתי כל כך, עולה השאלה המתבקשת: מה ימנע מהאקרים להשתמש ב-GPT-5-4 Cyber כדי ליצור נוזקות (Malware) מתוחכמות מאי פעם?

OpenAI הצהירה כי הטמיעה במודל שכבות אבטחה ו"מעקות בטיחות" (Guardrails) חסרי תקדים. המודל מסוגל לזהות אם הבקשה המופנית אליו נועדה למטרות זדוניות (כמו כתיבת קוד לכופרה) ולסרב לה. עם זאת, מומחים בתחום מזהירים כי האקרים יצירתיים תמיד ינסו למצוא "פרצות ב-AI" (Jailbreaking) כדי לעקוף את המגבלות הללו.

המודל החדש צפוי להיות זמין תחילה דרך ממשק ה-API עבור לקוחות ארגוניים, ובמיוחד עבור שותפתה הגדולה של OpenAI - מיקרוסופט. סביר להניח שנראה את היכולות הללו משתלבות בתוך שירותי ה-Defender וה-Azure של ענקית התוכנה, מה שיהפוך את הבינה המלאכותית לקו ההגנה הראשון של מיליוני מחשבים ושרתים בעולם.

השקת GPT-5-4 Cyber מסמנת את תחילתו של עידן חדש במלחמת החימוש הדיגיטלית. מצד אחד, הוא מעניק למגינים כוח חישוב וניתוח שהיה דמיוני עד לפני שנה. מצד שני, הוא מציב אתגר עצום בפני הרגולטורים וחברות האבטחה שצריכים להבטיח שהכוח הזה יישאר בצד הנכון של החוק.

מנכ"ל OpenAI סם אלטמן, צילום: רויטרס

המסר של OpenAI ברור: הבינה המלאכותית כבר לא רק עוזרת לנו לכתוב מיילים או לסכם מאמרים - היא הופכת לשומר הסף של העולם המקוון שלנו.

טעינו? נתקן! אם מצאתם טעות בכתבה, נשמח שתשתפו אותנו
Load more...