OpenAI מזהירה: המודלים החדשים שלנו עלולים לפתח כלי פריצה מתקדמים

החברה מכריזה על מערך הגנות חדש כנגד שימוש לרעה במודלים שלה, כולל כלים להגנה על קוד פתוח ומועצת ייעוץ של מומחי אבטחה - בעוד היכולות בתחום הסייבר משתפרות בקצב מהיר

ChatGPT של OpenAI. היכולות של המודלים בתחום הסייבר משתפרות במהירות ניכרת. צילום: GettyImages

OpenAI, החברה שיצרה את ChatGPT, פרסמה אתמול (רביעי) הודעה בבלוג שלה, שבה היא מזהירה שמודלי ה-AI הבאים שלה עלולים להגיע לרמת יכולת "גבוהה" בתחום אבטחת המידע - כלומר, יוכלו לפתח כלי פריצה מתקדמים או לסייע במבצעי חדירה מורכבים. החברה, הנתמכת על ידי מיקרוסופט, מפרטת את האתגרים והפתרונות שהיא מפתחת להתמודדות עם הסיכונים.

לפי OpenAI, היכולות של המודלים בתחום אבטחת המידע משתפרות במהירות ניכרת: מ-27 אחוז בתחרויות Capture the Flag (תחרויות פתרון אתגרי סייבר) במודל GPT-5 באוגוסט 2025, ל-76 אחוז במודל GPT-5.1-Codex-Max בנובמבר 2025. החברה מסבירה שהיא מתכוננת לאפשרות שכל מודל חדש יוכל לפתח ניצול של פרצות אבטחה שטרם התגלו (המכונות Zero-Day) במערכות מוגנות, או לסייע במבצעי חדירה חשאיים ומורכבים למערכות ארגוניות או תעשייתיות.

"אנחנו מצפים שמודלי בינה מלאכותית עתידיים ימשיכו במגמה הזו", כותבת החברה. "כהכנה, אנחנו מתכננים ומעריכים כאילו כל מודל חדש עשוי להגיע לרמות גבוהות של יכולת בתחום אבטחת המידע, כפי שנמדד על ידי מסגרת המוכנות שלנו".

ChatGPT. החברה מאמנת את המודלים לסרב או להגיב בצורה בטוחה, צילום: AP

"צופים ניצול לרעה מכל מודל מתקדם בתעשייה"

OpenAI מפתחת גישה של "הגנה לעומק" המשלבת לדבריה בקרות גישה, חיזוק תשתיות, בקרות על יציאת מידע ומערכות ניטור. החברה מסרה כי היא מאמנת את המודלים שלה לסרב או להגיב בצורה בטוחה לבקשות שעלולות לשמש למטרות זדוניות, תוך שמירה על יכולת לעזור בשימושים לגיטימיים של חינוך והגנה.

בנוסף, החברה משיקה מספר יוזמות חדשות: תוכנית גישה מיוחדת למשתמשים המתמחים בהגנת מידע, שתאפשר להם גישה מדורגת ליכולות משופרות במודלים האחרונים למטרות הגנה; את Aardvark - מערכת אוטונומית שעוברת כעת שלב ניסוי פרטי ועוזרת למפתחים ולצוותי אבטחה למצוא ולתקן פרצות בקנה מידה גדול; ומועצת ייעוץ חדשה בשם Frontier Risk Council שתכלול מומחי הגנה מנוסים שיעבדו בשיתוף הדוק עם צוותי החברה.

לפי החברה, Aardvark כבר הצליח לזהות פרצות אבטחה חדשות בתוכנות קוד פתוח (המסומנות כ-CVE), והחברה מתכננת להציע שירות חינמי למאגרי קוד פתוח נבחרים שאינם מסחריים כדי לתרום לאבטחת מערכת התוכנות וגם שרשרת האספקה שלה.

החברה מדגישה שהיא עובדת עם חברות AI מובילות אחרות דרך ארגון בשם Frontier Model Forum - ארגון ללא כוונת רווח הנתמך על ידי מעבדות AI מובילות ושותפים בתעשייה - כדי לפתח הבנה משותפת של מודלי איומים ושיטות עבודה מומלצות. "אנחנו צופים שניצול לרעה בתחום אבטחת המידע יהיה אפשרי מכל מודל מתקדם בתעשייה", כותבת OpenAI. "כדי להתמודד עם זה, אנחנו עובדים יחד עם מעבדות אחרות".

המטרה המוצהרת של החברה היא להבטיח שהמודלים שלה יספקו יתרונות משמעותיים לצוותי ההגנה, שלעתים קרובות נמצאים במיעוט מספרי ובמחסור במשאבים מול התוקפים. "זו עבודה מתמשכת, ואנחנו מצפים להמשיך לפתח את התוכניות האלה תוך כדי למידה מה מקדם בצורה היעילה ביותר את האבטחה בפועל", מסכמת החברה.

טעינו? נתקן! אם מצאתם טעות בכתבה, נשמח שתשתפו אותנו

כדאי להכיר