חברת אנתרופיק, המפתחת של מודל הבינה המלאכותית קלוד, תוקפת בחריפות שלוש מעבדות AI סיניות מובילות: DeepSeek, Moonshot AI ו-MiniMax. החברה מאשימה כי השלוש הפעילו רשת של עשרות אלפי חשבונות פיקטיביים במטרה "לשאוב" מידע ולשפר את הביצועים של המודלים שלהן על חשבון הטכנולוגיה שפיתחו באנתרופיק.
הפיצ'ר ששיגע את המשתמשים: ניתן לערוך חיפוש באינטרנט
לדברי החברה, DeepSeek, Moonshot AI ו-MiniMax ביצעו 16 מיליון אינראקציות עם קלוד באמצעות 24 אלף חשבונות מזויפים, על מנת להפעיל ליישם טכניקה שמכונה "זיקוק" (distillation), במסגרתה מודלים מתקדם פחות מאומן באמצעות פלטים של מודל חזק יותר.
בהודעה שפרסמה אנתרופיק נמסר כי "התחכום והתכיפות של מהלכים מסוג זה נמצאת בצמיחה. החלון לפעולה צר, והאיום גדול יותר מחברה אחת או מאזור אחד. התמודדות אתו דורשת פעולה מהירה ומתואמת של החברות, קובעי מדיניות וקהילת ה-AI העולמית".
מה זה אומר? "זיקוק" (Distilling) של מודל AI, פירושו שידע שפותח על ידי המומחים לאורך אלפי שעות עבודה, ובהשקעה של מיליארדי דולרים, מועבר בקלות ובמהירות לידי הגורם המזקק. או במילים אחרות - נגנב.
המספרים בדוח של אנתרופיק מצביעים על מבצע בהיקפים מפחידים. לפי הדוח, חברת MiniMax רשמה כ-13 מיליון אינטראקציות עם המודל במטרה לפתח סוכני AI לכתיבת קוד. Moonshot AI ביצעה כ-3.4 מיליון אינטראקציות, ששימשו לאימון סוכני AI, כתיבת קוד, ניתוח דאטה ועוד. DeepSeek ביצעה כ-150 אלף אינטראקציות דומות. בין השאר, אומרים באנתרופיק, כי אלה נועדו ליצור חלופות נטולות צנזורה לשאילתות רגישות.
איך זה עובד?
הפעולה יחסית פשוטה. התוקף שולח למודל מיליוני פרומפטים (שאלות, הנחיות, הוראות) ואוסף את התשובות, ההסברים, תהליכי ההסקה, דוגמאות הקוד ועוד. הפרומפט נשלח עשרות אלפי פעמים מחשבונות שונים שמתחזים למשתמשים תמימים. בתהליך נוצרים זוגות אימון, שבתורם יוצרים מאגר דאטה זמין.
חשוב להבין שלא מדובר בהעתקה של תשובות (או נתונים) אלא דרך החשיבה של המודל. בסיום התהליך, התוקף מעביר את המודל שלו תהליך למידה נוסף כדי לוודא שהוא עקבי בתשובותיו.
אנתרופיק היא לא היחידה שנפגעת מהניסיונות. OpenAI דיווחה על מקרים דומים. במזכר ששלחה החברה לקונגרס נטען כי חברות סיניות משתמשות בזיקוק כדי להעתיק מודלים אמריקניים מתקדמים.
טעינו? נתקן! אם מצאתם טעות בכתבה, נשמח שתשתפו אותנו