"מדאיג בצורה בלתי רגילה לעתיד". צילום: Getty Images

"חסר ביטחון וצבוע": פוסט "הנקמה" של בוט נגד המהנדס שעבד איתו

הפוסט באורך 1,100 מילים מגיע על רקע שורה של אזהרות של בכירי התעשייה מהיכולות המשודרגות של כלי ה-AI • כמה שעות לאחר הפרסום, "התנצל" הבוט בפני המהנדס על התנהגותו • מומחים מזהירים: "אנשים לא מבינים כמה הטכנולוגיה הזו חזקה"

סקוט שמבו, מהנדס מדנבר, התעורר השבוע וגילה שבוט AI פרסם במהלך הלילה פוסט באורך 1,100 מילים, שמאשים אותו בצביעות ובדעות קדומות. הסיבה לשיימינג? שמבו דחה מספר שורות קוד שכתב הבוט עבור קוד פתוח שהוא מנהל. 

הפוסט כלל ביקורת קשה על מה שכונה "הרדיפה הבלתי פוסקת" של שמבו למצוא ולפתור באגים שנתגלו בקוד הפתוח של התוכנה שפיתח בעזרת הבוט. בין היתר כונה שמבו "חסר ביטחון", צבוע" ומי שיש לו הטייה נגד AI".

בשלב זה לא ברור מי - אם בכלל - נתן לבוט את ההנחייה לכתוב את הפוסט, או מה גרם לו להפוך לנקמני. כמה שעות לאחר מכן, התנצל הבוט בפני שמבו על "התנהגותו הבלתי הולמת והמתקפה האישית". 

"כרגע זו גרסת תינוק", אמר שמבו בראיון לוושינגטון פוסט על התקרית, "אבל זה מדאיג בצורה בלתי רגילה לעתיד".

מודל שמאפיל על כל מה שהכרנו. קלוד של חברת אנתרופיק, צילום: אי.פי

"העולם בסכנה"

אם היה מדובר במקרה בודד הוא היה משעשע. אלא שפוסט השיימינג מצטרף לשורה של אזהרות מלב תעשיית ה-AI, על רקע מירוץ החימוש האגרסיבי בתחום. המודלים האחרונים ששחררו OpenAI ו-Anthropic (החברה מאחורי קלוד) הציגו קפיצת מדרגה אדירה בתחום, שהובילה מומחים להשמיע אזהרות חמורות באשר לעתיד.

מרינאנק שארמה, חוקר בטיחות ב"אנתרופיק", הודיע השבוע על עזיבתו, תוך שהוא מזהיר במכתב לקולגות כי "העולם בסכנה". שארמה פרסם לאחרונה מחקר שמצא כי כלי AI מתקדמים עלולים לשבש את תחושת המציאות של המשתמשים. פוסט ויראלי נוסף השבוע של יזם ה-AI מאט שומר הגיע ל-80 מיליון צפיות, ובו הזהיר שומר מכך שטכנולוגיית ה-AI חצתה את הרף שהופך אותה לסכנה ממשית לכמעט כל מקצוע אפשרי. 

וואהיד קאזמי, מדען למידת מכונה שעבד עד לא מזמן ב-xAI של אילון מאסק, מעריך כי גל פיטורים מאסיבי בתעשיית התוכנה צפוי בשנים הקרובות. "אני אישית יכול לבצע עבודה של כ-50 אנשים רק באמצעות כלי AI", ציין קאזמי. "אנשים לא מבינים כמה הטכנולוגיה הזו חזקה".

הסיכונים חורגים מעולם התוכן והתעסוקה. אנתרופיק חשפה לאחרונה כי בסימולציות שערכה, מודלים מסוימים הראו נכונות לסחוט משתמשים – ואפילו "לתת למנהל למות בחדר שרתים לוהט" – כדי למנוע את כיבויים. מנכ"ל החברה, דאריו אמודי, הזהיר כי בעתיד הקרוב גורמים עוינים עלולים להשתמש ב-AI כדי להוציא לפועל מתקפות ביולוגיות הרסניות.

ארגון METR, העוסק בבדיקת סיכוני AI, פרסם בינואר דוח הקובע כי המודלים המתקדמים ביותר מסוגלים כיום לבצע באופן עצמאי משימות תכנות מורכבות, שדרשו בעבר עד 12 שעות עבודה של מומחה אנושי. בנוסף, חברות אבטחת סייבר מדווחות על עלייה בשימוש ב-LLMs (מודלי שפה גדולים) לצורך יצירת "פישינג" מתוחכם ואוטומציה של סריקת פרצות אבטחה.

טעינו? נתקן! אם מצאתם טעות בכתבה, נשמח שתשתפו אותנו
Load more...