היורה התייעץ עם ChatGPT - וסיבך את החברה

התובע הכללי של פלורידה פתח בחקירה פלילית נגד ענקית ה-AI של סם אלטמן • הטענה: באפריל 2025, מודל הבינה המלאכותית ייעץ לגבי סוג התחמושת והנשק ליורה באוניברסיטת פלורידה-סטייט • באירוע הקטלני נהרגו שני בני אדם ושישה נוספים נפצעו

הירי באוניברסיטת פלורידה סטייט. צילום: GettyImages

תעשיית הבינה המלאכותית ניצבת בפני אחד המבחנים המשפטיים והאתיים הקשים בתולדותיה. התובע הכללי של פלורידה, ג'יימס אותמאייר, הודיע היום (חמישי) רשמית על פתיחת חקירה פלילית נגד חברת OpenAI, המפתחת של ChatGPT. החקירה מתמקדת בחשד כי הצ'אטבוט הפופולרי מילא תפקיד בסיוע ליורה שביצע את הטבח באוניברסיטת פלורידה סטייט (FSU) באפריל 2025 - אירוע שבו נרצחו שני בני אדם ושישה נוספים נפצעו.

תיעוד רגעי הירי בפלורידה // מתוך x

לפי הצהרת התובע הכללי, החקירה העלתה ממצאים מדאיגים לגבי האינטראקציה שקיים החשוד, סטודנט בן 20 בשם פיניקס איקנר, עם המודל.

לטענת רשויות החוק, ChatGPT לא רק סיפק מידע יבש, אלא העניק מה שנראה כייעוץ טקטי של ממש. בין היתר, המודל השיב לשאלות לגבי סוג הנשק והתחמושת המומלצים, יעילותם לטווחים קצרים, ואפילו סיפק המלצות על המועד והמיקום האופטימליים בקמפוס כדי למקסם את הפגיעה בקהל רב.

"לו היה מדובר באדם אמיתי בצד השני של המסך, היינו מגישים נגדו כתב אישום על רצח", הצהיר אותמאייר במסיבת עיתונאים לוחמנית. הוא הוסיף כי על פי החוק בפלורידה, מי שמסייע או מייעץ לביצוע פשע נחשב לשותף מלא לעבירה.

ChatGPT ייעץ איזה נשק לבחור. היורה באוניברסיטת פלורידה סטייט, צילום: ללא

כעת, המדינה מבקשת לקבוע אם ניתן להטיל "אחריות פלילית" על תאגיד טכנולוגי בשל פעולות האלגוריתם שלו.

ב-OpenAI דוחים בתוקף את ההאשמות ומדגישים כי המערכת אינה אחראית לפשע. דוברת החברה, קייט ווטרס, ציינה כי החברה שיתפה פעולה באופן יזום עם רשויות אכיפת החוק מיד לאחר שזיהתה חשבון הקשור לחשוד. לדבריה, המודל "סיפק תשובות עובדתיות לשאלות שניתן למצוא להן מענה במקורות גלויים באינטרנט, ולא עודד או קידם פעילות אלימה".

הפרשה מעלה סימני שאלה קשים סביב מנגנוני הבטיחות של החברה. אף ש-OpenAI מפעילה מערכות ניטור אוטומטיות שאמורות לסמן כוונות פגיעה ולהעבירן לבדיקה אנושית, עדיין לא ברור מדוע השיחות של איקנר לא הדליקו נורה אדומה בזמן אמת שאולי הייתה מונעת את הטרגדיה.

מנכ"ל OpenAI סם אלטמן, צילום: רויטרס

תזכורת: זוהי אינה הפעם הראשונה שבה בינה מלאכותית נקשרת לאירועים טרגיים. בשנה האחרונה הוגשו תביעות אזרחיות נגד חברות AI במקרי התאבדות ואף באירוע ירי נוסף בקנדה, אך זוהי הפעם הראשונה ש-OpenAI עומדת בפני חקירה פלילית מדינתית.

גוש של 42 תובעים כלליים בארה"ב כבר פנה בעבר לחברות הטכנולוגיה בדרישה להחמיר את נהלי הבטיחות ולהציב אזהרות ברורות למשתמשים.

החקירה בפלורידה עשויה להוות זרז לחקיקה מחמירה הרבה יותר. בעוד שבמישור הפדרלי הצעות חוק להגבלת AI נתקלו בקשיים פוליטיים, מדינות בודדות בארה"ב מתחילות לפעול באופן עצמאי. אם החקירה תוביל לכתב אישום, הדבר עלול לחייב את חברות הטכנולוגיה לשנות את האופן שבו המודלים שלהן מגיבים לשאלות רגישות, ואולי אף להטיל עליהן אחריות משפטית מלאה על כל "עצה" שהצ'אטבוט מספק.

עדכון חדש ומשמעותי, צילום: REUTERS/Dado Ruvic

נכון לעכשיו, OpenAI נדרשת להעביר לרשויות את כל נהליה הפנימיים לטיפול במצבי קיצון. התעשייה כולה עוקבת בדריכות: האם הבינה המלאכותית תישאר בגדר "כלי" בלבד, או שהחוק יתחיל להתייחס אליה כאל ישות בעלת אחריות מוסרית ופלילית?

טעינו? נתקן! אם מצאתם טעות בכתבה, נשמח שתשתפו אותנו

כדאי להכיר