גרוק נגד אורן חזן. צילום: אריק סולטן ורויטרס

חזן נגד גרוק: האם ניתן לתבוע בוט?

איום התביעה של הח"כ לשעבר נגד מול מודל ה-AI הפך לבדיחה ויראלית, אבל מעלה שאלות רציניות • המשפט הישראלי טרם קבע עמדה ברורה לגבי אחריות בינה מלאכותית ונדמה שכבר צריך חקיקה עדכנית למציאות החדשה

העימות המתוקשר של חבר הכנסת לשעבר אורן חזן עם הבוט גרוק של X הפך במהרה לבדיחה ויראלית ברשתות החברתיות.

חזן, שזעם על כך שהבוט הציג ציטוט שייחס לו אמירה שיפוטית, איים לתבוע את הבוט, מה שעורר גל תגובות ציניות ושאלות אמיתיות כאחד: האם בכלל ניתן לתבוע בינה מלאכותית? ואם כן, את מי בעצם? את הבוט, את החברה שמפעילה אותו, את מי שאימן אותו או אולי את מי שערך את המידע שעליו הוא מסתמך?

ראשית, יש להבהיר נקודה בסיסית: בוטים אינם ישויות משפטיות. הם כלי תוכנה, בדומה למחשבון או לדפדפן אינטרנט, ולכן לא ניתן להגיש תביעה ישירה נגדם. כמו שלא ניתן לתבוע את מערכת ההפעלה של המחשב או את ההגה של הרכב, אלא את היצרן או את הנהג, כך גם במקרה של בינה מלאכותית.

השאלה המעניינת היא מי נושא באחריות המשפטית? חברות הפיתוח, אלו שבונות את המנועים עצמם כמו OpenAI, Anthropic, או xAi (החברה של אילון מאסק, שפיתחה את גרוק). הן מספקות את הארכיטקטורה ואת היכולת ליצור טקסטים, תמונות וכו'.

לעיתים גורמים חיצוניים מספקים דאטה לאימון המודלים עבור חברות ה-AI. לכן, אם הדאטה בעייתי או מוטה, האחריות עשויה לעמוד גם עליהם. חברות ההפעלה וההפצה, אלו שמעמידות את הבוטים לשימוש ציבורי - הרשת החברתית X במקרה של גרוק - אחראיות על הממשק מול המשתמשים, על מדיניות השימוש ועל אופן שילוב הבוט בפלטפורמות קיימות.

אז מה קובע המשפט הקיים?

המשפט הקיים מתייחס לבינה מלאכותית בעיקר דרך עדשה של אחריות עקיפה. כלומר, לא תובעים את הבוט עצמו, אלא את החברה שמאחוריו. אם בוט מפיץ מידע כוזב שפוגע בשמו הטוב של אדם, האחריות תוטל על המפעיל.

עם זאת, בתי משפט טרם קבעו קווים ברורים: האם יש לראות בבוט "עיתונאי" או "שידור ציבורי"? או שמדובר רק בכלי טכנולוגי שחלק מהאחריות עוברת גם למשתמש?

אפשרות נוספת היא תביעה סביב מידע שגוי. בינה מלאכותית שמספקת מידע שגוי לצרכן עלולה לחשוף את החברה המפעילה לתביעות.

לכן, רוב חברות ה-AI מנסות להתגונן מראש באמצעות תנאי שימוש שמגבילים את יכולת המשתמשים לתבוע אותן.

בוט כותב (אילוסטרציה). טרם קיימת חקיקה ישירה שמתייחסת לבינה מלאכותית ובפרט לבוטי שיחה, צילום: נוצר על ידי בינה מלאכותית - גרוק

אך מה עם האחריות המוסרית? גם אם מבחינה משפטית האחריות מוטלת על החברות, נותרת שאלה ציבורית: האם הוגן "לתקן" בוטים באמצעות איום בתביעה? במקרה של חזן, ייתכן שהכוונה המקורית הייתה לדרוש תיקון ציבורי של טעות או הצגת אמירה מדויקת יותר, אלא שבשיח הנוכחי, כל איום בתביעה כלפי "בוט" נתפס מידי כפארסה.

בישראל ובעולם טרם קיימת חקיקה ישירה שמתייחסת לבינה מלאכותית ובפרט לבוטי שיחה. האיחוד האירופי החל כבר לבסס מסגרות רגולציה במסגרת AI Act, שמחייבות שקיפות ואחריות ברמות שונות של פיתוח והפעלה. בישראל, הנושא נמצא עדיין בראשיתו.

בוטים (אילוסטרציה). האם מדובר בכלי נטול אחריות?, צילום: No more copyright

ככל שהטכנולוגיה הופכת למרכזית יותר בשיח הציבורי, במיוחד כאשר בוטים מצוטטים ומקבלים במה דומה לעיתונאים, יידרשו בתי המשפט והמחוקקים להכריע: האם מדובר בכלי נטול אחריות, או בשחקן חדש בזירה הציבורית שמייצר חובות משפטיות ברורות לחברות שמאחוריו.

בשורה התחתונה, הסיפור של חזן מול גרוק הוא הרבה מעבר לבדיחה ברשת. הוא משקף את המבוכה של עידן חדש: טכנולוגיה שמדברת, מפרשת ומעצבת את השיח הציבורי בלי שהיא עצמה נושאת באחריות.

השאלה מי כן נושא באחריות, ומה הדרך להבטיח תיקון עוולות מבלי לפגוע בחופש הפיתוח והביטוי, עוד תעסיק משפטנים, רגולטורים וחברות טכנולוגיה עוד שנים ארוכות.

הכותבת היא מנכ"לית JAGuar – רגולציית קריפטו, בינה מלאכותית

טעינו? נתקן! אם מצאתם טעות בכתבה, נשמח שתשתפו אותנו
Load more...