מחקר חדש של מכון ון ליר בירושלים בחן את הפוטנציאל של שילוב טכנולוגיות בינה מלאכותית במערכי החוסן הלאומי של ישראל. המחקר, שנכתב על ידי ד"ר יעל אילת ון אסן וד"ר גלית ולנר, מצביע על יכולות משמעותיות של AI לסייע במצבי חירום - אך גם מזהיר מפני סיכונים דמוקרטיים וחברתיים.
שורת המשברים שחוותה ישראל בשנים האחרונות - החל ממשבר הקורונה, דרך מלחמת "חרבות ברזל" ועד לעימות עם איראן - חשפה את החסרים במענים המדינתיים לחוסן האזרחי. על רקע זה, החוקרות בחנו כיצד טכנולוגיות AI יכולות לתרום לחיזוק מערכי התמיכה בעורף.
יכולות דיאגנוסטיות וגנרטיביות
החוקרות מציינות במחקרן כי מערכות בינה מלאכותית יכולות להיות יעילות בשני היבטים מרכזיים: ראשית, בהיבטים הדיאגנוסטיים המאפשרים פענוח כמויות גדולות של נתונים בזמן אמת וזיהוי קשרים בין גורמים שונים. שנית, בהיבטים הגנרטיביים המסייעים בקבלת החלטות אוטומטית או חצי-אוטומטית, תוך מעורבות אנושית.
"השימוש הדיאגנוסטי במערכות בינה מלאכותית מאפשר לאתר תבניות במידע נרחב במהירות גבוהה יחסית", מסבירות החוקרות. זה מאפשר תמיכה בקבלת החלטות מבוססות נתונים, להבדיل מקבלת החלטות על סמך אינטואיציה אנושית בלבד.
היכולות הללו להסיק מסקנות ממגוון נתונים הקשורים למצבי חירום - לפני, במהלך ואחרי התרחשותם - עשויות לתרום להצלת חיים בטווח הקצר ולשיקום לאחר סיום מצב החירום בטווח הבינוני והארוך.
סימולציות ותחזיות בזמן אמת
במצב החירום ארוך הטווח של השנתיים האחרונות, המחקר מדגיש את יכולתן של מערכות AI לייצר סימולציות לתרחישי פעולה אפשריים לטווח המיידי. בעקבות המערכה הנוכחת, נראה שבכוחן לסייע להבין את הנזק בזמן אמת.
לדוגמה, כאשר טיל מסוג מסוים שנופל בנקודה גיאוגרפית מסוימת, המערכת יכולה לחזות את הנזקים הצפויים ברחובות ספציפיים. כתוצאה מכך מתאפשרת אופטימיזציה של הפעולות בעולם הממשי תוך קיצור זמני התגובה, באופן העשוי למזער נזקים וליצור יכולת תגובה משופרת.
החוקרות מדגישות שלמרות שמערכות AI אינן מסוגלות לחזות מצבים מפתיעים, הרי שמיד לאחר התרחשות אירוע הן יכולות להציג תרחישים המסייעים בהתמודדות. הן גם יכולות לייצר תחזיות על סמך מידע שלא היה קיים בנתוני האימון, בהסתמך על ניסיון העבר בישראל ובמקומות אחרים בעולם.
לזהות הטיות אפשריות
אחד האתגרים המרכזיים שהמחקר מצביע עליו הוא הצורך להבטיח הוגנות בתוצאות ולזהות הטיות אפשריות, כדי להימנע מאפליה על רקע גיל, מגדר ומוצא אתני. החוקרות ממליצות שהאנשים המעורבים בשלבי הפיתוח השונים ובתפעול המערכות יכירו את אופן קבלת ההחלטות על ידי מערכות אלו.
אחת הסכנות המרכזיות שמציינות החוקרות היא פגיעה בדמוקרטיה בעקבות פגיעה בפרטיות המשתמשים והחלשת בקרות ורגולציה. לכן הן ממליצות שמתכנני ומפעילי המערכות יהיו מודעים לתחום האתי ביישום יכולות AI, וקוראות לשיתוף נרחב של הציבור.
החשיבות של שיתוף הציבור נובעת לדעת החוקרות גם מהעובדה שהטיפול במצבי חירום בישראל הופקד ברובו בידי מערכת הביטחון, ולפיכך תהליכי התכנון אינם חשופים לביקורת ציבורית. מתן מענה לבעיית "הקופסה השחורה" - איסוף נרחב של מידע ושמירתו - עשוי לתרום לשקיפות.
החוקרות מעירות שמערכות אוטומטיות עצמאיות המקבלות החלטות הנוגעות לחיי אדם במצבי אסון מובילות למסקנה שיש לשמר את מקומו של הגורם האנושי, גם במחיר של פעולה איטית יותר. זאת כל עוד קצב האירועים אינו מחייב פעולה מיידית שרק מכונה יכולה לקבל.
"רגע הזהב" לפיתוח
בסיכום מחקרן, החוקרות מציינות את החשיבות הגדולה של שיתוף הציבור בבניית מערכות אלו כדי לרכוש נקודות מבט מגוונות ולזהות כמה שיותר כשלים פוטנציאליים. הן טוענות שישראל נמצאת ב"רגע הזהב" לפני אפיון ופיתוח מערכות חוסן מבוססות AI.
החוקרות ממליצות על שילוב שיקולים אתיים, חברתיים ופוליטיים בשלבים המוקדמים של פיתוח המערכות, כדי להתמודד עם סוגיות של משילות, הטיות, אחריות, הוגנות, הסברתיות ושקיפות.
המחקר מציג תמונה מורכבת: מחד, AI מציעה כלים חשובים לחיזוק החוסן הלאומי והצלת חיים. מאידך, יישומה דורש זהירות רבה ופיקוח הדוק כדי למנוע פגיעה בערכים דמוקרטיים ובזכויות האדם.
טעינו? נתקן! אם מצאתם טעות בכתבה, נשמח שתשתפו אותנו