המדען הראשי של "מטא" חושף: כך הבינה המלאכותית תוכל להגן עלינו

המדען יאן לקון, שאחראי על תחום הבינה המלאכותית בחברה, אמר ש"כניעה לבני אדם" ו"אמפתיה" צריכות להיות אמצעי ההגנה העיקריים בשימוש בבינה המלאכותית • הוא סבר כי מטרות אלו ו/או מחסומי הגנה מתוכנתים עבור בינה מלאכותית יהיו שקולים לאינסטינקטים או לדחפים של בעלי חיים ובני אדם

בינה מלאכותית (אילוסטרציה). צילום: shutterstock

יאן לקון, המדען הראשי של חברת "מטא" בתחום הבינה המלאכותית, האחראית על הרשתות החבריות "פייסבוק", "אינסטגרם" ו-"Threads",  אמר לאחרונה כי נדרשים שני אמצעי הגנה עיקריים כדי להגן על בני אדם מפני בינה מלאכותית .

לקון אמר כי ניתן לגבש שתי הנחיות עבור בינה מלאכותית כדי להגן על בני אדם מפני נזק עתידי: "כניעה לבני אדם" ו"אמפתיה". לקון העלה הצעה זו דרך לינקדאין בתגובה לראיון עם ג'פרי הינטון, הנחשב ל"סנדק הבינה המלאכותית", בו אמר שיש צורך לשלב "אינסטינקטים אימהיים" או משהו דומה בבינה מלאכותית. בראיון אמר הינטון שאנשים מתמקדים בהפיכת הבינה המלאכותית ל"חכמה יותר, אבל אינטליגנציה היא רק חלק אחד מהיקום", והוסיף, "אנחנו צריכים לגרום להם לגלות אמפתיה כלפינו". לאק הסכים איתו על כך.

"ג'ף מציע בעצם גרסה פשוטה יותר של מה שאני אומר כבר שנים: לתכנת את הארכיטקטורה של מערכות בינה מלאכותית, כך שכל הפעולות שהן יכולות לנקוט מכוונות להשגת המטרות שהצבנו להן, תוך הקפדה על מחסומי הגנה", אמר בלינקדאין. "אני קורא לזה 'בינה מלאכותית מונחית מטרה'", הוא הוסיף.

בעוד שלקון אמר ש"כניעה לבני אדם" ו"אמפתיה" צריכות להיות אמצעי ההגנה העיקריים, הוא ציין שגם חברות בינה מלאכותית צריכות ליישם אמצעי הגנה פשוטים יותר כדי להבטיח את הבטיחות. הוא סבר כי מטרות אלו ו/או מחסומי הגנה מתוכנתים עבור בינה מלאכותית יהיו שקולים לאינסטינקטים או לדחפים של בעלי חיים ובני אדם.

הוא הוסיף כי האינסטינקט להגן על הצעירים הוא משהו שבני אדם ומינים אחרים לומדים באמצעות האבולוציה. למרות שאמצעי הבטיחות נועדו להבטיח שבינה מלאכותית תפעל בצורה אתית ובהתאם להנחיות מפתחיה, היו מקרים בהם בינה מלאכותית הפגינה התנהגות מטעה או מסוכנת.

טעינו? נתקן! אם מצאתם טעות בכתבה, נשמח שתשתפו אותנו

כדאי להכיר