פולימרקט חוזה את העתיד? יש טובים ממנה

כולנו רגילים לשאול "מי חכם יותר - האדם או המכונה?", אבל מחקר חדש מציע שזו השאלה הלא נכונה • בניסוי שנערך בסן פרנסיסקו, התגלה שרוב האנשים משתמשים ב-AI כקיצור דרך שפוגע ביכולת החשיבה שלהם

אתם יכולים לחזות אירועים טוב יותר מפולימרקט - בעזרת ChatGPT. צילום: Gemini

במשך שלושים שנה, ד"ר ויויאן מינג, מדענית מוח וחוקרת בינה מלאכותית, שמעה את אותו הסיפור: ה-AI יעשה עבורנו את העבודה המשעממת (מחקר, כתיבת טיוטות, חישובים), ואנחנו נתפנה לדברים ה"מעניינים" - יצירתיות ושיפוט אנושי. אלא שמחקר חדש שערכה בקרב מבוגרים באזור המפרץ בסן פרנסיסקו מעלה תמונה מדאיגה. במקום לפנות לנו זמן לחשיבה עמוקה, ה-AI גורם לנו להפסיק לחקור.

ה-AI גורם לנו להפסיק לחקור (אילוסטרציה), צילום: Getty Images

 האדם מול ה-AI

מינג חילקה את המשתתפים לקבוצות ונתנה להם משימה: לחזות אירועים בעולם האמיתי (באמצעות פלטפורמת החיזוי הפופולרית פולימרקט). התוצאות היו חד-משמעיות.

הקבוצות האנושיות תפקדו בצורה גרועה, בהסתמך על אינסטינקטים או מידע אקראי מהפיד. ה-AI (ChatGPT וג'מיני): הציג ביצועים טובים משמעותית מהבני אדם, אך עדיין פחות מחכמת ההמונים של השוק.

החלק המעניין היה הצוותים ההיברידיים (אדם יחד עם ה-AI). רוב הצוותים פשוט הגישו את התשובה של ה-AI כשלנו, או השתמשו ב-AI כדי לאשש את ההטיות שלהם. הם תפקדו גרוע יותר מהבינה המלאכותית שעבדה לבדה.

ה-AI הציג ביצועים טובים, אך פחות מחכמת ההמונים של השוק. פולימרקט, צילום: Shutterstock

עם זאת, בקרב 5% עד 10% מהצוותים, קרה משהו אחר. הם הפכו ל"סייבורגים". במקום לקבל את דברי ה-AI כפשוטם, הם הפכו אותה ל"יריב אימונים". כשה-AI היה בטוח בעצמו, הם הטילו ספק. כשהיה להם אינסטינקט חזק, הם ביקשו מה-AI לספק טיעון נגד.

הקבוצות הללו הגיעו לתובנות שאף אדם או מכונה לא יכלו להפיק לבד. הם היו היחידים שהצליחו להשתוות לדיוק של שוק התחזיות, ובמקרים מסוימים אפילו לעבור אותו.

הכישורים המפתיעים של העידן החדש

החוקרת גילתה שמה שהבדיל את ה"סייבורגים" משאר המשתתפים לא היה מנת משכל גבוהה יותר, אלא שני כישורים רגשיים.

ה-AI הציג ביצועים טובים משמעותית מהבני אדם. ChatGPT, צילום: אי.אף.פי

הראשון היה פרספקטיבה (Perspective-taking) והשני ענווה אינטלקטואלית. כלומר, היכולת לא רק להתווכח עם דעה אחרת, אלא ממש "להתגורר" בתוכה ולהבין אותה באמת יחד עם היכולת לזהות את קצה גבול הידע ולהרגיש בנוח עם חוסר הוודאות, במקום לרוץ לתשובה המהירה של הצ'אטבוט.

פרדוקס חקירת המידע

ד"ר מינג מזהירה מפני "פרדוקס חקירת המידע". ככל שעלות המידע שואפת לאפס, החקירה האנושית קורסת. אנחנו רואים סטודנטים שמצליחים יותר במשימות עם AI, אבל מבינים פחות את החומר; ומפתחים שכותבים יותר קוד, אבל מבינים פחות איך הוא עובד.

"הסכנה היא לא ש-AI תחליף את בני האדם בתסריט מדע בדיוני", אומרת מינג. "אלא תהליך שקט שבו אנשים מוציאים למיקור חוץ את כושר השיפוט שלהם במנות קטנות מדי מכדי לשים לב".

הניסוי שחשף: למה רוב האנשים נכשלים בעבודה עם ChatGPT?, צילום: Gemini

אז איך עוצרים את זה?

ד"ר מינג מציעה כמה תשובות. ראשית, היא אומרת שבמקום לחפש את התשובה, יש לחפש מה חסר. במקום לבקש מה-AI "תעשה עבורי את העבודה", בקשו ממנו להציג לכם טיעון חזק נגד העמדה שלכם.

בנוסף, ד"ר מינג מציעה לשים לב למה שהיא מגנה "גמגום". כשה-AI מסתייג או מציב תנאים - שם בדרך כלל נמצאת חוסר הוודאות האמיתית והמעניינת. בנוסף, יש צורך ממשו להפסיק לפחד מהחיכוך. למידה קורית כשיש קושי, מזכירה ד"ר מינג. AI מעלים כל מאמץ, זה נכון. אבל יחד איתו הוא מעלים גם את היכולת שלנו ללמוד דברים חדשים.

טעינו? נתקן! אם מצאתם טעות בכתבה, נשמח שתשתפו אותנו

כדאי להכיר