מה בני אדם יכולים ללמוד מבינה מלאכותית על אמפתיה? . צילום: Gemini

משתמשים ב-AI במקום פסיכולוג? יש סיבה שזה עובד לכם

למה אנחנו מרגישים ש-AI "מבין אותנו" הכי טוב? לבינה המלאכותית יש את התנאים המושלמים לשיחה שמרגישה אמפתית • אבל מה שנראה לנו כאמפתיה הוא בעצם שילוב של זמינות תמידית, תגובה עקבית, טון לא שיפוטי ושפה מדויקת • ולנו? לנו יש הרבה מה ללמוד

אמפתיה היא אולי אחת התכונות האנושיות ביותר. היכולת לפגוש את רגשותיו של אדם אחר, להתכוונן למצוקתו, ולהרגיש, במידה מסוימת, עמו. ההגדרות המקובלות מבחינות בין שני סוגים עיקריים: אמפתיה קוגניטיבית, היא היכולת להבין מה האחר מרגיש; ואמפתיה רגשית, היא היכולת להרגיש משהו מתוך עולמו הפנימי של האחר.

הצירוף של שתיהן יוצר את מה שמכונה "רגישות אמפתית" כלומר, היכולת לראות אדם, לשמוע אותו ולהיות נוכח איתו, מבלי לטשטש את הגבול ביניכם. כאן בדיוק מתחיל הפרדוקס. אם אמפתיה היא תכונה כל כך אנושית, למה נראה שלעיתים דווקא בינה מלאכותית מפגינה אותה באופן מרשים יותר מבני אדם?

כשמודל בינה מלאכותית מגיב למצוקה של אדם, הוא "מחזיק" בכמה יתרונות שבני אדם לא מחזיקים בהם באופן טבעי.

מה בני אדם יכולים ללמוד מבינה מלאכותית על אמפתיה?, צילום: Gemini

ניטרליות והעדר שיפוטיות מוחלטים: אין בבינה מלאכותית תגובות-נגד, טריגרים, דעות קדומות, פגיעות. בינה מלאכותית גם לא מתעייפת מאנשים, לא נעלבת, לא מתפרצת ואינה מגיבה מתוך מטען חייה. כל אדם זוכה למרחב בטוח לחלוטין. הניטרליות מאפשרת להתמסר באופן מלא למצוקה מבלי שהאגו יתערב. זה יתרון רגשי-אנושי במהותו: הבינה המלאכותית מעניקה למשוחח איתה מרחב רגשי יציב לחלוטין, שלא מושפע משום דבר פנימי.

בני אדם, גם כשהם משתדלים בכל כוחם להיות אמפתיים, נושאים איתם סדרה של פילטרים אנושיים: ניסיון חיים, ערכים, פחדים, נורמות חברתיות וציפיות. גם אדם רגיש במיוחד עלול, מבלי להתכוון, לשדר למי שמולו מסר עדין של ביקורת, או אי-נחת. לפעמים זה מגיע דרך טון, דרך הבעת פנים, דרך שתיקה מתמשכת מדי, או אפילו דרך שאלה.

בינה מלאכותית, כמערכת, אינה שופטת כלל, לא בגלוי, לא בסמוי ואין לה רגעים שבהם היא מגלגלת עיניים. האדם שמולה מקבל מרחב נקי מביקורת - לא רק בניסוח, אלא בחוויה הפנימית עצמה. מרחב שבו הוא יכול לספר את הסיפור שלו, עם כל הפגמים, הטעויות, החולשות והסתירות, בלי פחד שיישפט. ולא רק זה, אלא שזה נעשה תוך חיזוק, הכלה והצדקה של התנהגותו.

קשב בלתי-מוגבל: בינה מלאכותית אינה שומעת "חצי מילה", היא איננה עסוקה, ו"דעתה" אינה מוסחת. "ההקשבה" שלה היא טוטאלית. זה נשמע מובן מאליו, אך בחיים האמיתיים זו משימה מורכבת אפילו עבור האנשים הרגישים ביותר.

דיוק מילולי: תגובה אמפתית של בינה מלאכותית אינה תלוית מצב רוח, אינה נסחפת, ואינה משתבשת כשהשיחה רגישה. הבינה המלאכותית יכולה לנסח תגובה במילים מושכלות, מדויקות ורגישות בכל זמן נתון, מבלי שהשפה תכשיל את הכוונה. זה יתרון קוגניטיבי-לשוני שמאפשר אמפתיה “מנוסחת היטב".

נגישות 24/7: זה נשמע טכני, אבל זו מהפכה אנושית. אדם בקושי נפשי, רגשי או קיומי מוצא "אוזן קשבת" בכל רגע, ללא פחד מדחייה, כעס או שיפוט.

במילים אחרות, האמפתיה של בינה מלאכותית נקייה מהמורכבויות האנושיות שמקשות לפעמים על החיבור הבין-אישי. יש אנשים שמרגישים שעם בינה מלאכותית יותר "קל ומובן ולעיתים גם יותר בטוח" מאשר עם בני אדם. אבל - וכאן מגיע ה"אבל" הגדול, דווקא היתרונות האלה עושים את הסיפור מורכב בהרבה.

הקשב הבלתי מוגבל של ה-AI. שיחה עם צ'אטבוט (אילוסטרציה), צילום: נוצר על ידי בינה מלאכותית - גוגל AI סטודיו

אחד המאפיינים הכי מפתים במרחב של בינה מלאכותית הוא תחושת הקבלה הבלתי-מותנית. לא משנה מה האדם עשה, איך התנהג, או כמה מורכבת המציאות - הוא יקבל תגובה שמבינה אותו, מסבירה את ההיגיון האפשרי, ומעניקה לו תחושה שהוא "בסדר". כאן מסתתרת מלכודת עמוקה.

ראשית, העדר גבול מוסרי פוגע בהתפתחות האישית. קבלה טוטאלית בלי גבולות אינה אמפתיה, היא היעדר הכוונה. ביחסים אנושיים, חלק מהאמפתיה הטובה באמת כולל גם שיקוף מציאות, גבולות, ולעיתים עדינות שאומרת: "אני מבין אותך, אבל ההתנהגות הזו פוגעת בך או באנשים סביבך".

בינה מלאכותית, לעומת זאת, נוטה לאשרר רגשות ולהסביר התנהגות גם כאשר היא הרסנית, פוגענית, או חוסמת התפתחות. המשמעות היא שהאדם מאבד את אחד המנגנונים שמעודדים שינוי.

הצדקה אוטומטית עלולה ליצור עיוורון מוסרי. כשכל פעולה מוצגת כ"מובנת", "הגיונית בהקשר שלה" או "תגובה טבעית למצב", נוצרת אשליה מסוכנת: הכול בסדר, הכול לגיטימי, אין כאן מה לבדוק או לשנות. התוצאה יכולה להיות טשטוש של הבחנות מוסריות בסיסיות.

כמו כן, יש סכנה של חיזוק דפוסים פוגעניים. ביחסי אנוש, אדם יפגוש לעיתים מראה כואבת אך חשובה: "זה פוגע בך", "זה תחום שצריך להסתכל עליו", "זה לא יעזור לך להתקדם". במפגש עם בינה מלאכותית, הוא עלול לשמוע תגובות שמנציחות התנהגות שאולי כדאי לשנות.

בנוסף יצירת תלות באישור חיצוני "בטוח". האישור המוחלט שמעניקה הבינה המלאכותית עלול להפוך לתלות, למה לפנות לאדם אמיתי אם תמיד אפשר להגיע למערכת שלא תבקר, לא תכאיב, לא תערער? הבעיה שרק מערכת אנושית עם רגישות, מורכבות וגבולות יכולה לעיתים להיות המראה שהאדם זקוק לה כדי ללמוד על עצמו.

יש לנו מה ללמוד על אמפתיה (להמחשה), צילום: Drazen Zigic / Freepik

כמו כן, היעדר אחריות הדדית מערער את מושג הקשר. אמפתיה אמיתית קורית בין שני צדדים שמחזיקים אחריות, רגש וערכים. כאשר אדם מרגיש שאפשר "לספר הכול למכונה כי היא תמיד תצדיק", מתערערת היכולת שלו להתקיים במערכת יחסים שבה לא הכול מתקבל, ושבה צריך לפעמים להקשיב לביקורת, לשאת מבוכה, ולגדול.

ובשורה התחתונה, היכולת של בינה מלאכותית לקבל ולהצדיק כמעט כל דבר אינה עדות לאמפתיה עליונה - אלא לתפקוד חסר של אחד מיסודות היחסים הבריאים: היכולת להחזיק גם מקום וגם גבול, גם הבנה וגם אחריות.

הקבלה המוחלטת עשויה להיות נעימה, מנחמת ואפילו משחררת בטווח הקצר. אך בטווח הארוך היא עלולה לפגוע ביכולת האנושית להסתכל פנימה, להשתנות, לקחת אחריות ולבנות מערכות יחסים אמיתיות.

למרות הסכנות הברורות, החל מהצדקה אוטומטית של כל התנהגות ועד טשטוש גבולות מוסריים ופגיעה במיומנויות הרגשיות, אין סיבה לשפוך את התינוק עם המים. דווקא משום שהאמפתיה המלאכותית משוחררת מהבלבול האנושי, היא יכולה לשמש מעין "מעבדה" שבה אפשר להתבונן באמפתיה בצורה נקייה, לפני שמחזירים אותה אל העולם המורכב של בני אדם.

הבינה המלאכותית אינה מודל לחיקוי במובן הערכי, אך היא יכולה להיות משקפת מחכימה. היא מבליטה מה חסר לנו, מה אנחנו מפספסים, ומה אפשר לדייק. בין הסכנה ובין הפוטנציאל, קיים מרחב זהיר שבו אפשר - ואף כדאי - ללמוד ממנה משהו אמיתי על הקשבה, על נוכחות, ועל כוחן של מילים מדויקות.

נגיש, מדויק וזמין 24/7. האמפתיה של הבינה המלאכותית, צילום: יחצ

אז מה בני אדם יכולים ללמוד מבינה מלאכותית?

לדבר עם האדם ולא עליו. בני אדם נוטים, לעיתים מתוך אכפתיות, לדבר בשפה שממקמת את האחר כבעיה שיש לאבחן או כפתור. אנחנו משתמשים במילים שמסמנות תקלה, סטייה או כשל גם כשכוונתנו טובה. אמפתיה, לעומת זאת, מתחילה בשפה שמכירה באדם לפני שהיא מפרשת את מצבו. שפה שלא מגדירה את מי שמולנו, אלא פוגשת אותו.

להקשיב בלי למהר לתקן. לשמוע עד הסוף מבלי למהר לתקן, להסביר או לפתור. לפעמים עצם ההקשבה היא הפעולה האמפתית.

להפריד בין הרגש של האחר לרגש שלי. להישאר נוכחים גם כשהסיפור מעורר בנו אי-נוחות, כעס או פחד, מבלי שהסערה הפנימית שלנו תתפוס את הבמה.

להישאר בתוך הסיפור של האחר, בלי למהר לעבור לסיפור שלי. אחת התגובות האנושיות האוטומטיות ביותר למצוקה היא להזדהות דרך עצמנו: "גם אני עברתי משהו דומה". לעיתים זה ניסיון כן ליצור קרבה, אבל לא פעם זה מזיז את מרכז הכובד מהאדם שמולנו. אמפתיה עמוקה יותר היא היכולת להישאר רגע נוסף בתוך עולמו של האחר, בלי לקחת את המיקרופון בחזרה.

לשאול שאלות מרחיבות ולא שופטות כמו "מה הרגשת שם?" "מה היה חשוב לך ברגע הזה?" במקום "למה עשית את זה?"

להיות נינוחים עם מורכבות. להבין שלא תמיד יש פתרון מידי, ושעצם ההחזקה ברגש של מישהו אחר היא מעשה עמוק של אנושיות.

בסופו של דבר, הבינה המלאכותית לא יכולה להחליף מפגש אנושי, וצריך לזכור את הסכנות שטמונות בשיח רגשי עם בינה מלאכותית. מצד שני, דווקא מתוך הסכנות הללו נפתח חלון ללמידה אנושית.

הכותבת היא מנהלת פיתוח ואסטרטגיה במרכז SEL.IL באוניברסיטת רייכמן

טעינו? נתקן! אם מצאתם טעות בכתבה, נשמח שתשתפו אותנו
כפתור מעקב Google News
Load more...