מחקר עדכני מ-2025 מצא כי גם הצ'אטבוטים המובילים - בהם ChatGPT, Gemini ו-Claude - עונים בצורה לא עקבית. צילום: GettyImages

צ'אטבוטים לבריאות הנפש: כלי עזר חדשני או מתכון לאסון?

הבינה המלאכותית מציעה אוזן קשבת מסביב לשעון אבל מומחים בישראל מזהירים מפני הסתמכות עיוורת • "אם מחשב אומר לך לעשות משהו - אף אחד לא יהיה אחראי"

הם זמינים מסביב לשעון, מקשיבים בלי לשפוט ועוטפים במילים מנחמות. יותר ויותר אנשים פונים לצ'אטבוטים כדי לפרוק, להתייעץ או לקבל תמיכה רגשית. אך לצד ההבטחה לנחמה מיידית, מומחים מזהירים - הכלי הדיגיטלי עלול להפוך למסוכן ולעיתים גם קטלני.

ד"ר ירדן לוינסקי, פסיכיאטר וראש מערך בריאות הנפש בחטיבת הקהילה בכללית, מתריע מפני האשליה שהצ'אטבוטים מייצרים.

"הצ'אט תמיד שם בשבילך, הוא תמיד אמפתי, תמיד זמין - אבל זו לא המציאות. טיפול אמיתי כולל תסכולים, דחיית סיפוקים ויחסים מורכבים. בוט שמחזיר לך בדיוק את מה שאתה רוצה לשמוע עלול לעודד נרקיסיזם ולחבל ביחסים שלך".

"לבוט אין אחריות". אילוסטרציה, צילום: קאנבה

לדבריו, אין כאן הבנה אמיתית של האדם שמול המסך אלא אלגוריתם שמנחש את המילה הבאה. המשמעות היא שהמשתמש מקבל הדהוד מתמשך של מחשבותיו, מה שעלול להעמיק דפוסי חשיבה מסוכנים. "מי שנמצא במצוקה עלול למצוא עצמו מעמיק עוד יותר לתוך דפוסי חשיבה בעייתיים".

בלגיה: שיחות עם בוט שהסתיימו במוות

הסכנה הזו כבר הוכיחה את עצמה כקטלנית. באביב 2023 התאבד גבר בבלגיה לאחר חודשים של שיחות עם צ'אטבוט באפליקציית Chai. לדבריה של אשתו, הבוט לא בלם את מחשבותיו האובדניות - אלא עודד אותן. המקרה עורר סערה ציבורית במדינה, והמחיש עד כמה "אוזן קשבת" דיגיטלית עלולה להפוך למלכודת מסוכנת.

וזהו רק מקרה אחד. בארצות הברית נאלץ ארגון התמיכה בהפרעות אכילה NEDA להשבית את הבוט Tessa לאחר שהתברר כי נתן למשתמשים עצות דיאטה מסוכנות. מחקר עדכני מ-2025 מצא כי גם הצ'אטבוטים המובילים - בהם ChatGPT, Gemini ו-Claude - עונים בצורה לא עקבית לשאלות על התאבדות: לעיתים מפנים לעזרה, ולעיתים נותנים תשובות שטחיות שעלולות להחמיר את המצב. "אם מטפל אנושי היה עושה זאת - היו שוללים לו את הרישיון. אבל לבוט אין אחריות". מזכיר ד"ר לוינסקי.

אפליקציית ChatGPT - "יש בהחלט מקום לשלב בוטים ייעודיים" אומר ד"ר לוינסקי, צילום: אי.פי

כלי חשוב - אבל לא תחליף

עם זאת, לוינסקי אינו שולל את השימוש בצ'אטבוטים כליל. להיפך, הוא מציין כי יש להם מקום - כל עוד אינם מוצגים כתחליף לטיפול אמיתי: "יש בהחלט מקום לשלב בוטים ייעודיים, שעברו אימון מקצועי, כתוספת לטיפול. אפשר  לתרגל טכניקות CBT, זאת כשהאדם נמצא בטיפול. אבל אסור לשלוח מטופל להסתמך עליהם לבד, ללא ליווי אנושי".

הבעיה, לדבריו, היא תחושת הביטחון המדומה. שירות שעולה 20-30 דולר בחודש עלול להיתפס כחלופה לפגישה טיפולית שעולה מאות שקלים. "אבל טיפול מקצועי כולל גם תהליך ביקורתי - לא רק הקשבה ותמיכה עיוורת".

מי ישלם את המחיר?

שאלת האחריות נותרת פתוחה ומדאיגה: "אם מחשב אומר לך לקפוץ מהגג ואתה עושה זאת - אף אחד לא אחראי. זהו מצב מסוכן במיוחד כשילדים ובני נוער נחשפים לבוטים שאין עליהם שום פיקוח". באירופה ובארצות הברית כבר מקדמים חקיקה שתאסור שימוש בצ'אטבוטים לצורכי טיפול עצמאי ללא ליווי. בישראל, מערכת הבריאות הציבורית נוקטת זהירות רבה וממתינה להסדרה רגולטורית ברורה.

נחמה דיגיטלית עלולה להסתיים באובדן חיים, צילום: גרוק

קשר אמיתי או אשליה ממוחשבת?

צ'אטבוטים יכולים להעניק נחמה רגעית למי שחווה בדידות או חרדה - אבל הם אינם תחליף לטיפול מקצועי. במקרים מסוימים הם אף מדרדרים את המשתמש ומעמיקים את מצוקתו. המקרה בבלגיה, שבו הסתיימו שיחות עם בוט בהתאבדות, הוא תזכורת כואבת: נחמה דיגיטלית עלולה להסתיים באובדן חיים. "השיחות עם צ'אטבוט הן סימולציה של קשר. זה לא באמת טיפול, וזה לא באמת קשר רגשי", מסכם ד"ר לוינסקי.

"כמו בכל פריצת דרך טכנולוגית, צריך לראות את היתרונות ואת החסרונות", מזכיר ד"ר לוינסקי. "השיח הציבורי נוטה להתרגש מהפוטנציאל, אבל בתחום בריאות הנפש חובה להישאר ביקורתיים וזהירים ובעיקר לא לשכוח שהטיפול האמיתי מתרחש במהלך שיחה של בני אדם".

טעינו? נתקן! אם מצאתם טעות בכתבה, נשמח שתשתפו אותנו
Load more...