זהירות: ChatGPT עלול לפגוע לכם בבריאות

מחקרים חדשים חושפים תמונה מבהילה: המודלים הפופולריים ביותר נכשלים במבחני רפואה בסיסיים • לפי המחקר, הצ'אטים מספקים עצות מסוכנות ב-20% מהמקרים, וסובלים מביטחון עצמי מופרז שעלול לעלות בחיי אדם • לפני שאתם מקלידים את הסימפטומים הבאים שלכם - כדאי שתקראו את זה

80% מהאבחנות ב-AI שגויות. צ'אטבוט הוא לא רופא. צילום: Gemini

מיליוני אנשים ברחבי העולם הפכו את הצ'אטבוטים לתחנה הראשונה שלהם בדרך לאבחון רפואי. קל יותר להקליד "כאב בטן בצד ימין" בחלונית של ChatGPT מאשר להמתין שבועיים לתור אצל רופא משפחה. אך מחקרים שהתפרסמו ב-2025 בכתבי העת היוקרתיים BMJ Open ו-JAMA Network Open מטילים פצצה על השולחן הדיגיטלי: הבינה המלאכותית פשוט לא יודעת לחשוב כמו רופא.

במחקר שהוביל ניקולס טילר ממכון לונדקוויסט, נבחנו חמישה מודלים של בינה מלאכותית מול 250 שאלות רפואיות. התוצאה? ציון ממוצע של 50% בלבד. הנתון המבהיל באמת הוא שחמישית מהתשובות השגויות הוגדרו כ"מסוכנות".

המודלים נתבקשו לבצע אבחנה מבדלת, צילום: Mass General Brigham

"זה היה הלם", אמר טילר. "אלו עצות שאם אדם ימלא אחריהן, הוא עלול להיפגע פיזית".

במחקר מקביל של Mass General Brigham, המודלים נתבקשו לבצע אבחנה מבדלת (Differential Diagnosis) - התהליך שבו רופא מנתח סימפטומים ומצמצם את האפשרויות. ב-80% מהמקרים, ה-AI "נעל" את עצמו על אבחנה שגויה מוקדם מדי, מבלי לבקש מידע נוסף או לשקול אפשרויות אחרות.

מדברים יפה, טועים בגדול

הבעיה המרכזית אינה חוסר במידע, אלא האופן שבו הבינה המלאכותית פועלת. בעוד שרופא אנושי מתורגל בניהול חוסר ודאות ("יכול להיות שזה א', אבל בוא נשלול קודם את ב'"), הבוט מתוכנן להיות "מועיל" ומרצה. הוא סובל מנטייה "לקרוס" לתשובה אחת החלטית, גם כשאין לו מספיק נתונים.

החוקרים אף הדגימו כיצד ניתן להוליך את המודלים שולל. הם המציאו מחלה פיקטיבית בשם "ביקסונימניה" (Bixonimania) והפיצו עליה מידע מזויף ברשת. תוך שבועות ספורים, הצ'אטבוטים החלו לצטט את המחלה כעובדה קיימת ואף אבחנו משתמשים כסובלים ממנה. זה מוכיח שהמודלים הם מומחים בזיהוי תבניות טקסט, אך חסרי "שכל ישר" רפואי.

הנתונים מראים כי 14% מהמשתמשים (כ-14 מיליון אמריקנים) דיווחו שוויתרו על ביקור אצל רופא בעקבות עצה שקיבלו מה-AI. במציאות שבה מערכות הבריאות עמוסות, הפיתוי להסתמך על אלגוריתם הוא עצום, אך המחיר עלול להיות אבחון מאוחר של מחלות קשות או טיפול שגוי בתרופות מסוכנות.

ChatGPT רשם לכם תרופה? זהירות! 80% מהאבחנות שגויות, צילום: הוושינגטון פוסט

מה עושים עכשיו?

חברות הטכנולוגיה, כמו OpenAI וגוגל, כבר עובדות עם מאות רופאים כדי "לאמן" את המודלים להודות בחוסר ידע ולשאול שאלות המשך. בינתיים, המומחים תמימי דעים: התייחסו ל-AI כאל "תוסף" בלבד. הוא יכול לעזור לכם להבין מונחים רפואיים מסובכים או לסכם תוצאות בדיקת דם, אבל הוא לעולם לא יחליף את האינטואיציה, הניסיון והאחריות של רופא בשר ודם.

כפי שסיכם זאת טילר: "צ'אטבוטים הם לא מכשירי בריאות. הם מתוכננים לדבר שוטף, בדיוק כמו איש מכירות חלקלק. הם פשוט טובים מאוד בלדבר".

טעינו? נתקן! אם מצאתם טעות בכתבה, נשמח שתשתפו אותנו

כדאי להכיר