השאלה "האם בטוח לדבר עם ChatGPT על הבריאות שלך?" נראית אולי פשוטה ובלתי מזיקה, כזו שמתאימה לשיחה יומיומית בעידן שבו בינה מלאכותית זמינה בכל רגע. הרי מדובר רק בטקסט, בשאלות כלליות, ובהסבר שנשמע אינפורמטיבי ולא מחייב. אבל בפועל, מאחורי השאלה הקצרה הזו מסתתרת מערכת מורכבת של סיכונים, הנחות שגויות וציפיות לא תמיד מודעות מצד המשתמש.
המורכבות נובעת מכך ש"בטיחות" בהקשר הזה איננה מושג אחד ברור, אלא שילוב של כמה סוגי בטיחות שונים, שלעיתים אף מתנגשים זה בזה:
בטיחות רפואית - האם המידע שתקבל יהיה נכון, מאוזן, ולא יוביל אותך להחלטה שגויה או מסוכנת.
בטיחות פרטיות - האם מה ששיתפת עלול להיחשף, להישמר, להיבדק בידי אנשים, או לשמש לאימון מערכות בעתיד.
בטיחות רגולטורית/משפטית - האם השירות פועל תחת סטנדרטים מחייבים של מידע רפואי (כמו HIPAA בארה״ב), ומה זה אומר על האחריות ועל ההגנות שלך.
כדי לענות בכנות, צריך להפריד בין שימושים שיכולים להיות מועילים ובטוחים יחסית, לבין שימושים שהסיכון בהם גבוה יותר.
מתי זה יכול להיות "בטוח מספיק" ואף מועיל?
יש מצבים שבהם שיחה עם ChatGPT יכולה לעזור, בלי להעמיד אותך בסיכון גדול - בעיקר כשאתה משתמש בו כמו כלי ארגון והבנה, לא כמו רופא.
דוגמאות שימושיות:
לנסח שאלות לרופא: "יש לי כאבי ראש שבועיים, אילו שאלות כדאי לשאול נוירולוג?"
להבין מונחים רפואיים: “מה ההבדל בין CRP ל-ESR?" או “מה אומרת המילה 'benign' בדוח?"
לסכם טקסט רפואי כללי (בלי פרטים מזהים): “תסביר לי בפשטות מה המשמעות של תוצאה X בהקשר כללי.”
להכין רשימת מעקב: תבנית לתיעוד סימפטומים, תדירות, טריגרים, תרופות שנוסו ותופעות לוואי.
בדיקת ‘דגלים אדומים’ כלליים: לא אבחון, אלא רשימה של מצבים שבהם כדאי לפנות בדחיפות לטיפול.
בכל אלה, היתרון של ChatGPT הוא היכולת להוריד עומס קוגניטיבי: להבהיר, לסדר, לתרגם לשפה פשוטה ולהכין אותך לשיחה עם איש מקצוע.
איפה מתחילה הבעיה: "הוא נשמע משכנע"
הסכנה הרפואית הגדולה ביותר בצ’אטבוטים היא לא שהם תמיד טועים - אלא שהם יכולים לטעות בצורה משכנעת. מודלים כאלה עלולים "להשלים פערים" כשאין להם נתונים, להציג מסקנות בלי להדגיש חוסר ודאות, או להציע כיוון שנשמע סביר אך לא מתאים למצב שלך.
בבריאות, "כמעט נכון" לפעמים מסוכן בדיוק כמו "לא נכון". למשל:
המלצה לשלב תוספים או תרופות בלי להתחשב באינטראקציות.
הרגעה יתרה כשיש סימנים שמצריכים בדיקה דחופה.
הפחדה מיותרת שמובילה לפאניקה, בדיקות יתר, או החלטות פזיזות.
במיוחד בתחומים כמו בריאות נפש, הדיוק והטון חשובים לא פחות מהעובדות. לא במקרה גופים במערכות בריאות מזהירים מפני שימוש בצ’אטבוטים כתחליף לטיפול נפשי או ייעוץ מקצועי, בגלל סכנה לעצות לא מתאימות ואף מזיקות.
פרטיות: מה קורה למידע הרפואי שאתה כותב?
כאן מגיע החלק שרוב האנשים מפספסים: כשאתה משתף מידע רפואי בצ'אט, השאלה היא לא רק "האם הוא מוצפן", אלא גם:
האם המידע יכול להישמר בחשבון שלך ובהיסטוריה?
האם הוא יכול להיבדק על ידי גורמים אנושיים לצורך בטיחות/שיפור?
האם הוא יכול לשמש לאימון מודלים בעתיד?
האם קיימים מנגנוני opt-out, ומה הם באמת עושים?
לפי מסמכי המדיניות של OpenAI, קיימת הבחנה חשובה סביב “תוכן בריאות” (Health content): כברירת מחדל, מצוין שלא משתמשים בתוכן בריאות כדי לשפר את מודלי היסוד של ChatGPT, אך עדיין ייתכן שמספר מצומצם של עובדים מורשים וספקי שירות מהימנים יקבלו גישה לתוכן כזה למטרות בטיחות ושיפור מערכות (בכפוף להגדרות והחרגות). בנוסף, קיימות הגדרות המאפשרות למשתמשים לכבות שימוש בתכנים שלהם לשיפור המודל (“Improve the model for everyone”), לפחות בחלק מסוגי החשבונות.
במילים פשוטות: גם אם יש הגנות חדשות ומדיניות ייעודית לבריאות, זה לא זהה ל"חיסיון רפואי" קלאסי, ובטח לא זהה לשיחה עם הרופא שלך בתוך מערכת רשומות רפואיות.
ומה לגבי "ChatGPT Health" והעלאת רשומות רפואיות?
בחודשים האחרונים הופיעו דיווחים תקשורתיים על יכולות בריאות ייעודיות (למשל קישור נתוני אפליקציות בריאות או העלאת מסמכים רפואיים). עצם הרעיון מפתה: “הנה כל ההיסטוריה שלי, תעשה סדר”. אבל ככל שהמידע עשיר יותר, כך גם:
הנזק האפשרי מפריצה/דליפה גדול יותר,
הסיכון לזיהוי מחדש (גם אם לא כתבת שם מלא) עולה,
והסיכוי שתקבל מסקנה שגויה בגלל חוסר הקשר קליני מלא עדיין קיים.
וכאן חשוב לשים לב: גם אם שירות מצהיר על הצפנה ובידוד נתונים, הוא עדיין לא בהכרח כפוף לרגולציה רפואית כמו ספק רשומות רפואיות.
הערה: "ChatGPT Health" עם חיבור לרשומות רפואיות ואינטגרציות מותאמות אישית אינו זמין בישראל באופן מלא.
האם זה "חסוי": כמו אצל רופא? בדרך כלל לא
אנשים מניחים בטעות שמידע רפואי תמיד מוגן באותה רמה. בפועל, בארה״ב למשל, חוקי HIPAA חלים על “גופים מכוסים” (כמו בתי חולים, קופות/מבטחים וספקים מסוימים) ועל “שותפים עסקיים” שלהם, ולא אוטומטית על כל אפליקציה צרכנית ששואלת אותך שאלות רפואיות. גם אם אתה משתמש בכלי כדי לדבר על מצב רפואי, זה לא הופך אותו מיידית לשירות רפואי תחת אותה מטריית הגנה.
כלומר: ייתכן שתהיה לך פרטיות טובה, אבל זו פרטיות של “מוצר טכנולוגי צרכני עם מדיניות”, לא בהכרח פרטיות של “מערכת רפואית עם חובות חוקיות ספציפיות”.
אז… מה ההמלצה המעשית?
אפשר לדבר עם ChatGPT על בריאות - אבל כדאי לעשות זאת כמו שמדברים עם חבר חכם שמסכם מידע, לא כמו שמדברים עם רופא שמאבחן. הנה כללי אצבע שמקטינים סיכון:
אל תשתף מזהים אישיים: שם מלא, ת״ז, כתובת, מספרי טלפון, מספרי תיק רפואי, תמונות מסמכים עם פרטים מזהים.
העדף ניסוח מופשט: במקום “אני בן 43, גר ברחוב X…”, כתוב “מבוגר באמצע החיים, ללא מחלות רקע משמעותיות”.
השתמש בזה להכנה לרופא, לא להחלפה: בקש רשימת שאלות, אפשרויות, בדיקות לשקול, ולא “מה יש לי ומה לעשות”.
בקש רמת ודאות וסיכונים: “מה הסימנים שמחייבים מיון?”, “מה ההסתברויות ומה הנחות היסוד כאן?”
בדוק הגדרות פרטיות: כבה שימוש לשיפור המודל אם זה חשוב לך, והבן מה זה עושה ומה לא.
אל תקבל החלטות תרופתיות על סמך צ’אט: מינונים, שילובים, הפסקת תרופה, תוספים, אינטראקציות - אלה דברים לרופא/רוקח.
בבריאות נפש - זה כלי תמיכה, לא טיפול: אם יש מצוקה משמעותית, החמרה, או מחשבות אובדניות - פונים מיידית לאיש מקצוע/מוקד חירום, לא לצ’אטבוט.
אז כן, זה יכול להיות בטוח לשוחח עם ChatGPT על הבריאות שלך במידה - כשאתה משתמש בו כדי להבין מידע, להתארגן, ולהגיע מוכן יותר לטיפול רפואי. אבל זה פחות בטוח כשאתה משתף מידע מזהה או עמוק מדי, או כשאתה נותן לו להחליף אבחון, שיקול קליני ומעקב מקצועי.
אם אתם רוצים כלל פשוט:
כל מה שלא היית רוצה לראות מודפס על שלט ענק באמצע העיר - אל תקליד בצ’אט. וכל מה שיכול להשפיע על החלטה רפואית משמעותית - תאמת מול רופא.
מקורות:
OpenAI - Health Privacy Notice (מדיניות פרטיות לתוכן בריאות).
OpenAI Help Center - How to disable model training while keeping history on (Data Controls / opt-out).
TIME - Is Giving ChatGPT Health Your Medical Records a Good Idea?

![[object Object]](/wp-content/uploads/2021/01/27/08/מורידים.-נכנסים.-מתאהבים.-דף-כתבה-מובייל.png)