ג'פרי הינטון, מהשמות הכי חשובים שאי פעם פעלו בתחום הבינה המלאכותית, מודה היום בגלוי: "יכול להיות שעשיתי טעות גורלית".
הינטון, פרופסור קנדי־בריטי למדעי המחשב ופסיכולוגיה קוגניטיבית, היה ממפתחי אלגוריתם ה־Backpropagation, השיטה שהובילה לפריצת הדרך בלמידה העמוקה (Deep Learning), הבסיס עליו פועלות מערכות כמו GPT, בינה מלאכותית רבת-עוצמה וכלים כמו ChatGPT.
במשך עשור עבד הינטון בחטיבת המחקר של גוגל, עד שבשנת 2023 התפטר מתפקידו כדי לדבריו, "לשחרר את הפה". הוא חש שהחברה שבה עבד מגבילה אותו מלהביע את מה שהוא רואה כסכנה קיומית ממשית.
"יש סיכוי של 10 עד 20 אחוז שהבינה המלאכותית תביא לחורבן האנושות", הוא הזהיר באחת מהצהרותיו האחרונות. למרות כל זאת, הינטון קיבל בשנת 2024 פרס נובל, כהכרה על תרומתו יוצאת הדופן להתפתחות התחום, אך בניגוד לרוב הזוכים, הוא ניצל את הבמה דווקא כדי לקרוא לעולם להתעורר.
תחזית קודרת: "עד 2027 מקצועות שלמים ייעלמו"
לטענתו, קצב ההתקדמות של ה-AI מהיר בהרבה ממה שהציבור מבין:
בתוך כשנתיים, מקצועות כמו שירות לקוחות, עריכת תוכן, עוזרים משפטיים ושיווק דיגיטלי, כבר לא יידרשו יותר לבני אדם.
לדוגמה, הוא סיפר על אחייניתו שבעבר כתבה תגובות ללקוחות בעצמה, והיום היא מזינה את הטקסט לתוך מערכת בינה מלאכותית, בודקת את ההצעה ושולחת. "עבודה שלקחה 25 דקות, היום לוקחת חמש. זה אומר שארבעה מתוך חמישה עובדים הופכים מיותרים".
גם כלי ריגול וגם נשק פוטנציאלי
הסכנה אינה רק כלכלית: הינטון מזהיר שה-AI כבר עכשיו משמש ממשלות אוטוריטריות ככלי ריגול, תורם ליצירת חדרי הדהוד וקיטוב חברתי ברשתות, ועלול לשמש גם ליצירת פייק ניוז, נשק אוטונומי ואפילו ביולוגי. "אם לא תהיה רגולציה עולמית אמיתית היכולות האלה פשוט יצאו משליטה", הוא טוען.
אז מה כן אפשר לעשות?
למרות התחזיות הקודרות, הינטון לא מציע להילחם ב-AI, אלא להבין איך לחיות לצידו. לדבריו, מי שרוצה להישאר רלוונטי בשוק העבודה של העתיד, צריך לחזק דווקא את מה שהופך אותנו לבני אדם: אמפתיה, יצירתיות, שיפוט מוסרי ואינטואיציה אנושית.
תחומים אלו, לפחות כרגע, קשה מאוד לאמן עליהם מערכות בינה מלאכותית. בנוסף, הוא קורא לאמץ את ה-AI ככלי, ולא כתחליף. "אל תפחדו ממנו, אלא תלמדו איך להשתמש בו, כחלק מהעבודה שלכם".
טעינו? נתקן! אם מצאתם טעות בכתבה, נשמח שתשתפו אותנו