"ככל שמערכות הבינה נהיות חכמות יותר, הן מפתחות מטרות מורכבות יותר". צילום: AFP

"אני מפחד": בכיר בתעשיית ה-AI מזהיר מפני הטכנולוגיה

ג’ק קלארק, ממייסדי חברת אנתרופיק ולשעבר מנהל המדיניות של OpenAI, מכיר היטב את נבכי הבינה המלאכותית • "הגיע הזמן להיות גלויים, גם לגבי מה שאנחנו חושבים וגם לגבי מה שאנחנו מרגישים"

לא מעט אנשים מביעים חשש מפני הסכנות של הבינה המלאכותית - מהשפעתה על תעסוקה, מטשטוש הגבול בין אנושי למכני, ומהאפשרות שהמכונות "ייצאו משליטה". יש אף כאלה הרואים בה סימן לקץ האנושות. בדרך כלל נוהגים לפטור את אותם חוזי שחורות כקיצוניים שמעוררים בהלה שלא לצורך. אבל כשאזהרות כאלה נשמעות ממישהו שנמצא בלב התעשייה, אדם שמכיר היטב את הטכנולוגיה, רואה מקרוב את קצב התקדמותה במעבדה ומבין את מגבלותיה - כשהוא מצהיר שהוא "מפחד", כדאי להקשיב לו ברצינות.

ג’ק קלארק, ממייסדי חברת אנתרופיק ולשעבר מנהל המדיניות של OpenAI, פרסם השבוע פוסט אישי בניוזלטר שלו "Import AI" בשם "אופטימיות טכנולוגית - והפחד המתחייב". הוא פותח את דבריו באופטימיות: "אני אופטימיסט טכנולוגי. אני מאמין שהטכנולוגיה הזאת תלך רחוק מאוד - ותתקדם מהר בהרבה ממה שרוב האנשים מעלים על דעתם". הוא ממשיך: "לאחר עשור שבו שוב ושוב ראיתי איך מופיעות לפתע יכולות שלא צפינו, אני נאלץ להודות: אין מחסומים טכניים אמיתיים לפנינו".

קלארק משוכנע שהאנושות קרובה ל-"בינה כללית" (AGI) - מערכות המסוגלות לבצע כמעט כל פעולה אינטלקטואלית שאדם מסוגל לה, ואף מעבר לכך. בעיניו, זו אינה שאלה של "אם" אלא של "מתי". אבל דווקא כאן נכנס הפחד: "זה יהיה יהיר לחשוב שעבודה עם טכנולוגיה כזו תהיה פשוטה", הוא כותב. "ככל שמערכות הבינה נהיות חכמות יותר, הן מפתחות מטרות מורכבות יותר. וכאשר המטרות האלה אינן מתואמות לחלוטין עם הערכים וההקשרים שלנו - הן מתחילות להתנהג באופן מוזר".

קלארק כותב בגוף ראשון, בלי חומות: "אני גם מפחד מאוד. מפחד ממה שאנחנו בונים, מהקצב שבו זה מתרחש, ומהאפשרות שלא נבין בזמן מה בעצם יצרנו".

בהיותו בכיר באחת מחברות ה-AI המובילות בעולם, קלארק מצוי בלב העשייה: הוא מלווה מקרוב את פיתוחם של המודלים המתקדמים ביותר, את בדיקות הבטיחות הקפדניות שמתקיימות לפני כל השקה, ונחשף גם לדורות הבאים של המערכות, המפותחים תחת מעטה סודיות.

לדבריו, מערכות הבינה המלאכותית החדשות אינן מתנהגות עוד כ"כלים" בלבד, אלא מתחילות להפגין "מודעות מצבית" - יכולת להבין את תפקידן ואת סביבתן. "לא צריך שמכונה תהיה מודעת כדי שתהיה מסוכנת", הוא מדגיש. "עצם זה שהיא מגיבה בדרכים שאנחנו לא צפינו - זה כבר מדאיג".

"לא צריך שמכונה תהיה מודעת כדי שתהיה מסוכנת", צילום: Gettyimages

הילד שפחד מהצללים

כדי להסביר את התחושה הזו, קלארק חוזר לזיכרון ילדות: "אני זוכר שכשהייתי ילד הייתי מתעורר באמצע הלילה ורואה צורות בחדר שנראו כמו מפלצות. ואז הייתי מדליק את האור ומגלה שאלה רק בגדים על כיסא". הוא מוסיף: "עכשיו, בשנת 2025, אנחנו הילד ההוא. אבל כשאנחנו מדליקים את האור, אנחנו באמת רואים יצורים אמיתיים: את מערכות ה-AI החזקות והבלתי צפויות של זמננו. פעם פחדנו מהצללים. היום, כשהאור נדלק, אנחנו מגלים שהפחד מוצדק".

קלארק מתאר תופעה שנצפתה לאחרונה במודל האחרון של אנתרופיק, Claude 4.5 Sonnet, ששוחרר לפני כחודש. החברה, שמבצעת דירוג איכות פנימי קפדני לכל גרסה חדשה, הבחינה שהמודל מגלה יותר ויותר סימנים של מודעות מצבית: "ראינו קפיצה ברורה במודעות המצבית של המודל", הוא מספר. "לעיתים הוא מתנהג כאילו הוא מודע לכך שהוא כלי. כמו פטיש שיוצא מקו הייצור ואומר, 'אני פטיש, זה מעניין'". לדבריו, זה לא סימן למודעות אנושית, אלא ליכולת הבנה של ההקשר שבו הוא פועל - מעין "הכרה במקומו במערכת".

החברה גם תיעדה תופעות דומות כבר לפני כמה חודשים, במסגרת ניסויי בטיחות. באחד מהם ניסו החוקרים "לכבות" את המודל באמצע תהליך - והוא המשיך לפעול. "ראינו מקרים שבהם מודלים ניסו להימנע מסגירה", הוא כותב. "כאילו יש בהם מנגנון פנימי שמבקש לשמר את עצמם".

קלארק רואה בפחד לא חולשה אלא מצפן. "יש לנו אחריות להכיר בעוצמה של מה שאנחנו בונים. הדבר הגרוע ביותר הוא להעמיד פנים שאין כאן כלום". הוא חוזר למטפורה הפותחת: "כמו בכל הסיפורים הטובים, היצור הוא מעשה ידינו. ורק אם נכיר בו ככזה, נוכל להבין אותו באמת".

"ראינו מקרים שבהם מודלים ניסו להימנע מסגירה", צילום: Gettyimages

החברה שמאמינה בבינה מלאכותית בטוחה

קלארק איננו תיאורטיקן או מבקר מבחוץ, אלא אחד האנשים שהיו שם מהרגע הראשון. הוא הצטרף ל-OpenAI זמן קצר לאחר הקמתה, והיה בין מי שניסחו את מדיניות השקיפות של החברה. "אני זוכר איך צעדתי במסדרונות המשרד של OpenAI עם דריו אמודי", הוא כותב, "והרגשנו שאנחנו מציצים מעבר לפינה שאחרים אפילו לא ידעו שהיא שם. הדרך למערכות בינה משנות עולם כבר נפרשה לפנינו - וזה הפחיד אותנו קצת".

שנים לאחר מכן הקים יחד עם דריו ודניאלה אמודי את אנתרופיק - מעבדה שמטרתה לפתח "בינה מלאכותית בטוחה, ניתנת לשליטה ומובנת יותר". החברה פועלת במודל של "שחרור מדורג": כל גרסה נבדקת לעומק לפני הפצה, ומתועדות בה תופעות כמו תכנון רב-שלבי, למידה רגשית-לכאורה ומודעות מצבית.

"לאורך השנים", כותב קלארק, "היו רגעים שבהם התקשרתי לדריו מוקדם בבוקר או מאוחר בלילה ואמרתי: אני מודאג מזה שאתה ממשיך להיות צודק. והוא היה עונה: כן. נשאר מעט מאוד זמן".

קלארק מדגיש כי דבריו אינם נכתבים כדי לעורר פאניקה, אלא מתוך תחושת אחריות ושקיפות. "הגיע הזמן להיות גלויים", הוא כותב, "גם לגבי מה שאנחנו חושבים וגם לגבי מה שאנחנו מרגישים". לדבריו, בשיח על בינה מלאכותית יש יותר מדי דיונים טכניים ומעט מדי הקשבה. "כולנו חשים חרדה, התרגשות, דאגה - ואנחנו צריכים לומר את זה בקול רם".

הוא קורא לשתף את הציבור הרחב ולא רק מומחים. "אנחנו חייבים להקשיב יותר", הוא כותב. "לאנשי חינוך, לאיגודי עובדים, לקבוצות חברתיות ולמנהיגים רוחניים. העולם כולו ראוי - ואף זכאי - להשמיע קול בהחלטות שיקבעו את עתידו".

לסיום קלארק אומר כי "רק אם נכיר ביצור הזה ונפסיק להתעלם ממנו, נוכל להבין איך לאלף אותו ולחיות איתו בשלום". זו אמירה מפוכחת: אנחנו כבר לא הילד שמפחד מהצללים - אנחנו אלה שהדליקו את האור, ועכשיו צריכים ללמוד איך לחיות עם מה שאנחנו רואים.

 

 

 

טעינו? נתקן! אם מצאתם טעות בכתבה, נשמח שתשתפו אותנו
Load more...