"סמן את כל הרמזורים": למה המבחן הכי מעצבן באינטרנט כבר לא עובד

בזמן האחרון אתרים פחות מבקשים מאיתנו להוכיח שאנחנו אנושיים על ידי מבחני CAPTCHA - כמו הקלדה של אותיות אקראיות או זיהוי תמונות של מעברי חצייה • זה לא בגלל שנמצא פתרון טוב יותר

כבר לא עובד. מבחן CAPTCHA. צילום: GettyImages

בכל פעם שאתם מתבקשים לסמן תמונות של רמזורים, לסובב את התמונה בטיקטוק כך שתתאים למסגרת או להקליד אותיות מעוותות בתיבת טקסט, אתם משתתפים בקרב מתמשך - מלחמה שקטה בין מערכות הגנה לבין צבאות של תוכנות אוטומטיות שמנסות להתחזות לבני אדם. וככל שהבינה המלאכותית מתקדמת, הקרב הזה הופך מתסכל ומתיש יותר עבור כולם.

ההיפך ממבחן טיורינג

ב-1950 הציע המתמטיקאי הבריטי אלן טיורינג מבחן שמטרתו לבדוק אם מכונה יכולה לחשוב: אם אדם לא מצליח להבדיל בין תשובות של מכונה לתשובות של אדם, המכונה עברה את המבחן. 75 שנה מאוחר יותר, האינטרנט זקוק למבחן הפוך: לוודא שהישות בצד השני היא אנושית.

הצורך הזה נובע מאיום ממשי. בוטים - תוכנות אוטומטיות - יכולים להציף אתרים בהרשמות מזויפות, לרכוש כרטיסים וסחורות לפני שאנשים אמיתיים מספיקים להגיב, להפיץ ספאם ומידע שקרי ברשתות חברתיות, ולבצע התקפות אוטומטיות על מערכות אבטחה.

המהפכה השלמה: כך הפכה OpenAI מסטארט-אפ לכלי שמשרת מיליארד משתמשים בשלוש שנים | אנווטו

ההיסטוריה של CAPTCHA

המילה CAPTCHA היא ראשי תיבות של "Completely Automated Public Turing test to tell Computers and Humans Apart", או בתרגום חופשי "מבחן טיורינג ציבורי אוטומטי לחלוטין להבחנה בין מחשבים לבני אדם". הגרסאות הראשונות הציגו טקסט מעוות, שתוכנות זיהוי תווים התקשו לקרוא, אך בני אדם מסוגלים לפענח יחסית בקלות.

השיטה עבדה - לזמן מה. אבל טכנולוגיות זיהוי תווים אופטי (OCR) השתפרו, ופתאום המחשבים קראו את הטקסט המעוות טוב יותר מבני אדם. המפתחים הגיבו בהוספת רעש, קווים ועיוותים נוספים, מה שהפך את החוויה לקשה ומתסכלת יותר עבור משתמשים אמיתיים.

עידן התמונות

הצעד הבא היה reCAPTCHA של גוגל, שעבר לזיהוי תמונות: "סמן את כל התמונות עם רמזורים", "בחר את כל הריבועים שמכילים אופניים". השיטה ניצלה את העובדה שזיהוי אובייקטים בתמונות היה קשה למכונות - אבל גוגל עצמה הרסה את השיטה בכך שהשתמשה בתוצאות כדי לאמן אלגוריתמים של ראייה ממוחשבת, שלימדו את הבינה המלאכותית שלה לפרש תמונות.

בסופו של דבר, מודלים של ראייה ממוחשבת הפכו מדויקים יותר מבני אדם בזיהוי אובייקטים. חוות קליקים במדינות מתפתחות החלו לפתור מבחני CAPTCHA עבור בוטים תמורת תשלום זעום, כדי לשפר אותם עוד יותר. התוצאה היא שכיום, שירותי בינה מלאכותית מסחריים מציעים פתרון אוטומטי של כמעט כל CAPTCHA תמורת שברירי סנט.

הזיהוי ההתנהגותי

הגל הנוכחי של מערכות הגנה מנסה לזהות בוטים לא לפי מה שהם עושים, אלא לפי איך שהם עושים זאת. בני אדם מזיזים את העכבר בצורה לא אחידה, מהססים, עושים טעויות קטנות ומתקנים אותן. בוטים נוטים לפעול בדיוק מכני חשוד.

מערכות כמו reCAPTCHA v3 פועלות ברקע, ומנתחות את התנהגות הגולש בזמן שהוא צופה בהודעת המתנה ומחשבות "ציון אנושיות". אם הציון גבוה מספיק - הגולש כלל לא יידרש לפתור אתגר כלשהו. אם יש ספק - מופיע אתגר נוסף לפתרון.

אבל גם כאן, היריב מתאים את עצמו. בוטים מתקדמים מדמים תנועות עכבר אנושיות, מוסיפים השהיות אקראיות, ומשתמשים בפרופילי דפדפן גנובים של משתמשים אמיתיים. מודלי למידת מכונה מאומנים לחקות התנהגות אנושית בדיוק רב.

מרוץ שאי אפשר לנצח בו

המצב הנוכחי מציב שאלה מטרידה: אם בינה מלאכותית מסוגלת לעבור כל מבחן שתוכנן להבדיל בינה לבין אדם, כיצד נוכל בכלל לדעת עם מי אנחנו מדברים באינטרנט?

חלק מהפתרונות המוצעים הם רדיקליים: חובת הזדהות ביומטרית, זהות דיגיטלית מאומתת על ידי ממשלות, או מערכות מבוססות בלוקצ'יין. כל אחד מהם מעלה חששות כבדים לפרטיות וריכוז כוח.
בינתיים, המלחמה נמשכת.

טעינו? נתקן! אם מצאתם טעות בכתבה, נשמח שתשתפו אותנו

כדאי להכיר