לפי דיווח שפורסם בסוף השבוע ב"וול סטריט ג'ורנל" מערכות בינה מלאכותית הפכו בשנה האחרונה לאמינות ושימושיות יותר באופן משמעותי, למרות שהבסיס הטכנולוגי שלהן עדיין סובל מאותן מגבלות מוכרות כמו "הזיות" ואי-דיוקים. השיפור, אומרים מומחים, אינו נובע מפריצת דרך אחת גדולה, אלא משילוב של כמה שינויים מרכזיים בגישה לפיתוח.
הדיווח מתבסס בין היתר על דליפת קוד של מערכת קלוד מבית אנתרופיק, שחשפה חלק מהשיטות שמאחורי הקלעים. אף שהקוד לא מאפשר לשחזר את המערכת, הוא סיפק הצצה לדרך שבה חברות מובילות כמו OpenAI, גוגל ואחרות הפכו את המודלים שלהן לכלים פרקטיים יותר לעבודה יומיומית.
אחת הסיבות המרכזיות לשיפור היא הגדלת הידע והיכולת של המודלים להתעדכן. בעבר, מודלים של שפה אומנו בעיקר על בסיס מידע קיים מהרשת - ספרים, אתרים ותוכן ציבורי. כיום, חברות משלמות למומחים בתחומים שונים כדי לייצר תוכן איכותי ומדויק במיוחד עבור אימון הבינה המלאכותית.
כיצד הידע האנושי משנה את ה-AI?
אלפי מומחים בתחומים כמו רפואה, פיננסים וטכנולוגיה משתתפים כיום בתהליך האימון של מודלים גדולים. הם כותבים תשובות מורכבות, בודקים תוצרים ומסייעים לחדד את הדיוק של המערכות. התהליך הזה מאפשר למודלים להתמודד טוב יותר עם שאלות מורכבות ולהפחית טעויות.
בנוסף, מערכות AI מודרניות אינן מסתמכות רק על הידע הפנימי שלהן. הן יודעות "לחפש" מידע עדכני באמצעות מנועי חיפוש כמו גוגל, וכך לשלב נתונים עדכניים בזמן אמת. לפי נתונים שפורסמו, מודלים עדכניים מציגים ירידה של עשרות אחוזים בשגיאות עובדתיות לעומת גרסאות קודמות.
עם זאת, חברות עדיין מנסות להתמודד עם בעיה מרכזית: הנטייה של מודלים "להמציא" תשובות כאשר אין להם מידע. אחד הפתרונות הוא לגרום למערכת להכיר במגבלותיה ולהצהיר כאשר היא אינה בטוחה.
לא רק "לנחש"
שיפור נוסף מגיע מהיכולת של מערכות AI להשתמש בכלים חיצוניים. בעבר, מודלים היו מנסים "לנחש" תשובות גם בתחומים כמו מתמטיקה או קוד. כיום, הם יודעים להפעיל תוכנות חישוב, לכתוב קוד או להשתמש במחשבים חיצוניים כדי להגיע לתוצאה מדויקת.
חוקרים מציינים כי מדובר בשילוב בין שני עולמות. מצד אחד מודלים הסתברותיים, ומצד שני מערכות חישוב מדויקות. כך, במקום להסתמך רק על חיזוי מילים, המערכות משתמשות גם בכלים קשיחים ואמינים יותר. בנוסף, הקוד שדלף חשף כי מערכות מתקדמות כוללות מנגנוני זיכרון לניהול שיחה, וכן יכולות לזהות מצבים כמו תסכול של המשתמש - למשל באמצעות זיהוי שפה פוגענית או קללות.
אחת ההתפתחויות המשמעותיות ביותר היא היכולת של מערכות AI לבדוק את עצמן. במקום לספק תשובה מידית, המערכת מבצעת תהליך פנימי של "חשיבה". כלומר, פירוק הבעיה לשלבים ובחינה מחדש של התשובה. במקרים מסוימים, נעשה שימוש בכמה מודלים במקביל.
מודל אחד מייצר תשובה, ומודל אחר בודק אותה. רק אם יש הסכמה בין המערכות, התוצאה נחשבת אמינה. גישה זו, המכונה לעיתים "מועצת מודלים", מובילה להפחתת טעויות ושיפור באיכות התוצרים.
למרות השיפור, מומחים מדגישים כי אין מדובר בבינה מלאכותית שחושבת כמו בני אדם. השיפור נובע בעיקר משילוב חכם של ידע, כלים וטכנולוגיות קיימות, ולא מהבנה עמוקה או תודעה אמיתית. בסיכומו של דבר, מערכות הבינה המלאכותית, גם היום, אינן מושלמות, אך הן כבר מספיק טובות כדי לבצע משימות אמיתיות - תוצאה של עבודה הנדסית מתוחכמת שמנצלת את היתרונות של בני האדם לצד יכולות חישוב מתקדמות.
טעינו? נתקן! אם מצאתם טעות בכתבה, נשמח שתשתפו אותנו
![[object Object]](/wp-content/uploads/2021/01/27/08/מורידים.-נכנסים.-מתאהבים.-דף-כתבה-מובייל.png)