איך לדעת מה לדרוס

על אף כל מאמצינו, מערכות ממוחשבות רחוקות מלהיות בעלות שכל ישר. האם הבעיה טמונה בטכנולוגיה או בנו ובמגבלותינו?
X זמן קריאה משוער: 8 דקות

תארו לעצמכם שאתם נוהגים במכונית ברחובה של עיר. אתם פונים, והנה פתאום יש לפניכם משהו באמצע הכביש. מה אתם אמורים לעשות?

כמובן, התשובה תלויה במה הוא "הדבר" הזה שלפניכם. שקית נייר קרועה? נעל אבודה? ענף יבש שנתלש ומתגלגל? אתם יכולים לנסוע קדימה ולדרוס את הדבר בלי לחשוב פעמיים, אבל אם מדובר בערימה של שברי זכוכית, ללא ספק תבחרו לעקוף אותה. יש להניח שתעצרו אם מדובר בכלב העומד באמצע הרחוב, אבל תמשיכו בנסיעה הישר לתוך להקת יונים, בידיעה שהציפורים יתעופפו ויפנו את הרחוב. אתם עשויים לחצות ערימה של שלג שהצטבר, אבל תעקפו איש שלג שהוקם ברוב קפידה. בקיצור, אתם תקבעו במהירות מה הפעולות שמתאימות ביותר למצב – מה שבני-האדם מכנים בשם "שכל ישר".

כדי להיות אמינות, המכוניות האוטונומיות זקוקות לשכל ישר: ידע רחב על העולם ויכולת להתאים את הידע הזה בנסיבות חדשות

נהגים אנושיים אינם היחידים הזקוקים לשכל ישר. היעדרו במערכות אינטליגנציה מלאכותית תהיה ככל הנראה המכשול העיקרי בפני הפעלה רחבת היקף של מכוניות אוטונומיות לחלוטין. אפילו הטובות ביותר מבין המכוניות האוטונומיות הקיימות היום מתקשות להתמודד עם "בעיית החפץ על הכביש". המכוניות הללו קולטות "מכשולים" ששום אדם לא היה עוצר בגללם, ולכן הן נוטות לבצע בלימות פתע ובכך להפתיע נהגים אחרים. התנגשות מאחור של רכב הנהוג בידי אדם היא התאונה הנפוצה ביותר שבה מעורבות מכוניות אוטונומיות.

האתגרים הניצבים בפני מכוניות אוטונומיות קרוב לוודאי לא ייפתרו על ידי כך שניתן למכוניות נתונים רבים יותר או שנצייד אותן בכללים מפורשים שיקבעו מה לעשות במצבים לא רגילים. כדי להיות אמינות, המכוניות הללו זקוקות לשכל ישר: ידע רחב על העולם ויכולת להתאים את הידע הזה בנסיבות חדשות. בעוד שמערכות האינטליגנציה המלאכותית הקיימות היום התקדמו בצורה מרשימה בשלל תחומים, החל בזיהוי תמונות ועד לעיבוד שפה, העובדה שאין להן בסיס מוצק של שכל ישר גורמת לכך שהן נוטות לבצע טעויות לא צפויות, טעויות שאינן דומות לאלו שבני אדם נוטים לעשות.

מנהרה, שלטי דרכים

מה תעשה כאן מכונית אוטונומית? התשובה לא בהכרח פשוטה. תצלום: דניאל חרס

השכל הישר הוא עניין רב-פנים, אך היבט חיוני אחד שלו הוא "ידע הליבה" שרובו אינו מנוסח, הידע שבני-אדם חולקים – ידע שאנו נולדים איתו או צוברים הודות לכך שאנו חיים בעולם. המאגר הזה כולל ידע עצום על תכונותיהם של חפצים, בעלי חיים, אנשים אחרים והחברה בכלל, וכן היכולת ליישם את הידע הזה באורח גמיש במצבים חדשים. למשל, אתם יכולים לנבא שערימת שברי זכוכית על הכביש לא תתעופף כשתתקרבו אליה, אבל זה בדיוק מה שתעשה כנראה להקת ציפורים: תתעופף לה. למשל, אם אתם רואים כדור מקפץ לפני המכונית שלכם, אתם יודעים שיתכן שבעקבותיו יבואו בריצה ילד או כלב המנסים לתפוס את הכדור. מזווית ההסתכלות הזאת, המושג "שכל ישר" נראה כמקיף בדיוק את מה שאינטליגנציה מלאכותית בת ימינו אינה מסוגלת לעשות: להשתמש בידע כללי על העולם כדי לפעול מחוץ למה שהיא אומנה מראש לעשות, ומחוץ לכללים שתוכנתו בה מראש.

מערכות האינטליגנציה המלאכותית המוצלחות ביותר כיום עושות שימוש ברשתות נוירונים עמוקות. מדובר באלגוריתמים המאומנים לאתר תבניות, על בסיס סטטיסטיקה שנאספה מאוספים גדולים של דוגמאות שבני-אדם תייגו. התהליך הזה שונה מאוד מן האופן שבו בני-אדם לומדים. נראה שאנו באים לעולם כשאנו מצוידים בידע מולד על אודות מושגים בסיסיים מסוימים אשר עוזרים לנו להפעיל לראשונה את אופן הלימוד שלנו, בכוחות עצמנו – כולל מושגים בדבר אובייקטים ואירועים מובחנים, טבעו התלת-ממדי של המרחב, ועצם מושג הסיבתיות. נראה כי בני-האדם נולדים גם עם מושגים מולדים של חברתיות: תינוקות מסוגלים לזהות הבעות פנים פשוטות, יש להם שמץ של מושג על אודות הלשון ותפקידה בתקשורת, ויש להם גם אסטרטגיות פשוטות שנועדו לגרום למבוגרים להיענות לרצונם לתקשר. הידע הזה כל כך בסיסי ומיידי, שאיננו מודעים לכך שיש לנו אותו, או שהוא הבסיס לכל לימוד עתידי. עשרות שנים של מחקר בתחום האינטליגנציה המלאכותית לימדו אותנו לקח חשוב והוא עד כמה קשה ללמד מכונות מושגים כאלו.

בנוסף לידע המולד שלהם, ילדים גם מגלים דחפים מולדים לחקור את העולם באורח פעיל, לברר סיבות ותוצאות של אירועים, לחזות אירועים, ולגייס מבוגרים ללמד אותם את מה שהם רוצים לדעת

בנוסף לידע המולד שלהם, ילדים גם מגלים דחפים מולדים לחקור את העולם באורח פעיל, לברר סיבות ותוצאות של אירועים, לחזות אירועים, ולגייס מבוגרים ללמד אותם את מה שהם רוצים לדעת. היווצרות המושגים קשורה בקשר הדוק לכך שילדים מפתחים יכולות מוטוריות ומודעות לגופם שלהם – למשל, נראה שתינוקות מתחילים לברר לעצמם מדוע אנשים אחרים מושיטים יד לקחת חפצים אחרים באותו הזמן שבו הם מסוגלים להושיט את ידם ולעשות את אותו הדבר בכוחות עצמם. בעוד שמערכות למידת-מכונה הטובות ביותר הקיימות היום מתחילות כלוחות חלקים ומתפקדות כלומדות פסיביות וחסרות גוף של תבניות סטטיסטיות, הרי שאצל תינוקות השכל הישר צומח דרך ידע מולד המשולב בלמידה המגולמת בגוף, למידה חברתית, פעילה שמכוונת ליצירת תאוריות על העולם ובחינתן.

היסטורית, הניסיונות להשתלת שכל ישר במערכות אינטליגנציה מלאכותית התמקדו בעיקר בקטלוג ידע אנושי: תכנות ידני, מיקור המונים, או כרייה מהאינטרנט של "קביעות" של שכל ישר, או ייצוגים חישוביים של מצבים סטריאוטיפיים. אך כל הניסיונות הללו ניצבים בפני מכשול גדול, ואולי אף קטלני: הרבה (אולי רוב) ידע הליבה האינטואיטיבי שלנו אינו כתוב, אינו נאמר, ואף אינו מצוי במודעות הגלויה שלנו.

סוכנות DARPA (הסוכנות לפרוייקטים מתקדמים של מחקר לצרכי ביטחון) של ארצות הברית, גורם רב חשיבות במימון המחקר בתחום האינטליגנציה המלאכותית, השיקה לאחרונה תכנית ארבע שנתית על אודות "יסודות השכל הישר האנושי", שנוקטת גישה שונה. היא מאתגרת חוקרים ליצור מערכת אינטליגנציה מלאכותית שלומדת מ"ניסיון" כדי להגיע ליכולות הקוגניטיביות של תינוק בן שנה וחצי. לכאורה, משונה שלהגיע לרמה של תינוק נחשב לאתגר גדול לאינטליגנציה המלאכותית, אך הדבר דווקא משקף את הפער בין ההצלחה של האינטליגנציה המלאכותית בתחומים ספציפיים וצרים, ובין אינטליגנציה רחבה ומוצקה יותר.

פעוטות רוכשים "תאוריית בינה" בסיסית: הם מבינים מה אדם אחר יכול או אינו יכול לראות, ובסביבות גיל 18 חודשים, הם מסוגלים לזהות מתי אדם אחר מראה שהוא זקוק לעזרה

ידע הליבה בקרב פעוטות מתפתח לאורך ציר זמן שניתן לחזותו מראש, כך אומרים לנו הפסיכולוגים ההתפתחותיים. למשל, בסביבות גיל חודשיים עד חמישה חודשים, ילדים מגלים ידע באשר ל"קיבוע אובייקט": כלומר אם חפץ מוסתר על ידי חפץ אחר, תינוקות מבינים שהחפץ הראשון עדיין קיים, על אף שהם אינם יכולים לראות אותו. בשלב הזה תינוקות גם מגלים מודעות לכך שכאשר שחפצים מתנגשים אלו באלו, הם אינם עוברים זה בתוך זה, אלא חל שינוי בתנועה שלהם. הם גם יודעים ש"סוכנים" – ישויות בעלות כוונות, כמו בני-אדם או בעלי חיים – מסוגלים להביא לשינוי בתנועה של חפצים. בין גיל 9 ל-15 חודשים, הפעוטות רוכשים "תאוריית בינה" בסיסית: הם מבינים מה אדם אחר יכול או אינו יכול לראות, ובסביבות גיל 18 חודשים, הם מסוגלים לזהות מתי אדם אחר מראה שהוא זקוק לעזרה.

היות שילדים מתחת לגיל 18 חודשים אינם מסוגלים לומר לנו מה הם חושבים, הרי שביחס לאבני דרך קוגניטיביות מסוימות אין לנו ברירה אלא להסיק מסקנות עקיפות. לרוב אנו נזקקים לניסויים שבוחנים "הפרת ציפייה". כאן, תינוק צופה באחד משני תסריטים מוכנים מראש, שרק אחד מהם תואם ציפיות של שכל ישר. התאוריה היא שתינוק יביט זמן רב יותר בתסריט המפר את ציפיותיו, ואכן, תינוקות שנבחנו כך אכן מביטים זמן רב יותר בתסריט שאינו הגיוני.

באתגר של "יסודות השכל הישר האנושי" של DARPA, על כל קבוצת חוקרים מוטל לפתח תכנית מחשב – סימולציה של "סוכן שכל ישר" – שלומדת מווידאו או ממציאוּת מדומה. התכנית של DARPA  היא להעריך את הסוכנים הללו על ידי ביצוע ניסויים דומים לאלו המבוצעים עם פעוטות, ולמדוד את "האותות להפרת הציפיות" של הסוכנים.

לא תהיה זאת הפעם הראשונה שמערכות אינטליגנציה מלאכותית מוערכות באמצעות מבחנים שנועדו לבדוק אינטליגנציה אנושית. ב-2015, קבוצת חוקרים הראתה שמערכת אינטליגנציה מלאכותית יכולה להשתוות לביצועים של ילד בן 4 במבחן איי-קיו, וכתוצאה מכך הבי.בי.סי. דיווח ש"לאינטליגנציה המלאכותית היה איי-קיו של ילד בן 4". לאחרונה, חוקרים באוניברסיטת סטנפורד יצרו מבחן "קריאה" שבעקבותיו דווח ב"ניו יורק פוסט" כי "מערכות אינטליגנציה מלאכותית גוברות על בני אדם בהבנת הנקרא". אלא שהטענות הללו מטעות. בניגוד לבני אדם המצליחים באותו מבחן, כל אחת ממערכות האינטליגנציה המלאכותית אומנה ספציפית בתחום צר ולאף אחת מהן לא היו היכולות שהמבחן תוכנן לאמוד. כפי שאיש מדעי המחשב מאוניברסיטת ניו יורק, ארנסט דייויס, הזהיר: "הציבור יכול לקפוץ בקלות למסקנה שהיות שמערכת אינטליגנציה מלאכותית שמסוגלת לעבור מבחן, יש לה אותה האינטליגנציה כמו לאדם שעובר את אותו המבחן".

תינוקת, זחילה, זוחלת

אינטליגנציה טבעית זוחלת. תצלום: Picsea

כדי ליצור אינטליגנציה מלאכותית כללית ואמינה, יתכן שיהיה עלינו לעשות צעד קיצוני לאחור: לתכנן את המכונות שלנו ללמוד יותר כמו תינוקות, במקום לאמן אותן להצלחה ספציפית ביחס לאמות מידה מסוימות

אני חושבת שיתכן, ואפילו סביר, שמשהו דומה יקרה ליוזמה של DARPA. היא עשויה להניב תכנית אינטליגנציה מלאכותית שאומנה ספציפית לעבור את המבחנים של DARPA לזיהוי אבני דרך קוגניטיביות, ושבכל זאת לא יהיה לה דבר מן האינטליגנציה הכללית שמציינת ומניבה את אבני הדרך הללו אצל בני-האדם. חוששתני שאין קיצורים בדרך לשכל ישר, בין אם נשתמש באנציקלופדיה, בסרטוני וידאו לצורך אימון או בסביבות וירטואליות. כדי לפתח הבנה של העולם, סוכן זקוק לידע מולד מהסוג הנכון, לארכיטקטורת הלמידה הנכונה, ולהזדמנות של ממש לגדול בעולם. סוכנים כאלו צריכים לחוות לא רק את המציאות הפיזית, אלא גם את ההיבטים החברתיים והרגשיים של האינטליגנציה האנושית שאי-אפשר להפריד אותם מן היכולות ה"קוגניטיביות" שלנו.

על אף שהתקדמנו באורח משמעותי, האינטליגנציה המלאכותית של דורנו עדיין צרה ואינה אמינה. כדי ליצור אינטליגנציה מלאכותית כללית ואמינה, יתכן שיהיה עלינו לעשות צעד קיצוני לאחור: לתכנן את המכונות שלנו ללמוד יותר כמו תינוקות, במקום לאמן אותן להצלחה ספציפית ביחס לאמות מידה מסוימות. הרי בסופו של דבר, הורים אינם מאמנים את ילדיהם באורח ישיר לגלות אותות של "הפרת הציפייה". האופן שבו פעוטות מתנהגים בניסויים בפסיכולוגיה הוא פשוט תוצר לוואי של האינטליגנציה הכללית שלהם. אם נמצא את הדרך לאפשר למכונות שלנו ללמוד כמו ילדים, אולי לאחר שנים אחדות של לימוד המונע על ידי סקרנות, לימוד פיזי וגם חברתי, "סוכני השכל הישר" הצעירים הללו יהפכו סוף-סוף למתבגרים – כאלו שיש להם די שכל ישר כדי שיהיה אפשר להפקיד בידיהם מפתחות של מכונית.

 

אם הגעת עד לכאן....

...יש לנו בקשה קטנה. קוראים רבים נהנים מהתכנים האיכותיים ש'אלכסון' מציע ללא כל תמורה. הפקת כתב העת ברמה כזאת כרוכה בהשקעה רבה של עבודה וכסף: עריכה, תרגום ורכישת זכויות פרסום בחו'ל. אם הערכים והרעיונות ש'אלכסון' מקדם קרובים לליבך ואם יש בך הערכה לעבודתנו אנו מבקשים את תמיכתך כדי להבטיח את הקיימות ארוכת הטווח של כתב העת.

לתמוך באלכסון

מלאני מיטשל (Melanie Mitchell) היא פרופסור למדעי המחשב באוניברסיטת פורטלנד ופרופסורית מהחוץ ב-Santa Fe Institute. היא מחברת הספרים Complexity: A Guided Tour שראה אור בשנת 2009 וכן Artificial Intelligence: A Guide for Thinking Humans שיראה אור ב-2019.

AEON Magazine. Published on Alaxon by special permission. For more articles by AEON, follow us on Twitter.

תורגם במיוחד לאלכסון על ידי אדם הררי

תמונה ראשית: פנס קדמי, צילום: ייבגניה ויסוצ'ינה, unsplash.com

Photo by Євгенія Височина on Unsplash

מחשבה זו התפרסמה באלכסון ב על־ידי מלאני מיטשל, AEON.


תגובות פייסבוק

2 תגובות על איך לדעת מה לדרוס