מכונות אמת, מכונות שקר

אלגוריתמים חדישים מסוגלים לייצר טקסטים משכנעים. האם נדע להשתלט על הטכנולוגיה?
X זמן קריאה משוער: 8 דקות

סביר להניח שמעולם לא שמעתם על ליאם פור.

פור (Porr), עד לא מזמן סטודנט באוניברסיטת ברקלי שבקליפורניה, החליט להשתעשע ברשת הנוירונים החזקה ביותר שנוצרה אי פעם בתחום השפה הטבעית, GPT-3. הוא העלה בלוג שכל כולו נכתב על ידי אלגוריתם ייצור הטקסט של  GPT-3 וזה מה שקרה תוך שבועיים:

"הייתי כותב את הכותרת ופסקה קצרה, מוסיף תמונה, ונותן ל-GPT-3 לעשות את השאר. לבלוג נכנסו למעלה מ-26 אלף אנשים, ויש לי כרגע כששים מנויים נאמנים ... ורק אדם אחד העלה את ההשערה שמדובר בבלוג שנכתב על ידי מכונה".

הפוסט הראשון שפורסם בבלוג הגיע עד מהרה לרשימת המומלצים באתר הפופולרי Hacker News שבבעלות אחת מחממות הסטרטאפים המפורסמות בעולם: Y-Combinator. התגובות הספורות שרמזו שמדובר בטקסט שהופק על ידי מכונה קיבלו, למרבה האירוניה, דרוג שלילי מרוב הקוראים.

מופתעים?

בני אדם הם עצלנים מטבעם. אנחנו נוטים להאמין במה שתומך בדעות בהן אנו מחזיקים ולמעטים יש את הפנאי, היכולת או הרצון לבדוק מה משלל המסרים והמידע שבהם אנו מופצצים מדי יום הם נכונים, מוטים או שקריים לחלוטין. זו אינה תקלה. המוח האנושי התפתח בסביבה שבה חיסכון באנרגיה היה אחד האילוצים התפקודיים המרכזיים, וכמויות המידע שהיה עליו לעבד היו קטנות עשרות מונים. זו הארכיטקטורה המנטלית שלנו, לטוב ולרע. המוח יעדיף תמיד את הידוע והמוכר, את התבניות שנלמדו זה מכבר. לימוד תבניות חדשות דורש מאמץ וצורך קלוריות, ואלה היו קריטיות לתפקודנו בסביבות דלות משאבים.

בניסוי מוכר בפסיכולוגיה קוגניטיבית הוצגו לנבדקים מספר בעיות אריתמטיות, והם התבקשו לפתור אותן בזמן הקצר ביותר. הניסוי תוכנן כך שהתרגילים הראשונים יהיו קלים לפתרון בדרך מסוימת וקבועה, ואילו לתרגיל האחרון יהיה פתרון שונה אך קצר ומהיר יותר לחישוב. התוצאות היו חד משמעיות, רוב הנבדקים פתרו את התרגיל האחרון באותה שיטה (ארוכה ומסובכת יותר) שבה הם פתרו את התרגילים הקודמים. המוח, שלמד את "השיטה", מיאן לסטות ממנה, אף על פי שמהיר יותר היה לפתור את התרגיל האחרון בדרך שונה.

אוריגמי, פילים

אנחנו אוהבים תבניות חוזרות. תצלום: קתרין האוף

קוראי הבלוג של ליאם פור, בדומה לנבדקים בניסוי, פעלו על פי תבנית. הם השוו באופן בלתי-מודע בין הטקסט בפוסטים שהפיקה המכונה לטקסטים שקראו בעבר. כאשר הטקסט החדש התאים לתבניות הטקסטואליות המוכרות, הקוראים זיהו אותו בטעות ככזה שנכתב על ידי אדם ולא מכונה, ולא במקרה. רשת הנוירונים GPT-3 אומנה להפיק טקסט שדומה ככל הניתן למיליארדי הטקסטים שהוצגו לה בשלב האימון. כיצד אם כך יוכל הקורא הממוצע להבדיל?

השקר זריז מן האמת

ישנה אמרה הטוענת כי "השקר יכול להקיף חצי מהעולם לפני שהאמת נועלת נעלים". למרבה הצער, יש בכך אמת.

פרופסור סורש ווסואוגי מ-MIT אסף ציוצים של שמועות מרשת הטוויטר בין 2006 ל-2017. מאגר המידע שנאסף כלל מעקב אחרי מסלול התפוצה של כל שמועה, על שיתופיה והתגובות אליה. המאגר כלל 126 אלף שמועות שהופצו על ידי שלושה מיליון בני אדם. התוצאות לא הפתיעו. שמועות שקריות הופצו הרבה יותר משמועות אמיתיות. יתר על כן, האחוז העליון של השמועות השקריות הגיעו לאלף עד 100 אלף אנשים, בעוד שהשמועות האמיתיות הגיעו לעתים נדירות בלבד לאלף בני אדם. התברר גם שהשמועות השקריות התפשטו בקצב מהיר בהרבה.

נראה שאנחנו גרועים למדי בזיהוי שקרים וחדשות כזב, או שפשוט לא אכפת לנו (כל עוד אלה תואמים את אמונותינו). יתר על כן, אנחנו נוטים לקדם שקרים על פני עובדות, בין היתר גם בעזרתם הפעילה של אלגוריתמים להפצה של הרשתות החברתיות, המכוילים להדגיש ולהדהד טקסטים ומדיה הזוכים לשיתוף נרחב.

זהו רק קצה הקרחון. קיימות חברות שתפקידן ליצור ולטפח ישויות מלאכותיות ופרופילים מזויפים ברשתות החברתיות כך שייראו כאילו הן אנשים אמיתיים. בהקמת פרופיל כזה ובתחזוקתו מושקעים זמן וכסף כדי ליצור את האשליה שאדם אמיתי עומד מאחורי הדעות והאמירות שהפרופיל מפיץ. חוות פרופילים מזויפים ובוטים כאלה נמכרות בכסף רב בין אם בצורה גלויה ובין אם דרך הרשת האפלה. דמויות פיקטיביות מפרסמות מאמרי דעה, שמהודהדים (בסיוע אלגוריתמים, כאמור), לעתים בלא דעת, על ידי התקשורת, פוליטיקאים ובעלי אינטרסים כלכליים עלומים, כדי ליצור מצג שווא של דעת קהל ולהשפיע עליה.

דיסטופיה? היכונו לביאת האינטליגנציה המלאכותית הכללית.

מה זה  GPT-3?

הניסיון להמציא מכונות חושבות אינו חדש. רבים, ובהם למשל  מרי שלי (מחברת ״פרנקנשטיין״) וקארל צ'אפק (שטבע את המילה ״רובוט״ במחזהו R.U.R), חלמו וכתבו על כאלה. ההתעניינות באינטליגנציה מלאכותית, שנזנחה בשנות התשעים של המאה שעברה בשל מחסור במשאבי מחשוב מתאימים, שבה והתעוררה בעשור האחרון. רשתות נוירונים עמוקות (Deep Neural Networks – רשתות המורכבות משכבות רבות של נוירונים המחוברות במעין סימולציה של המוח האנושי) הצליחו להתגבר על בעיות בתחומים מוגדרים היטב, שבעבר נראו בלתי פתירות, החל מנהיגה אוטונומית וכלה באבחון מחלות. אבל הגביע הקדוש, מכונה המסוגלת לפתור בעיות כלליות במגוון תחומים, עדיין אינו בידנו.

GPT-3 הוא אחד הניסיונות המרשימים לתקוף את בעיית האינטליגנציה המלאכותית הכללית בתחום השפה האנושית. GPT-3 כשלעצמו מבוסס על רשת נוירונים עמוקה ש"קראה" (trained) את רוב הטקסטים הקיימים ברשת האינטרנט (בשפה טבעית, וגם תוכנות הכתובות בשפות מחשב שונות). לאחר שהרשת סרקה את מיליארדי הטקסטים הללו, היא מסוגלת לקבל משפט או טקסט קצר ולהוסיף לו פסקאות חדשות, שייראו כהמשך טבעי לטקסט הראשוני. הטקסט המאוחד מוזן בחזרה לרשת וגורם ליצירתן של פסקאות נוספות וחוזר חלילה. לאחר מספר רב של איטרציות ייוותר בידנו טקסט שכמעט כולו – פרט לשורה או פסקה פותחת – הופק על ידי המכונה.

נייר טואלט

קל לייצר. תצלום: Visuals

הפעולה, הפשוטה לכאורה, של השלמת טקסט באופן ממוכן כבר יצרה קטעי תוכנה הפועלים היטב אבל גם מאמרי חדשות אמינים למראה ושקריים לחלוטין, ראיונות שמעולם לא נערכו עם אנשים שמעולם לא התקיימו, אך בקושי רב ניתן לזהות שמאמרים אלה לא נכתבו על ידי אדם. אחת הדוגמאות המשעשעות (מפחידות?) היא מאמר שהופק ע"י GPT-3, המנסה לשכנע את בני האדם לא לפחד מרובוטים בעלי תבונה.

לא משהו שהיינו רוצים שייפול לידיים הלא נכונות, הלא כן? ובכן, מאוחר מדי.

GPT-3 כבר זמין לשימוש ולאחר מילוי טופס הצטרפות קצר (או בעתיד בתשלום לא גבוה), כל אחד יכול להשתמש בו כרצונו. זה בדיוק מה שעשה ליאם פור. הוא נכנס לרשת בעזרת עמית שלו, שקיבל רישיון לשימוש ניסיוני. פור סיפק לרשת מספר כותרות ממאמרים אמיתיים שזכו לתפוצה רחבה, וכאמור, העלה לבלוג טקסטים שיצרה המכונה. איש לא הבחין בכך. תארו לכם באיזו קלות יכולים מי שכוונתם רעה לרתום לעזרתם את היכולת הזו.

מכונות מרושעות

בשנת 2016 יצרה מיקרוסופט תוכנה בשם "טיי" (Tay), בוט שהיה אמור ללמוד מציוצים בטוויטר כיצד לפתח באופן עצמאי יכולות שיחה "קלילה וקולחת". לא חלפו 24 שעות והבוט הפך למיזוגן, גזען ונאצי, ולא באשמתו. טיי כשלעצמו לא היה מכונה רעה – הוא החל את חייו כלוח חלק. מאחר שהוא תוכנן ללמוד את צורת השיח של בני האדם ולשחזר אותה בצורה אמינה, הוא שיקף את העמדות שאליהן נחשף. מיקרוסופט מיהרה להוריד את טיי מהרשת, אבל הניסוי הכושל העיד יותר על טיבו של השיח מאשר על הטכנולוגיה שעומדת בבסיסו של הבוט.

לו היו גורמים זדוניים מחליטים להשתמש בטכנולוגיה כזו ומפיצים מאות אלפי בוטים כאלה ברשת, כאלו שכמעט לא ניתן להבחין בינם לבין דובר אנושי, הם היו יכולים להטות את השיח כרצונם. די לחשוף את המכונה הלומדת לטקסטים גזעניים, קונספירטיביים, מיזוגיניים או נאצים, ומאות אלפי משתמשים מזויפים היו מרעילים את הרשת שהייתה, כפי שכבר קרה, מהדהדת אותם בעוצמה הולכת וגוברת.

טכניקות כאלה עלולות להיות מופעלות על ידי ארגוני טרור, ממשלות וחברות מסחריות. מתקפה כזו, מסונכרנת ונרחבת דיה, עלולה לגרום לקריסתן של בורסות, או אפילו כלכלות שלמות, להטיית תוצאות של בחירות דמוקרטיות, לזריעת פילוג פחד ותסיסה כדי להחריב מבנים חברתיים. זו אינה טכנולוגיה עתידית. היא כבר כאן. ומתקפות כאלה מערערות את תחושת המציאות שלנו, את האבחנה בין עובדה לבדיה, בין אמת לשקר.

אבל כפי שהמכונות מסוגלות לזרוע שקר וכזב, חזקה עליהן שיהיו מסוגלות לזהות אותו.

ינשוף

איך נשמור על האמת? תצלום: ג'יימס לי

דקירה קטנה וזה עובר

כפי שניתן לבנות מכונות שיפיקו חדשות ומאמרי כזב, כך ניתן לבנות מכונות שכנגד, שתפקידן יהיה לזהות את השקר ולחסום אותו לפני שיופץ הלאה. זו אינה משימה פשוטה אבל היא אפשרית.

ברור לחלוטין שגישה כזו תגרור מרוץ-חימוש בין המכונות: ככל שישתפרו יכולות הזיהוי של שקרים ומניפולציות ברשת, תשתפר בהתאם גם היכולת לעקוף את מנגנוני הזיהוי והבלימה. הדבר דומה למערכת חיסון מבוססת מידע שלעולם אינה שוקטת על שמריה, אלא לומדת ומתפתחת כדי לזהות ולהגן מפני איומים.

אבל ישנה בעיה. דמיינו מצב שבו מרוץ-החימוש בין המכונות הזדוניות למכונות שכנגד מתפתח לאורך שנים. בהנחה שיושקעו בכך די מאמץ וכסף, נגיע עד מהרה למצב שבו התוכן הזדוני (כדוגמת deepfakes) יהיה כה מורכב, כה בלתי ניתן להבחנה על ידי בני אדם, שרק המכונות-שכנגד יוכלו לגלות את הזיוף. בשלב הזה, ניתן לומר בוודאות סבירה, שהאינטליגנציה של המכונות התעלתה מעל זו האנושית, ולנו לא תהיה יכולת לפקח או אפילו להבין את השיקולים שבבסיס ההחלטות שיקבלו המכונות.

מאידך, יתכן שמרוץ-חימוש כזה יתקיים במעין תקופת מעבר, בדומה למלחמה הקרה בין המעצמות במאה הקודמת. בני האדם יבינו ששימוש חסר אחריות במכונות לומדות ובאינטליגנציה מלאכותית ישמיד את מרקם החברה האנושית ויחליטו להניח את היסודות למה שקרוי אתיקה של אינטליגנציה מלאכותית (AI Ethics), כללים שיגבילו את השימוש לרעה בכוח הגלום במכונות, בדיוק כפי שמקובל כיום בכל הנוגע לנשק גרעיני.

קולות רבים מתחילים להישמע בדרישה להגדיר ולאכוף כללים אתיים על המכונות שאנו בונים. אם נרצה לחיות בעולם שבו האינטליגנציה המלאכותית מסייעת למין האנושי ולא להפך, עלינו לפעול עכשיו, לא בעתיד, אם כי ההיסטוריה מלמדת שככל הנראה נעדיף להשתהות עד שאולי יהיה מאוחר מדי.

תמונה ראשית: מערבולת מלאכותית. תצלום: מסימו ראוורה, אימג'בנק / גטי ישראל

מחשבה זו התפרסמה באלכסון ב


תגובות פייסבוק

> הוספת תגובה

4 תגובות על מכונות אמת, מכונות שקר

01
נורית ארליך

הגליון הנוכחי של אלכסון מוצלח במיוחד בגלל שמטלטל את הקופסא הסטנדרטית של טוב ורע:
התמוטטות עצבים- מחלה
בקשת חופשת התאוששות-פינוק
שכחה-חיסרון
זיכרון טוב-יתרון
טבעי-טוב
מלאכותי-פחות טוב
אמת-ראוי,רצוי,נעלה,נכון
שקר(גם לבן)-לא מוסרי
הרבה חומר למחשבה מחוץ לקופסא

04
חנן רומבק

זה מדהים אבל המכונות שאנו בונים עולות ביכולות שלהן עלינו ותמיד זה היה כך.
זה התחיל באבן שהורמה לפני עידנים והצליחה לפצח את העצם הקשה ,בלעדיה היינו נשארים רעבים וגמור במכונות הסופר מהירות שעולות על היכולות שלנו כמו במשחק השחמט או בזיוף פרופיל אנושי מושלם ומעבר לכך.
יש כאן קושי , אם המכונות יתחפשו לאנושיות ,טוב יותר מהמקור ,אז מה זה? זה כבר מפחיד.