סוף העולם לפי קיסינג'ר

מעשית, פילוסופית ואתית, המין האנושי אינו מוכן לעלייתה של האינטליגנציה המלאכותית. איש חכם בן 95 מתריע: הסכנה כבר כאן, כרוכה בתאווה של מדענים ומשקיעים לנצל את הטכנולוגיה
X זמן קריאה משוער: רבע שעה

לפני שלוש שנים, בכנס שעסק בנושאים טרנס-אטלנטיים, אחד הנושאים שהופיעו על סדר היום היה האינטליגנציה המלאכותית. עמדתי לדלג על המושב שעסק בכך – הנושא לא היה חלק ממה שהעסיק אותי – אך תחילת הצגת הדברים גרמה לי להישאר ישוב במקומי.

הדובר תיאר את פעולתה של תכנת מחשב שעמדה להתמודד עם אלופים בינלאומיים במשחק ה"גו". נדהמתי לשמע הידיעה שמחשב מסוגל להגיע לרמה גבוהה ב"גו", משחק שמורכבותו גדולה מזאת של משחק השחמט. ב"גו", השחקן מציב 180 או 181 כלים (על פי הצבע שהוא או היא בוחרים), המונחים על לוח, שבתחילת המשחק הוא ריק לחלוטין. הניצחון נזקף למתמודד שבעקבות החלטות אסטרטגיות טובות יותר מאלו של יריבו, מצליח לשתק את היריב על ידי השתלטות יעילה יותר על שטח בלוח. הדובר עמד על כך שאי-אפשר לתכנת מראש את היכולת הזאת. המכונה שלו, כך הוא אמר, למדה את רזי משחק ה"גו" על ידי כך שהיא רכשה יכולת באמצעות אימון חוזר. היא קיבלה את חוקי המשחק הבסיסיים, ושיחקה אינספור משחקים נגד עצמה, למדה משגיאותיה ושיפרה את האלגוריתמים שלה בהתאם. בתוך כך, היא פיתחה יכולת שעלתה על זאת של יוצריה האנושיים. ואכן, בחודשים שלאחר הדברים בכנס, תכנית אינטליגנציה מלאכותית בשם AlphaGo הייתה עתידה להכריע באורח ברור את מיטב שחקני ה"גו" בעולם.

גו, משחק, לוח

לוח משחק "גו" במהלך משחק. תצלום: צ'אד מילר

בעודי מקשיב לדובר המעלה על נס את ההתקדמות הטכנית הזאת, הניסיון שלי כהיסטוריון וכמי שהזדמן לו מדי פעם להיות מדינאי פעיל, גרם לי לעצור. כיצד ישפיעו על ההיסטוריה מכונות שילמדו בכוחות עצמן, מכונות שירכשו ידע על ידי תהליכים המיוחדים להן, ולאחר מכן יישמו את הידע הזה למטרות שעבורן אולי אין שום קטגוריה של הבנה אנושית? האם המכונות הללו ילמדו לתקשר זו עם זו? כיצד הן יבחרו מתוך האפשרויות שתעלינה לפניהן? האם יתכן שההיסטוריה האנושית תלך בדרך בני האינקה, שמצאו את עצמם עומדים מול תרבות ספרדית שלא הייתה להם מובנת כלל ואף עוררה בהם חרדת קודש? האם אנו על סף שלב חדש בתולדות המין האנושי?

בהיותי מודע לכך שאיני בר-סמכא בתחום, ארגנתי מספר שיחות לא פורמליות בנושא, תוך שאני נסמך על עצות ושיתוף פעולה מצדם של מכרים בתחומי הטכנולוגיה ומדעי הרוח. והדיונים הללו גרמו לכך שהדאגות שלי החריפו.

עד כה, ההתקדמות הטכנולוגית ששינתה יותר מכל את מהלך ההיסטוריה המודרנית הייתה המצאת מכבש הדפוס, במאה ה-15, המצאה שאפשרה לחפש ידע אמפירי שיחליף את הדוקטרינה הדתית, כך שעידן התבונה החליף בהדרגה את עידן הדת. תובנות של יחידים וכן ידע מדעי החליפו את האמונה כקריטריון הראשי למודעות אנושית. מידע נאגר וסודר באורח שיטתי בספריות שגדלו בהתמדה. עידן התבונה הוליד את המחשבות והפעולות שעיצבו את הסדר העולמי הנוכחי.

אך הסדר הזה נתון כעת במהומה בתוך מהפכה טכנולוגית סוחפת שלא הצלחנו להבין עד תום את תוצאותיה, מהפכה ששיאה עלול להיות עולם הנסמך על מכונות המופעלות על ידי נתונים ואלגוריתמים, ללא שליטה או ריסון מצדן של נורמות אתיות או פילוסופיות

אך הסדר הזה נתון כעת במהומה בתוך מהפכה טכנולוגית סוחפת שלא הצלחנו להבין עד תום את תוצאותיה, מהפכה ששיאה עלול להיות עולם הנסמך על מכונות המופעלות על ידי נתונים ואלגוריתמים, ללא שליטה או ריסון מצדן של נורמות אתיות או פילוסופיות.

עידן האינטרנט, שאנו חיים בו כבר היום, מבשר את אחדות מן השאלות והסוגיות שהאינטליגנציה המלאכותית צפויה רק להחריפן. הנאורות ביקשה להכפיף אמיתות מסורתיות לשכל אנושי אנליטי ומשוחרר. מטרת האינטרנט היא לאשש ידע באמצעות צבירה ומניפולציה של נתונים המתרחבים ללא הרף. התבונה האנושית מאבדת את אופייה האישי. יחידים הופכים לנתונים, והנתונים הופכים לגורם המושל בכיפה.

משתמשים באינטרנט מדגישים את אחזור המידע והמניפולציה שלו על פני מציאת הקשר או הגדרה מושגית של המשמעות שלו. לעתים נדירות בלבד הם פונים לבחון את ההיסטוריה או הפילוסופיה. ככלל, הם דורשים מידע שיהיה רלוונטי לצרכים המעשיים המיידיים שלהם. בתוך כך, אלגוריתמים של מנועי חיפוש מפתחים את היכולת לנבא העדפות של לקוחות אינדיבידואליים, ובכך מאפשרים לאלגוריתמים להתאים את התוצאות באורח אישי ולהציע אותן לגורמים אחרים לצורך שימוש פוליטי או מסחרי. האמת הופכת ליחסית. המידע מאיים להמם את החוכמה.

ספינת מפרש, דגם ספינה, תגליות

תגליות: פעם הן היו עניין אישי, תשוקה פרטית. תצלום: אנדרו ניל

הרשתות החברתיות מציפות את המשתמשים בדעותיהם של המונים. כתוצאה מכך, המשתמשים מורחקים מבחינה עצמית. האמת היא שחובבי טכנולוגיה רבים משתמשים באינטרנט כדי להימנע מן הבדידות שמעוררת בהם אימה

הרשתות החברתיות מציפות את המשתמשים בדעותיהם של המונים. כתוצאה מכך, המשתמשים מורחקים מבחינה עצמית. האמת היא שחובבי טכנולוגיה רבים משתמשים באינטרנט כדי להימנע מן הבדידות שמעוררת בהם אימה. כל הלחצים הללו מחלישים את עוז הנפש הדרוש כדי לפתח תפישות ואמונות ולהחזיק בהן. תפישות ואמונות כאלו יכולות להיות מיושמות רק אם אנו הולכים בדרך הבדידות, לבדנו – שהרי זוהי תמצית היצירתיות.

השפעתה של טכנולוגיית האינטרנט על הפוליטיקה בולטת במיוחד. היכולת לכוון מסרים למיקרו-קבוצות ריסקה את מה שהיה פעם קונצנזוס ביחס לסדרי העדיפויות, שכן היא אפשרה התמקדות במטרות או טענות ממוקדות ובלעדיות. למנהיגים פוליטיים, שאינם עומדים בלחצים של הגישות הללו בקרב ציבור הבוחרים, אין זמן לחשוב או להרהר על ההקשר, כך שהמרחב הנתון בידיהם כדי לפתח חזון התכווץ מאוד.

הדגש של העולם הדיגיטלי על מהירות חוסם את האפשרות לשיקול דעת ולהרהור. הוא מעודד את היסוד הרדיקלי על פני המחשבה השקולה. הערכים שלו מעוצבים על ידי קונצנזוס בקרב תת-קבוצות, ולא על ידי הגות, חשיבה ובחינה עצמית. עם כל הישגיו, העולם הדיגיטלי מצוי בסכנה: הוא עלול לפעול נגד עצמו ככל שמה שהוא כופה גובר על התועלת שהוא מציע.

ככל שהאינטרנט וכוח החישוב הגדל אפשרו צבירה וניתוח של כמויות אדירות של נתונים, נפתחו אופקים חסרי תקדים להבנה האנושית. יתכן שהאופק המשמעותי ביותר הוא פרויקט האינטליגנציה המלאכותית – טכנולוגיה שיהיה בכוחה להמציא ולפתור בעיות שנראות מופשטות, על ידי תהליכים שנראים כמשחזרים את התהליכים של השכל האנושי.

הדבר מרחיק לכת הרבה מעבר לאוטומציה כפי שהכרנו אותה עד כה. אוטומציה עוסקת באמצעים. היא משיגה מטרות מוגדרות מראש על ידי כלים המבצעים רציונליזציה או מיכון במטרה להגיע למטרות. האינטליגנציה המלאכותית, לעומת זאת, עוסקת במטרות. היא קובעת את המטרות שלה עצמה. ככל שהישגיה מעוצבים בחלקם על ידיה היא, האינטליגנציה המלאכותית היא מטבעה בלתי-יציבה. מערכות אינטליגנציה מלאכותית, באמצעות עצם פעולתן, נמצאות בתהליך של תמורה מתמדת בשעה שהן רוכשות נתונים חדשים ומיד מנתחות אותן, ולאחר מכן שואפות לשפר את עצמן על יסוד הניתוח שהן ביצעו. באמצעות התהליך הזה, האינטליגנציה המלאכותית מפתחת יכולת שקודם לכן סברנו שהיא שמורה לבני-האדם. היא מבצעת שיפוטים ביחס לעתיד;, אחדים על בסיס נתונים שמתקבלים כקוד (למשל: כללים של משחק), ואחרים על בסיס נתונים שהיא אוספת בעצמה (למשל: על ידי כך שהיא משחקת מיליון סיבובים של משחק מסוים).

המכונית נטולת הנהג מדגימה את ההבדל בין פעולות של מחשבים מסורתיים, הנשלטים על ידי בני-אדם ומופעלים על ידי תוכנה, ובין העולם שאינטליגנציה מלאכותית מבקשת לנהל. נהיגה במכונית דורשת יכולת שיפוט בשפע של מצבים שאי-אפשר לצפותם ולכן גם אי-אפשר לתכנת אותם מראש. מה יקרה – ואני משתמש כאן בדוגמה היפותטית מוכרת היטב – אם מכונית תיקלע לנסיבות שיהיה עליה לבחור בין להרוג סבא ובין להרוג ילד? במי היא תבחר? מדוע? על אילו מבין האופציות שלה היא תנסה לבצע אופטימיזציה? והאם היא תהיה מסוגלת להסביר את השיקולים שלה? אם ידרשו ממנה לענות, בהנחה שהיא תהיה מסוגלת לתקשר, התשובה האמיתית שלה תהיה ככל הנראה "אינני יודעת (כי אני פועלת על פי עקרונות מתמטיים ולא אנושיים)" או "לא תוכלו להבין (כי אומנתי לפעול בדרך מסוימת, אבל לא להסביר את דרך פעולתי)". ואף על פי כן, סביר שמכוניות נטולות נהג יהיו נפוצות בכבישים בתוך עשור.

בי-2, מפציץ, האוקיינוס השקט

מכשיר לא אינטליגנטי: מפציץ בי-2 מעל האוקיינוס השקט. תצלום: Staff Sgt. Bennie J. Davis III, ויקיפדיה

המחקר בתחום האינטליגנציה המלאכותית, שעד כה הוגבל לתחומי פעילות ספציפיים, מבקש כעת ליצור אינטליגנציה מלאכותית "אינטליגנטית במובן הכללי", שתהיה מסוגלת לבצע משימות בשלל תחומים. בתוך תקופה שאפשר לאמוד אותה, אחוז גדל והולך מהפעילות האנושית תונע על ידי אלגוריתמים של אינטליגנציה מלאכותית. אך האלגוריתמים הללו, בהיותם פרשנויות מתמטיות של נתונים שנאספו בתצפיות, אינם מסבירים את המציאות שביסודם, את המציאות היוצרת אותם. באורח פרדוקסלי, ככל שהעולם ייעשה שקוף יותר, הוא גם יהפוך למסתורי יותר ויותר. מה יהיה ההבדל בין העולם החדש והעולם המוכר לנו? כיצד נחיה בו? כיצד ננהל את האינטליגנציה המלאכותית, כיצד נשפר אותה, או לכל הפחות נמנע ממנה מלהזיק, עד כדי הדאגה החמורה מכל: שהאינטליגנציה המלאכותית תרכוש מיומנויות מהר יותר ובאורח מוחלט יותר מבני-האדם, וכך תוכל עם הזמן להקטין את המיומנות האנושית ותדלדל את המצב האנושי בעודה הופכת אותו לנתונים ותו-לא.

עם הזמן, האינטליגנציה המלאכותית תניב תועלת יוצאת מגדר הרגיל למדעי הרפואה, ליכולת לספק אנרגיה נקייה, לתחומים הנוגעים לאיכות הסביבה ולתחומים רבים נוספים. אך דווקא כיוון שהאינטליגנציה המלאכותית מבצעת שיפוטים הנוגעים לעתיד מתפתח, שטרם הוגדר, היא יוצרת אי-ודאות ודו-משמעות מעצם פעולתה.

ישנם שלושה תחומים המעוררים דאגה מיוחדת.

יתכן שאם נותיר לאינטליגנציה מלאכותית לפעול על פי דרכה, היא תפתח בהכרח סטיות קטנות שעם הזמן יהפכו לחריגות קטסטרופליות בפעולתה

ראשית, שהאינטליגנציה המלאכותית תגיע לתוצאות שלא התכוונו אליהן. ספרות המדע הבדיוני דמיינה תסריטים שבהם האינטליגנציה המלאכותית קמה על יוצריה. סבירה מכך היא הסכנה שהאינטליגנציה המלאכותית תטעה בפירוש ההוראות האנושיות, בשל העובדה שהיא נעדרת הקשר מעצם מהותה. דוגמה מפורסמת מהתקופה האחרונה היה אותו צ'אט-בוט של אינטליגנציה מלאכותית בשם Tay, שתוכנן להפיק שיחה ידידותית על פי תבניות הלשון של נערה בת 19. אלא שהתגלה שהמכונה אינה מסוגלת לפרש את ההוראות בדבר שפה "ידידותית" ו"סבירה" שהוטבעו בה על ידי המפתחים שלה, ועד מהרה החלה להפיק תגובות גזעניות, סקסיסטיות ומעוררות מדון. יש בעולם הטכנולוגי מי שטוענים שהניסוי לא נהגה כהלכה וגם בוצע ברמה לא נאותה, אך הוא מדגים בעייתיות יסודית: באיזו מידה אפשר לגרום לאינטליגנציה מלאכותית להבין את ההקשר המזין את ההוראות שלה? איזה אמצעי היה יכול לעזור ל-Tay להגדיר לעצמו את המושג "פוגעני", מלה שעל משמעותה אין הסכמה כללית בקרב בני-האדם? האם אנו יכולים, בשלב מוקדם, לאתר ולתקן תכנית אינטליגנציה מלאכותית שפועלת מחוץ למסגרת הציפיות שלנו? או שמא אם נותיר לאינטליגנציה מלאכותית לפעול על פי דרכה, היא תפתח בהכרח סטיות קטנות שעם הזמן יהפכו לחריגות קטסטרופליות בפעולתה?

DARPA, רובוט, צבא ארה"ב

מי שולט במי? רובוט של משרד ההגנה האמריקני. תצלום: צבא ארה"ב, מיאמי, פלורידה.

שנית, עולה החשש שבכך שאינטליגנציה מלאכותית תשיג את מטרותיה, היא גם תשנה את תהליכי החשיבה ואת הערכים האנושיים. AlphaGo הביסה את אלופי העולם ב"גו" על ידי מהלכים אסטרטגיים חסרי תקדים – מהלכים שבני-אדם לא הגו ועדיין לא הצליחו ללמוד היטב כיצד להתגבר עליהם. האם המהלכים הללו הם מעבר ליכולתו של המוח האנושי? או שמא בני-האדם יוכלו ללמוד אותם, כעת לאחר שהם הודגמו בידיה של שחקנית-על חדשה?

לפני שהאינטליגנציה המלאכותית החלה לשחק "גו", למשחק היו מטרות מגוונות, בשכבות שונות: שחקן שאף לא רק לנצח, אלא גם ללמוד אסטרטגיות חדשות, שאולי יהיה ניתן ליישם אותן גם בממדים אחרים של החיים. לעומת זאת, האינטליגנציה המלאכותית מכירה מטרה אחת בלבד: לנצח. היא "לומדת" לא באורח קונספטואלי, אלא באורח מתמטי, על ידי התאמות שוליות לאלגוריתמים שלה. כלומר, בכך שהאינטליגנציה המלאכותית למדה לנצח ב"גו" על ידי כך שהיא שיחקה את המשחק באורח אחר מבני-האדם, היא שינתה הן את טבע המשחק והן את השפעתו. האם השאיפה החד-ממדית הזאת לניצחון מאפיינת את האינטליגנציה המלאכותית באשר היא?

האם אנחנו רוצים שילדינו ילמדו ערכים באמצעות שיחה עם אלגוריתמים שאין עליהם שליטה?

פרויקטים אחרים בתחום האינטליגנציה המלאכותית עובדים על שינוי החשיבה האנושית, על ידי הפעלת של מערכות שמסוגלות להפקיד מגוון תשובות לשאילתות אנושיות. מעבר לשאלות הנוגעות לעובדות ("מה הטמפרטורה בחוץ?"), שאלות על טבעה של המציאות או על משמעות החיים מעלות נושאים עמוקים יותר. האם אנחנו רוצים שילדינו ילמדו ערכים באמצעות שיחה עם אלגוריתמים שאין עליהם שליטה? האם עלינו להגן את הפרטיות שלנו על ידי הגבלת יכולתה של האינטליגנציה המלאכותית ללמוד על מי שעליו שואלים אותה שאלות? ואם כן, כיצד נוכל להשיג את המטרות הללו?

אם האינטליגנציה המלאכותית לומדת במהירות העולה על המהירות האנושית בשיעור אקספוננציאלי, עלינו לצפות שהיא גם תאיץ, וגם זאת באורח אקספוננציאלי, את תהליך הניסוי והטעייה שבאמצעותו מתקבלות החלטות אנושיות, בדרך כלל: כלומר, שהיא תטעה מהר יותר, טעויות שיהיו גדולות יותר, מאשר בני-אדם. בניגוד למה שחוקרים בתחום האינטליגנציה המלאכותית מציינים לא פעם, שליטה בתוצאות של הטעויות, הללו על ידי הצבת חסמי תוכנה שידרשו תוצאות "אתיות" או "סבירות", עלולה להיות בלתי אפשרית. דיסציפלינות אקדמיות שלמות נוצרו מתוך חוסר היכולת של המין האנושי להסכים על האופן שבו יש להגדיר את המושגים הללו. האם עלינו לתת לאינטליגנציה המלאכותית להיות הגורם שיפסוק בכך?

Cielo, מחשב-על, Cray

מחשב-על Cielo מתוצרת Cray. ומה יקרה אם מחשב כזה יפתח מחשב חזק ממנו? - תצלום: NNSAת מנהל הבטיחות הגרעינית של ארה"ב.

האם מערכת משפטית שעוצבה עבור בני-אדם יכולה להתמודד עם פעילויות שנוצרו על ידי אינטליגנציה מלאכותית, שיכולה לעלות ביכולת החשיבה שלה על בני האדם, ואולי אף לגבור עליהם ביכולת התמרון שלה?

דאגה שלישית היא שהאינטליגנציה המלאכותית תשיג את המטרות המצופות, אך לא תהיה מסוגלת להסביר את הרציונל שהוביל אותה למסקנות שלה. בתחומים מסוימים – זיהוי צורות, ניתוח של ביג-דאטה, משחקי מחשב – יתכן שהיכולות של האינטליגנציה המלאכותית עולות כבר היום על יכולות האדם. ואם יכולת החישוב שלה תמשיך להכפיל את עצמה במהירות, יתכן שבתוך זמן קצר האינטליגנציה המלאכותית תוכל לבצע אופטימיזציה למצבים שונים בדרכים שהן לפחות שונות במעט, ואולי שונות בהרבה, מן האופן שבו בני-האדם עושים זאת. אך בנקודה הזאת, האם האינטליגנציה המלאכותית תהיה מסוגלת להסביר, באופן שבו בני-אדם מסוגלים להבין, מדוע הפעולות שלה הן אופטימליות? או שמא קבלת ההחלטות של האינטליגנציה המלאכותית תעלה על יכולת ההסבר של השפה והשכל האנושיים? בכל מהלך ההיסטוריה האנושית, ציוויליזציות יצרו דרכים להסביר את העולם הסובב אותן. בימי הביניים הייתה זאת הדת. בתקופה הנאורות, היה זה השכל. במאה ה-19, הייתה זאת ההיסטוריה. במאה ה-20: האידאולוגיה. הבעיה הקשה ביותר, אך גם החשובה ביותר, ביחס לעולם שאנחנו צועדים לקראתו היא זאת: מה יקרה לתודעה האנושית אם יכולת ההסבר שלה עצמה תהיה נחותה מזאת שתתפתח באינטליגנציה מלאכותית, וחברות כבר לא יוכלו לפרש את העולם שהן חיות בו במושגים שיש להם משמעות מבחינתן? כיצד תוגדר התודעה בעולם של מכונות המצמצמות את החוויה האנושית לנתונים מתמטיים, המפורשים על ידי הזיכרון של אותן מכונות עצמן? מי אחראי על הפעולות של האינטליגנציה המלאכותית? כיצד יש להגדיר את האחריות של המכונות על הטעויות שלהן? האם מערכת משפטית שעוצבה עבור בני-אדם יכולה להתמודד עם פעילויות שנוצרו על ידי אינטליגנציה מלאכותית, שיכולה לעלות ביכולת החשיבה שלה על בני האדם, ואולי אף לגבור עליהם ביכולת התמרון שלה?

בסופו של דבר, יתכן שהמושג "אינטליגנציה מלאכותית" אינו נכון. ללא ספק, המכונות הללו מסוגלות לפתור בעיות מורכבות, שנראות מופשטות, בעיות שקודם לכן נכנעו רק ליכולת החשיבה האנושית. אך מה שהן עושות באורח ייחודי אינו בגדר חשיבה במובן שהובן ונחווה קודם לכן. למעשה, מדובר בזכירה ובחישוב בקנה-מידה חסר תקדים. בגלל העליונות המובנית של האינטליגנציה המלאכותית בתחומים הללו, סביר שהיא תנצח בכל משחק שיימסר לידיה כדי ללמוד אותו ולהגיע בו לרמה המרבית. אך למטרותינו כבני-אדם, עניינם של המשחקים הללו אינו רק הניצחון. עניינם החשיבה עצמה. על ידי התייחסות לתהליך מתמטי כאילו מדובר בתהליך חשיבה, ולאחר מכן על ידי ניסיון שלנו לחקות את התהליך הזה או פשוט לקבל את תוצאותיו, אנו מצויים בסכנה שנאבד את היכולת שהייתה תמיד לב-לבה של החשיבה האנושית.

היכן תהיה האינטליגנציה המלאכותית בתוך חמש שנים? מה תהיה השפעתה הכוללת על החשיבה האנושית? מה מקומה של האתיקה בתהליך הזה, שעיקרו האצה בתהליך הבחירה?

ההשלכות של ההתפתחות הזאת מודגמות על ידי תכנית שפותחה לאחרונה, AlphaZero, תכנית המשחק שחמט ברמה העולה על זאת של אמני שחמט ועושה זאת בסגנון שלא נראה עד כה בתולדות השחמט. בכוחות עצמה, בתוך שעות אחדות של משחק עם עצמה, היא הגיעה לרמת מיומנות בשחמט שלקח לבני-האדם 1500 שנה להגיע אליה. ל-AlphaZero ניתנו רק כללי המשחק הבסיסיים. שום בני-אדם, וגם לא נתונים שנוצרו בידי בני-אדם, לא היו חלק מתהליך הלמידה העצמית של התכנה. אם AlphaZero הצליחה להגיע לרמה הזאת במהירות שכזאת, היכן תהיה האינטליגנציה המלאכותית בתוך חמש שנים? מה תהיה השפעתה הכוללת על החשיבה האנושית? מה מקומה של האתיקה בתהליך הזה, שעיקרו האצה בתהליך הבחירה?

שחמט, כלי שחמט

שחמט: לא רק כללים, אלגוריתמים וניצחון. תצלום: ג'וש האלט

בעיקרו של דבר, השאלות הללו מושארות בידיהם של אנשי הטכנולוגיה ושל בכירים בתחומים המדעיים הנוגעים בדבר. פילוסופים וכן אנשים אחרים בתחומי מדעי הרוח, אשר סייעו לעצב תפישות קודמות ביחס לעולם, נמצאים בדרך כלל בעמדת נחיתות, שכן הם אינם מכירים די הצורך את המנגנונים של האינטליגנציה המלאכותית, או שהם מתפעלים יתר על המידה מיכולותיה. לעומת זאת, העולם המדעי נדחף לבדוק את האפשרויות הטכניות של הישגיו, והעולם הטכנולוגי עוסק בבחינה של אופקים כלכליים שממדיהם עצומים. שני העולמות הללו שואפים להרחיב את גבולותיהן של התגליות, ולא דווקא להבין אותן. והממשלות והרשויות למיניהן, במידה שהן עוסקות בנושא, נוטות יותר לבחון את היישומים האפשריים של אינטליגנציה מלאכותית בתחומי הביטחון והמודיעין, מאשר לבחון את התמורה שהיא החלה לחולל במצב האנושי.

הנאורות החלה בתובנות שהיו בעיקרן פילוסופיות, ואשר הופצו על ידי טכנולוגיה חדשה. התקופה שלנו נעה בכיוון ההפוך

הנאורות החלה בתובנות שהיו בעיקרן פילוסופיות, ואשר הופצו על ידי טכנולוגיה חדשה. התקופה שלנו נעה בכיוון ההפוך. היא יצרה טכנולוגיה שיש בכוחה לשלוט במציאות, ואשר זקוקה לפילוסופיה שתדריך אותה. מדינות שונות הפכו את האינטליגנציה המלאכותית לפרויקט לאומי. כאומה, ארצות הברית טרם בחנה באורח שיטתי את מלוא ההיקף שלה, לא למדה את השלכותיה וגם לא החלה בתהליך למידה מקיף של הנושא. יש להעניק לדבר עדיפות לאומית גבוהה, בעיקר בכל האמור לקישור בין האינטליגנציה המלאכותית והמסורות ההומניסטיות.

מפתחי אינטליגנציה מלאכותית, שניסיונם בפוליטיקה ובפילוסופיה דל כניסיוני בטכנולוגיה, חייבים לשאול את עצמם אחדות מן השאלות שהעליתי כאן כדי לשלב תשובות במסגרת המאמצים ההנדסיים שלהם. ממשלת ארה"ב צריכה להקים גוף נשיאותי שיאויש בהוגים מובילים, שמטרתו תהיה פיתוח חזון לאומי בתחום. אין כל ספק: אם לא נתחיל בעבודה הזאת בקרוב, עד מהרה נגלה שאיחרנו.

 

הנרי קיסינג'ר, אשר ב-27 במאי 2018 מלאו לו 95 שנה, שימש יועץ לביטחון לאומי ושר חוץ בממשלים של הנשיאים ריצ'רד ניקסון וג'רלד פורד.

Copyright 2018 by The Atlantic Media Co., as first published in The Atlantic Magazine. Distributed by Tribune Content Agency. The original article was published here.

תורגם במיוחד לאלכסון על ידי אדם הררי

תמונה ראשית: "עולם זעיר", בוניטה ביץ', פלורידה. תצלום: ג'ושוע סורנסון, unsplash.com

Photo by Joshua Sorenson on Unsplash

מאמר זה התפרסם באלכסון ב על־ידי הנרי קיסינג'ר, Atlantic.

תגובות פייסבוק

> הוספת תגובה

8 תגובות על סוף העולם לפי קיסינג'ר

אני שותף לחששות שנובעות מהתפתחות הטכנולוגיה, אך יחד עם זאת אני מאמין שהחששות האלה מלוות את האנושות לפחות מאז המצאת הכתב אם לא לפני כן. האנושות חתרה מאז ומעולם לייצר מנגנונים שיפשטו פעולות מורכבות. בין אם כלים מורכבים שיקלו על העבודה הפיזית ואף יבצעו אותה במקומנו ובין אם מערכות בירוקטיות שיאפשרו למיעוט של בעלי תפקידים לקבל החלטות אדמיניסטרטיביות, חוקיות ואף מוסריות עבור כלל האכלוסיה.
על אף שהן הכלים הפיזיים והן המערכות האדמיניסטרטיביות ממשיכות להשתכלל ולהתפתח, האדם היום עדיין צריך לבצע עבודות ועדיין צריך להתמודד עם קבלת החלטות. שאלות מוסריות מעסיקות אותנו היום לפחות באותה מידה שהן העסיקו את תושבי יוון העתיקה.
קיסינג׳ר טוען שבגלל העובדה שמדובר במכונות, שאינן כפופות לחוקים מוסריים או ללוגיקה אנושית, אי אפשר להשוות את ההתפתחות הזו עם אלו שקדמו לה.
אני טוען שזו טענה מגוחכת, בעיקר כאשר היא מגיעה מפיו של פוליטיקאי (ועוד רפובליקאי). הרי המערכת הפוליטית בכללותה מושתתת על הצורך האנושי לא להתמודד עם החלטות מורכבות מוסריות ואחרות והפקדתן בידי מעטים שיחליטו עבור הכלל. ברוב המוחלט של המקרים מדובר בנרקיסטים פתולוגיים שמקבלים את ההחלטות ממניעים תועלתניים ומתאוות כח שהקשר בינן ובין תועלת הציבור, שלא לדבר על מוסר, הוא מקרי בהחלט.
מהבחינה הזו ניתן אפילו לומר שההפקדה של החלטות מוסריות בידיו של אלגוריתם אובייקטיבי היא התקדמות מוסרית לעומת מה שיש לנו כיום.

    02
    ראי

    צודק דן פלד בקבעו כי בסופו של דבר כנראה שהסכנה הגדולה ביותר של ה"אולטרה מוח המכני" היא הכוונתו המניפולטיבית ע"י מוח אנושי כוחני-אגואיסטי (בכל השמות המפוצצים שהאנושות מצאה לצורך הסוואת האמת המרה הזאת) ולאו דווקא מתכונותיו העכשוויות ואף העתידיות לייצר "תכנית" עצמאית כזאת או אחרת. כי הרי תמיד תישאר האפשרות לייצר מכונה-תאומה המבקרת
    הדדית ועוצרת אם צריך את אחותה,מה שהאנושות טרם הצלחחה לעשות עם עצמה.

03
גילמור

הלוואי על כולנו צלילות כמו של קיסינג'ר בגיל 95. רוחב הידיעות שלו ידוע, ויכולת הניתוח שלו גם, אבל הפעם רואים שעם הגיל באה גם מנה של אמפתיה, מושג שהיה מחוץ לתחום של המדינאי התככן שהכרנו.

04
משה

היחידים שמפחדים מאינטליגנציה מלאכותית הם אנשים בעלי אפס ידע בתכנות. כל מי שאי פעם ניסה לגרום למחשב לעשות משהו יודע שמדובר בגולם שלא מסוגל לעשות יותר מכמה פעולות בסיסיות, או להצליח במשימות מאוד ספציפיות, וגם זה לאחר הרבה מאמץ מצד מתכנתיו האנושיים.

05
סלומון דה גולי

מאמר נכון וחשוב, אף שגדולי טכנולוגיה זועקים ומזהירים מעל כל במה את הסכנות של ה AI כבר כמה שנים. צודק קיסינג'ר שהשם מלכתחילה שגוי. לדעתי, עדיף לקרוא לזה אינטליגנציה עילאית ולא מלאכותית. לי אין ספק שהאינטליגנציה העילאית תעבור בהרבה מאוד את האינטליגנציה האנושית ולכן תהווה איום קיומי לאנושות. לכן, יש לנסות "לפתח" את ה AI עם בקרות וקווי יסוד, קצת כמו המגבלות של אסימוב... יש צוות בינלאומי גדול של פיסיקאים, מתמטיקאים, מדמ"חניקים ועוד שמתכנס מעת לעת ומנסה לקבוע אמות מידה לפיתוח שכזה, אבל זה לא מספיק. צריך גיבוי של כל ממשלות העולם!!!
אחד הטכנולוגים שמזהיר מהבאות הוא אילון מאסק. כשראה שאזהרותיו החמורות נופלות על אוזניים ערלות החליט לפעול והקים שתי חברות שמשלימות זו את זו. מצד אחד OPEN AI, חברה שמפרסמת את כל תגליותיה אודות פיתוח AI על מנת להפוך את הידע לנחלת הכלל (דמוקרטיזציה) ומצד שני חברת נוירא-לינק שמפתחת (בסופו של דבר...) רובד נוסף של מוח עבור האדם על מנת לאפשר לאדם לתקשר עם יכולות עילאיות "בגובה העיניים" עם האינטליגנציה העילאית העתידית שבטוח תגיע.

    06
    נדב

    סלומון, נוירולינק חותרת ליותר מאשר 'לאפשר תקשורת' עם AI, היא מציעה למזג את התודעה האנושית עם מחשבים. אתה מוכן לחבר את הראש של הילד שלך למחשב שישלוט בו וימנע ממנו מחשבה, למידה והתפתחות חופשית?

      07
      סלומון דה גולי

      נדב, לא מדובר על מצב של "לחסן את הילד או לא" (אף שברור שמומלץ לכולם לחסן את כל הילדים!!), כאן מדובר על מצב של להיות או לחדול, ואשתדל להסביר בקיצור נימרץ. ה AI לכשיבוא (למעשה מדובר ב Superintelligence), אם יפגוש יצורים "נחותים", כמו אדם במתכונתו הנוכחית, הוא עלול גם אם לא בתרחיש של רוע לגרום לנזקים פטאליים למין האנושי באם לא תהיה לו איתנו שום תקשורת. דומה לנזק שהאדם גורם למושבת נמלים ענקית כשהוא סולל כביש או בונה בנין. המטרה של נוירא לינק היא פיסית לאפשר לאדם רובד נוסף של מוח שיאפשר לאדם לתקשר עם ה AI וע"י כך לשרוד ולשגשג. למעשה אם נסכם, המשפט האחרון בדבריך הוא בדיוק ההפך. נוירא לינק סבורים שהדרך לחיים בצוותא עם ה AI והדרך להמשך "מחשבה, למידה והתפתחות חופשית" עוברת דרך הרובד הנוסף הנ"ל. שידרוג חומרה ותוכנה למוח האדם. הומו-סאפינס 2.0

08
חיים

1. המאמר מתייחס לצד אחד של הקיום האנושי, והוא הצד החומרי. המתמטי. היכולת החישובית המופלאה של המחשב לנצח ב"גו". לגלות אסטרטגיות שאיש לא חשב עליהן. אין קשר בין היכולת הזאת, לבין התרוממות הרוח למשמע המתיאוס פסיון. או נתינה ללא תנאי. וזה החלק היותר חשוב בקיום האנושי.
2. בגלל האיום של חישוביות העל (המושג "אינטליגנציה", בעיניי, הוא מעורפל ובכלל לא מוצלח, לא ביחס לבני האדם, ובטח לא ביחס למכונות), אולי צריך להקים גוף סודי מסוג "המוסד האחר" של אסימוב. המערכות הקיימות - הפוליטיות, הכלכליות, המשפטיות, הגלובליות, הפייסבוק, אינן בנויות לנסח ולכפות חזון.