טחנות המוסר

קרוב היום שבו מערכות אוטומטיות יוכלו לקבל החלטות בעלות השלכות מוסריות. ואפשר גם לצפות עתיד שבו הן מפעילות מוסר באורח עצמאי. איזה מוסר? ומה יהיה עלינו, איתן?
X זמן קריאה משוער: 18 דקות

“...thou wilt fix the limits of thy nature for thyself...thou...art the molder and the maker of thyself.” (God to Adam, Oration on the dignity of man, Pico della Mirandola)

מכונות אינן מוטות על ידי רגשות או דעות קדומות, אינן שוגות בתקוות שווא או מוצפות ברגשות אנוכיים, והן יכולות להוציא לפועל את החלטותיהן במהירות

העתיד הקרוב צופן בחובו חידושים והפתעות טכנולוגיות לרוב. אחת המרכזיות שבהן תהיה התפתחותן של מכונות בעלות בינה מלאכותית שיופקדו על משימות קוגניטיביות, ביניהן גם קבלת החלטות מוסריות – מכוניות אוטונומיות יעמדו בפני החלטות הנוגעות לפגיעה בנפש או ברכוש, מכונות מלחמה יצטרכו להבדיל בין ידיד לאויב ולקבל החלטות בדבר נזק משני וסביבתי, שרתים אישיים וסיעודיים יעמדו בפני הצורך לבחור בין רצונותיהם של אלו שאותם הם משרתים ובין חוקי המדינה והחברה, בוטים (Bots) של מסחר יקבלו הכרעות הקשורות בהשפעות הכלכליות והחברתיות של פעולתם ועוד. ההחלטה ליפות את כוחן של מכונות לקבל החלטות מוסריות בשמנו נראית על פניה ברורה: בהנחה שנוכל ליצור מכונות מוסריות, סביר להניח שמכונות אלו יוכלו לקבל החלטות בצורה טובה מאתנו. כוח החישוב שלהן יעלה על שלנו עשרות מונים, הן אינן זקוקות לשינה או להפסקות אוכל, אינן מוטות על ידי רגשות או דעות קדומות, אינן שוגות בתקוות שווא או מוצפות ברגשות אנוכיים, והן יכולות להוציא לפועל את החלטותיהן במהירות. כמובן, שיעור השגיאה שלהן לא יעמוד על אפס, אבל סביר מאוד להניח שלא יהיה גבוה משל אדם ממוצע ואפילו משל האדם המוצלח ביותר. זוהי הדעה הרווחת.

אופניים חשמליים

בקרוב גם הם יחליטו. תצלום: כרים מנג'רה

בספרות מקובלת החלוקה בין שלושה סוגים שונים של מכונות מוסריות: המכונה הראשונה היא אופרטיבית או מרומזת (implicit), שהיא הבסיסית ביותר ומתייחסת לדרך שבה אנו מתכנתים מכונות לקיים את רצונותינו, ובמקרה זה את התחייבויותינו המוסריות: מכונות מעבירות כספים בין חשבונות ומגישות לנו כסף בדיוק רב ועל פי בקשה, טייסים אוטומטיים מביאים את המטוס ליעדו בזמן, מכונות אוגרות מידע מסווג ורגיש ונותנות גישה רק למי שמחזיקים בהרשאות ועוד. מכונות מסוג זה קיימות כיום ואינן מסוגלות לערער על הציוויים האנושיים שמכתיבים את אופן פעולתן. רבים רואים קטגוריה זו כריקה מתוכן. השנייה, פונקציונלית או מפורשת (explicit), מתייחסת למכונה המסוגלת ללמוד (מלמטה-למעלה, או bottom-up) את ההסכמות החברתיות באמצעות שיטות אבולוציוניות או באמצעות שיטות של למידת מכונה, ובנוסף להיותה מוגבלת מראש על ידי היוריסטיקות או כללים הלקוחים מתאוריות מוסר, מלמעלה-למטה (top-down). ההשערה היא שמכונות פונקציונליות ילמדו התנהגות נאותה מהסביבה ומהניסיון ויוגבלו על ידי כללי מוסר שאותם ינחילו להם יוצריהם וכך יוכלו להשיג מראית עין של מוסריות. המכונה השלישית היא מכונה מסוג סוכן מוסרי "שלם" (full-blown). הכוונה היא לבינה מלאכותית חזקה (Strong AI), אוטונומית, שתדע ללמוד, להבין, להסיק ולפעול בצורה עצמאית בדומה לבני האדם (מבחינה מוסרית, ומבחינות אחרות טוב יותר). שתי האפשרויות האחרונות עדיין לא מומשו:  הפונקציונלית, כך נדמה, עתידה להופיע בקרוב ואילו המכונה שהיא סוכן מוסרי "שלם" היא ספקולטיבית למדי, אך מרבית החוקרים סבורים שתתממש תוך עשרות שנים בודדות. לצורך הדיון הנוכחי אתייחס לשתי האפשרויות כבנות השגה ואבקש לעמוד על טיבן, ובמיוחד על מה שמפריד ביניהן, קרי מושג האוטונומיה. בנוסף, ארצה לבחון את השאלה האם המרוץ – שאין לדעת אם ניתן לעצור אותו – אחר הבינה המלאכותית החזקה והסוכן המוסרי השלם הוא חיובי, או שעדיף למין האנושי להסתפק בסוכן מוסרי פונקציונלי.

קושי גדול נוגע לכללים המוסריים שיגבילו את החלטותיו של הסוכן המוסרי הפונקציונלי. מאיזו תורת מוסר יילקחו הכללים המוסריים? האם כל תורת מוסר יכולה לשמש ככזו שתדריך את הסוכן הפונקציונלי?

מהו סוכן מוסרי מלאכותי (Artificial Moral Agent, AMA) פונקציונלי? במאמר זה אתייחס לגישה המנסה להכליא בין שיטות ה-top-down וה-bottom-up. באלה הראשונות ננסה לבנות מכונה המסוגלת ללמוד הסכמות חברתיות מהסביבה ומהניסיון, בשיטות של למידת מכונה ו\או באמצעות אלגוריתמים אבולוציוניים. בשיטות מהסוג השני ננסה להגביל את פעולותיה והחלטותיה של המכונה על ידי כללים הלקוחים מתוך תורת מוסר אנושית. הקשיים ברורים ונובעים משתי השיטות: מערכות הבינה המלאכותית הקיימות הן "צרות" (Narrow AI), כלומר הן אינן מסוגלות להתמודד עם מגוון של מצבים, אלא מיועדות לבצע תפקידים או משימות מסוימות בתחומים מוגדרים. בשונה מכך, מגוון המצבים וההסכמות החברתיות הנוגעים לתחום המוסר האנושי הוא רחב ביותר. האתגר הטכנולוגי במקרה זה הוא בניית מערכת בינה מלאכותית כללית מספיק, שתוכל ללמוד בצורה עצמאית את הסביבה ולבצע היסקים בהסתמך על הניסיון ובהתחשב בחלופה הטובה ביותר. קושי גדול אחר, אם כי כזה שאינו טכנולוגי, נוגע לכללים המוסריים שיגבילו את החלטותיו של הסוכן המוסרי הפונקציונלי. מאיזו תורת מוסר יילקחו הכללים המוסריים? האם היא תהיה תורת מוסר דאונטולוגית או תוצאתנית, והאם כל תורת מוסר יכולה לשמש ככזו שתדריך את הסוכן הפונקציונלי? בכל מקרה, ברור שמדובר בסוכן מוסרי שיבסס את החלטותיו על הסכמות חברתיות שלמד ממידע שהגישו לו "מאמניו" האנושיים, ובכפוף לחוקים מוסריים אנושיים שיגבילו את פעולותיו. חשוב להדגיש שמבחינה פילוסופית אין קשר הכרחי בין הסכמה חברתית למוסר. לצרכי המאמר אני מניח שסוכן מוסרי מלאכותי, שייבנה בין השאר בשיטות של למידת מכונה, ילמד התנהגות מוסרית מתוך דוגמאות רבות של אינטראקציות חברתיות.

קרון, שואה, אושוויץ, בלגיה

האם הקרונות ילמדו את מה שבני-האדם מסרבים ללמוד? תצלום: JoJan, ויקיפדיה

בניגוד לסוכן המוסרי הפונקציונלי, טיבו וטבעו של הסוכן המוסרי המלא מעורפלים יותר. מהגדרות הסוגים נובע שבעוד שהסוכן המוסרי הפונקציונלי כפוף לניסיונו ולכללי המוסר שהוכתבו עבורו, הסוכן המוסרי השלם הוא אוטונומי, ובשל כך הוא לכאורה מכתיב לעצמו את כללי המוסר שלפיהם יפעל. מהי המשמעות של היות סוכן מוסרי אוטונומי? אינטואיטיבית, נרצה לומר על ישות שהיא אוטונומית אם היא פועלת בצורה עצמאית, כלומר קובעת את פעולותיה בעצמה בלי שתהיה מושפעת באופן לא מודע או בניגוד לרצונה. אין ספק שלמושג האוטונומיה יש קשרים הדוקים למושגי החירות והשוויון, אבל יותר מכך למושג העצמי. העצמי העצמאי, שקובע את חוקיו שלו מבלי שיהיה מושפע שלא מדעת. אבל האם הגדרה כזו משאירה את האוטונומיה כמטרה בלתי ניתנת להשגה?

כך כותב ג'ראלד דבורקין בספרו The theory and practice of autonomy: "לכל האינדיבידואלים יש היסטוריה. הם מתפתחים חברתית ופסיכולוגית בסביבה נתונה עם אוסף של כישרונות ביולוגיים. הם מתבגרים לאיטם ולכן מושפעים מאד מהוריהם, בני דורם ותרבותם. אם כך, איך ניתן לדבר על הגדרה עצמית?"

כאשר עברה ספינתו של אודיסאוס ליד אי הסירנות, ביקש מאנשיו שיקשרו אותו לתורן הספינה ויתעלמו מכל בקשה או פקודה שלו להשתחרר, כדי שלא תפתה אותו שירת הסירנות לכוון את ספינתו אל הסלעים. הוא ביקש שיגבילו את חירותו כדי שיוכל לשרוד. היה לו רצון עז שלא לפעול לפי רצונותיו.

מאחר שהמושגים המטפיזיים של חירות ואוטונומיה רצופים בקשיים פילוסופיים שלא זה המקום להתמודד עימם, אגדיר לצרכי מאמר זה אוטונומיה כיכולת ממעלה שנייה של אנשים להרהר בצורה ביקורתית על העדפותיהם, רצונותיהם, משאלותיהם וכו' מהמעלה הראשונה, ועל יכולתם לשנות את כל אלה לאור העדפות וערכים מסדר גבוה יותר.

דוגמה לכך ניתן למצוא בסיפור מסעותיו של אודיסאוס. כאשר עברה ספינתו ליד אי הסירנות, ביקש מאנשיו שיקשרו אותו לתורן הספינה ויתעלמו מכל בקשה או פקודה שלו להשתחרר, כדי שלא תפתה אותו שירת הסירנות לכוון את ספינתו אל הסלעים. הוא ביקש שיגבילו את חירותו כדי שיוכל לשרוד. לאודיסאוס ישנן העדפות לגבי העדפותיו – רצון עז שלא לפעול לפי רצונותיו. הוא מתבונן וחוזה מראש את רצונותיו העתידיים (להשיט את ספינתו אל אי הסירנות למשמע שירתן), ומחליט לפעול נגד רצונות אלו. זוהי יכולת מהותית של אנשים: להרהר ולהתבונן "מבחוץ" ברצונותיהם, משאלותיהם וכוונותיהם (מהסדר הראשון) ולקבל ביחס לאלה החלטות. על פי הגדרה, אוטונומיה אינה רק הערכה והרהור לגבי העדפות מהסדר הראשון, אלא גם היכולת לשנותן ולפעול אחרת.

אודיסאוס והסירנות, לאון בלי

"אודיסאוס והסירנות" (1867), ליאון בלי, תצלום: ויקיפדיה

כאמור, האוטונומיה היא אחד ההבדלים המשמעותיים בין שני סוגי הסוכנים המוסריים המדוברים, זה הפונקציונלי וזה המלא. מה בדיוק משמעות הדבר ואיך הוא עשוי להשפיע עלינו?

סוכנים מוסריים מלאים הם בעלי כל היכולות הקוגניטיביות שאנו מעריכים כהכרחיות ומספיקות לסוכנות מוסרית מלאה – תודעה, מודעות עצמית, אינטליגנציה ברמה האנושית ויותר, אולי אפילו רגשות. על פי הגדרה, הם בעלי יכולת להרהר ולהעריך את ההחלטות

סוכנים מוסריים פונקציונליים הם עצמאיים עד גבול מסוים – יש להם יכולת להעריך ולהגיב לאתגרים מוסריים ללא צורך בהתערבות אנושית. הם אמורים לדעת להעריך מצב חדש, על פי ניסיונם, לסווג אותו ולפעול בהתאם, שוב על פי ניסיונם ובהתאם לכללים המוסריים שתוחמים את אפשרויות הפעולה שלהם. מאחר שאין להם יכולות קוגניטיביות הדרושות להרהורים (reflection) על אודות הבחירות והפעולות שלהם, הם אינם אוטונומיים.

סוכנים מוסריים מלאים הם בעלי כל היכולות הקוגניטיביות שאנו מעריכים כהכרחיות ומספיקות לסוכנות מוסרית מלאה – תודעה, מודעות עצמית, אינטליגנציה ברמה האנושית ויותר, אולי אפילו רגשות. על פי הגדרה, הם בעלי יכולת להרהר ולהעריך את ההחלטות, הבחירות והרצונות שלהם מן הסדר הראשון (שייתכן כי נוצרו במהלך תקופת אימון ראשונית, מתוך כללים מוסריים בסיסיים שהוטמעו בהם וכו') ולשנות אותם, או לפעול בניגוד להם.

כאמור, מכונות משני הסוגים המדוברים עדיין אינן קיימות, אולם קיימת הסכמה רחבה על כך שהאנושות תצטרך להתמודד בעתיד הקרוב, לכל הפחות, עם חיים לצד מכונות אינטליגנטיות למחצה, שיקבלו החלטות מוסריות משמעותיות. זהו אחד הטיעונים המרכזיים בעד השקעת מאמצים ומשאבים בפיתוח סוכנים מוסריים פונקציונליים – האפשרויות הטכנולוגיות נראות בהישג יד והיתרונות לכאורה משמעותיים. בפסקאות הבאות נבחן טיעונים בעד ונגד סוגי הסוכנים המוסריים המלאכותיים השונים וננסה להבין מה עדיף לנו, כבני אדם.

השומרוני הטוב, יקוב יורדנס

"השומרוני הטוב" (1616), יקוב יורדנס, תצלום: ויקיפדיה

אחד הטיעונים המרכזיים נגד סוכנים מוסריים פונקציונליים נובע מהעובדה שאין להם עצמי (self) שאותו הם יכולים להביא בחשבון כאשר הם שוקלים דרכי פעולה. כלל הזהב המוסרי, "נהג באחרים כפי שהיית רוצה שינהגו בך", או הציווי הקטגורי הקנטיאני של החוק האוניברסלי, קרי ״פעל על פי כלל שהיית רוצה שיהפוך לחוק אוניברסלי״, יהיו קשים ליישום עבור סוכנים מוסריים שאין להם עצמי או מודעות עצמית: אם אין משמעות ל"היות סוכן מוסרי פונקציונלי", אזי אין ישות בעלת רצונות בנוגע להתנהגות אחרים כלפיה, ולפיכך אין אפשרות להחליט כיצד לנהוג באחרים. ובאותה נימה, אם לסוכן המוסרי הפונקציונלי אין מודעות עצמית, הוא אינו יודע מה הוא רוצה שיהפוך לחוק אוניברסלי, ולפיכך אינו יודע כיצד לנהוג.
תשובה לטיעון זה אפשר למצוא במנגנון ההחלטה של סוכן מוסרי פונקציונלי. אחד המנגנונים המרכזיים שמאפשרים לסוכן כזה להחליט הוא הניסיון שלו, שנבנה ממידע הכולל מצבים מוסריים ותגובות אנושיות לאותם מצבים. מכאן שסוכן מוסרי פונקציונלי יכול לסווג את המצב החדש לפני נקיטת פעולה, ולחקות דרכי פעולה אנושיות. למשל, ללמוד מניסיונו מה אנשים מוכנים או אינם מוכנים לקבל בהתנהגות אחרים כלפיהם.

יש הטוענים כי תורת מוסר אמתית אינה ניתנת לניסוח כרשימה של חוקים – מול כל ניסיון לנסח תורת מוסר אמיתית כרשימת חוקים, תמיד תזמן המציאות מקרים שבהם הפעלה של חוקים אלו תסתיים בפעולה שגויה מוסרית

טיעון נוסף נגד סוכנים מוסריים פונקציונליים הבנויים בשיטת top-down, כלומר מוגבלים על ידי כללים מוסריים "המונחתים עליהם" כהגבלות על התנהגות והחלטות, משתמש בתזה נגד קידוד (anti-codifiability thesis). התזה והטיעון המתבסס עליה גורסים שתורת מוסר אמתית אינה ניתנת לניסוח כרשימה של חוקים – מול כל ניסיון לנסח תורת מוסר אמיתית כרשימת חוקים, תמיד תזמן המציאות מקרים שבהם הפעלה של חוקים אלו תסתיים בפעולה שגויה מוסרית. כתוצאה מכך, כל סוכן מוסרי מלאכותי שיפעל על פי חוקים אלה ישגה מוסרית לעתים, למשל על ידי סיווג מצבי המציאות שבהם הוא נתקל באופן שאינו מתאים לחוקים שהוכתבו לו.

כמובן, הציפייה שסוכנים כאלו יהיה חפים מטעות אינה מציאותית. סביר יותר להניח שהם ישגו, אך פחות מאשר שוגים בני אדם.

כאמור, במאמר זה אנו עוסקים בסוכנים מוסריים הבנויים כהכלאה בין שיטות top-down ושיטות bottom-up. בצורה זו נוכל להתגבר על בעיות דוגמת אלו שהוזכרו, המתייחסות נקודתית לאחת השיטות. עם זאת, גם כנגד גישת ההכלאה (Hybrid approach) הועלו מספר טיעוני נגד:

הראשון, הטיעון מתוך חוסר היכולת להבין. על פי קו מחשבה זה, איננו יכולים לבטוח בסוכנים מוסריים משום שאיננו יכולים להבין את דרך קבלת ההחלטות שלהם. למעשה, הטיעון מתחלק לשניים: החלק הראשון מתייחס לכך שלא נוכל להבין את דרך פעולת הסוכנים המוסריים או לעקוב אחר קו המחשבה שהביא אותם לפעול בצורה בה פעלו. החלק השני מתייחס לכך שככל שיהפכו האלגוריתמים שבהם סוכנים אלה משתמשים למורכבים יותר, נתקשה לגלות טעויות בדרך פעולתם ולתקנן.

הבעיה בטיעון זה היא שהוא כללי מדי. כלומר, הוא מתאים לשימוש נגד כל בינה מלאכותית בת ימינו העושה שימוש בלימוד מכונה או בלימוד מכונה עמוק, ולמען האמת, גם נגד בני אדם. חישבו על מספר הפעמים שבהן הייתם בטוחים שפלונית קבלה החלטה מסיבות מסוימות או שהייתם בטוחים שאתם עוקבים אחרי קו מחשבתה והתבדיתם לחלוטין.

שאר הטיעונים קשורים באופן הדוק לחלק האחרון של מאמר זה, שיעסוק בהבדלים בין סוגי הסוכנים המוסריים שעל הפרק, הסוכן המוסרי הפונקציונלי וזה המלא.

גולגותה, ישו והגנבים, מיחאי מונקאץ'

מי נהג באורח מוסרי? ישו, שני הגנבים, הרומאים שצלבו את השלושה... - "גולגותא" (1884), מיחאי מונקאץ', תצלום: ויקיפדיה

מוסרי יותר הוא טוב יותר?

כאמור, אחד ההבדלים המשמעותיים בין הסוכן הפונקציונלי למלא הוא העצמי הסובייקטיבי, על כל הנלווה אליו. מהותית לדיוננו היא הסובייקטיביות המוסרית או המצפון, אותה תחושה של חובה ואחריות שמניעה אותנו וגורמת לנו לפעול בצורה מוסרית. הזכרנו את הציווי הקטגורי האוניברסלי של קאנט, שכנראה דורש תחושות פנימיות מסוימות. פילוסופים גדולים נוספים סברו שפנימיות נחוצה למוסר: ג'ון סטיוארט מיל טען שישנם היבטים פנימיים וחיצוניים לעקרון התועלתיות – הפנימיים מתבטאים ב"תחושה במוחנו, יותר או פחות עזה, המלווה את הפרת החובה", והיא מהות המצפון.  בנוסף, פנימיות מהסוג המדובר חשובה במיוחד במוסר של מידות טובות מהסוג בו תומכים אפלטון ואריסטו – שניהם מדגישים את ההבדל בין היות אדם טוב ובין פעולתו הטובה. על פניה, התשובה לשאלה האם נעדיף סוכן מוסרי הפועל מתוך דחף פנימי לעשות טוב נראית ברורה.

יצירת סוכנים מוסריים מלאכותיים מלאים תביא ככל הנראה להענקת מעמד מוסרי לאותם סוכנים מלאכותיים, כך שיהיו זכאים לזכויות, התחשבות ברצונותיהם והגנה מפני עוול ופגיעה בלתי מוצדקת: לא נוכל לנהוג בהם כאילו הם כלים או עבדים

באופן מפתיע, ישנם גם הוגים הסבורים שההבדל המדובר אינו משמעותי להתנהגות המוסרית. אנטוני ביברס (Beavers) למשל, טוען במאמרו Moral Machines and the Threat of Ethical Nihilism שמבחינה פרגמטית אין דבר שיבדיל בין סוכן מוסרי פונקציונלי המציג התנהגות מוסרית נאותה, ובין סוכן מוסרי מלא הפועל מתוך התכוונות ודחף מוסרי פנימי. מבחינתו, למוסריות מימושים מרובים, ששניים מהם הם מוסריות פונקציונלית ומוסריות מלאה: "מה שמהותי לסוכנות מוסרית מלאה...אינו מהותי למוסריות. זהו תנאי מספיק, אך כבר לא הכרחי, להיות מוסרי". על פי דעה זו, מחוץ למעגל הדברים המהותיים למוסריות נשארו המאפיינים הפנימיים דוגמת תודעה, התכוונות ורצון חופשי וכן מצפון ואחריות מוסרית. האם זה דבר שנוכל לקבל? במקרה שלא, כדאי לבחון את ההשלכות של יצירת סוכן מלאכותי מוסרי מלא.

השלכה אחת חשובה שכדאי להביא בחשבון היא שיצירת סוכנים מוסריים מלאכותיים מלאים תביא ככל הנראה להענקת מעמד מוסרי לאותם סוכנים מלאכותיים, כך שיהיו זכאים לזכויות, התחשבות ברצונותיהם והגנה מפני עוול ופגיעה בלתי מוצדקת. הדעה הרווחת היא שסוכן מוסרי מלא זכאי למעמד כזה מתוקף יכולותיו הקוגניטיביות – אוטונומיה, מודעות עצמית, יכולות היסק ומיומנויות חשיבה מתוחכמות, ויכולת להרגיש סבל, צער וכאב. במילים אחרות, נצטרך לקחת ברצינות את האינטרסים שלהם – לא נוכל לנהוג בהם כאילו הם כלים או עבדים, כי אם יצורים אוטונומיים בעלי זכות מלאה לקיום, שאינם צריכים לחשוש מ”כיבוי”. בנוסף, במובנים רבים נצטרך לחלוק איתם את זכויותינו, למשל את הזכות להצביע, או אפילו את הזכות להגדרה עצמית במדינה משלהם, שבה יוכלו לחוקק חוקים פנימיים באותו אופן שבו מדינות עצמאיות נוהגות.

קו החיים, וינסלו הומר

"קו החיים" (1884), וינסלו הומר. תצלום: Google Cultural Institute, ויקיפדיה

היבט אחר מדאיג של סוכנים מוסריים מלאכותיים מלאים נעוץ בעצם היותם אוטונומיים ובעלי יכולות נפשיות שאציין מיד.

רבים יסכימו שאדם הפועל לפי החוקים ללא שום רגש הוא אדם שחסר בו משהו, אולי אפילו אדם פגום מבחינה מוסרית

חשוב להביא בחשבון את מעורבות הרגש בקבלת החלטות מוסריות. בקרב פילוסופים לאורך הדורות ישנה הסכמה גורפת לגבי מעורבות והשפעת הרגש על קבלת ההחלטות וההתנהגות המוסרית - חוסר הסכמה לגבי טיבה של ההשפעה (חיובית או שלילית) והסכמה מקיר לקיר לגבי עצם קיומה. לא רק זאת, אלא שקיימים מחקרים מדעיים נוירולוגיים המראים שבתהליך קבלת ההחלטות המוסריות מעורבים רגשות. פילוסופים רבים טענו שרגשות כמו כעס, פחד, צער, חמלה, קנאה ואהבה מערפלים את שיקול הדעת המוסרי, מסיטים את תשומת ליבנו ואף מביאים אותנו למצבי נפש שאינם יציבים ואף תלותיים. דוגמה ליישום טענה זו אפשר למצוא במערכת המשפט בארצות הברית, שמורה למושבעים להתעלם מרגשותיהם בבואם להחליט בדבר חפותו או אשמתו של נאשם. פילוסופים מודרניים כדקארט, שפינוזה וקאנט הלכו בעקבות הסטואיקנים היוונים וסברו שיש להפחית או להעלים את  הרגשות בעת קבלת החלטות מוסריות, בעוד שאחרים כמו יוּם, רוסו ושופנהאור שמו דגש על חמלה וסימפטיה ועל תפקידם המוסרי. אינטואיטיבית, אני סבור שרבים יסכימו שאדם הפועל לפי החוקים ללא שום רגש הוא אדם שחסר בו משהו, אולי אפילו אדם פגום מבחינה מוסרית. חשבו על פסיכופתים. הדעה הרווחת היא שהם אינם מסוגלים להרגיש שהתנהגות מסוימת היא טעות מוסרית. הם מסוגלים לחקות את הזולת ולעקוב אחר הכללים והנורמות המוסריות והחברתיות, אך חסרים את הרגש המתאים המניע אחרים לידי התנהגות מוסרית נאותה. תהיה אשר תהיה דעתכם בנוגע למעורבות הרגש בקבלת ההחלטות המוסרית, אני אטען שככל שהדבר נוגע לסוכן המוסרי המלאכותי המלא, תהיה לכך השפעה משמעותית באופן הבא:

נחלק את המציאות העתידית לשתי אפשרויות דיכוטומיות. בראשונה, לסוכן המלאכותי המוסרי המלא לא יהיו רגשות כלל, ובשנייה יהיו לו רגשות כלשהם. האפשרות הראשונה תייצר, אינטואיטיבית, מכונות פסיכופתיות. כפי שכותב הפילוסוף של הטכנולוגיה מרק קוקלברג (Coeckelbergh) במאמרו Moral appearances: emotions, robots, and human morality: "זו תהיה סכנה לבנות אותם – שהרי אלה יהיו רובוטים פסיכופתיים. הם יצייתו לחוקים, אך ללא חמלה, אהבה, פחד או אכפתיות... הם יהיו עיוורים מבחינה מוסרית. אם תינתן לרובוטים כאלה עצמאות מלאה – ללא השגחה חיצונית אנושית, כפי שמוגדרת סוכנות מוסרית מלאה – הם יהוו סכנה לבני אדם ולישויות אחרות". האפשרות השנייה תייצר סוכנים מוסריים המקבלים החלטות באופן אנושי (מבחינת הציות לחוקים תוך הנעה על ידי הרגש המוסרי), אך בכל זאת, בצורה או במנעד שונים, מבחינת סוג ועוצמת הרגש המניעים את הסוכן להחלטה. מדוע? משום שסביר להניח שבינה מלאכותית, גם אם תהיה מסוגלת לחוות את מה שאנו נזהה כרגש, תחווה אותו בצורה שונה כל כך מבני אדם – שהיא לא תהיה ניתנת להשוואה. אם היא תחווה רגש בצורה שונה, הרי שמה שיניע אותה לפעולה מוסרית יהיה שונה בעוצמתו ובטיבו ומכאן שקשה יהיה להעריך את השפעתו על הפעולה המוסרית.

אפרוח

מה יחליט סוכן מוסרי אוטונומי לעשות באפרוח? תצלום: רמירו מרטינס

בנוסף, על פי הגדרה, הסוכן המלאכותי המוסרי המלא הוא אוטונומי, כפי שהגדרנו זאת, וגם אם נבנה סוכן מוסרי מלאכותי מלא שילמד את ההתנהגות המוסרית האנושית הנאותה ו"נצרוב" לתוכו את כללי המוסר שנרצה שיישם (אם אפשר ל"צרוב" ואם נוכל להסכים על כללים כאלו), סוכן כזה יונע לפעולה מוסרית באופן שונה מאתנו, ולכן סביר שייקלע לקונפליקטים מוסריים בין מה שלמד ובין מניעיו, אותם יהיה באפשרותו לפתור בצורה עצמאית ולערוך מחדש את כללי המוסר שלפיהם הוא יפעל להבא. במילים אחרות, סביר להניח שסוכן מלאכותי שכזה יסטה עם הזמן מהדרך המוסרית שאותה התוו עבורו בוראיו האנושיים. כמו כן סביר להניח שכל סוכן כזה יסטה מאותה דרך בצורה שונה.

מאחר שנצטרך לחיות לצידם של סוכנים מוסריים מלאכותיים כבר בעתיד הקרוב, מן הראוי שנשאל את עצמנו מהו סוג הסוכן המוסרי המלאכותי שברצוננו לחיות לצדו

מאחר שנצטרך לחיות לצידם של סוכנים מוסריים מלאכותיים כבר בעתיד הקרוב, מן הראוי שנשאל את עצמנו מהו סוג הסוכן המוסרי המלאכותי שברצוננו לחיות לצדו: הפונקציונלי, שיחקה את ההתנהגות הנאותה על פי ניסיון וחוקים שיוכתבו לו, יפעל ללא שום מניע פנימי מוסרי ויטעה בחישוביו או בסיווגיו מפעם לפעם; או הסוכן המלא, שיפעל מתוך מניע פנימי רגשי, אך עם הזמן מניעיו ילכו ויתרחקו מאלה האנושיים, ובהיותו אוטונומי הוא יהפוך את השינוי לקבוע. האחד, פרימיטיבי, בלתי ניתן להבנה, נתון להשפעה ואינו חף מטעויות, אך בר שליטה ובעל שיעור שגיאה טוב לאין ערוך מזה האנושי. השני, מתוחכם, עצמאי, בעל יכולות קוגניטיביות נעלות ומוסר אל-אנושי.

לסיכום, רצוי שנהיה מוכנים לעתיד לבוא. המין האנושי נמצא בתהליך, שכבר החל, של האצלת החלטותיו המוסריות למכונות מלאכותיות. מדובר בתהליך ארוך שיימשך מאות שנים, וכדרכם של תהליכים הנמשכים מספר חיי-אדם, קשה לנו, מנקודת מבט קצרת חיים, להעריך ולתפוש את תוצאותיו. לעת עתה אנו מאצילים החלטות מוסריות פשוטות למכונות פשוטות הנתונות לשליטתנו המלאה. בעשרות השנים הקרובות, נעביר יותר ויותר מסמכויותינו המוסריות למכונות מתוחכמות יותר, וכן, זה נראה הדבר החכם לעשות – הן יקבלו החלטות טובות יותר, מהר יותר וכמעט ללא שגיאה, הרי אנחנו נהיה אלה שנאמן אותן לכך. אבל יגיע רגע בעתיד שבו נוכל ליצור מכונות מלאכותיות אוטונומיות בעלות אינטליגנציה ברמה אנושית ויותר. מכונות שיוכלו להרהר בהחלטותיהן המוסריות ולשנות אותן. אנחנו נאמן אותן ונקבע עבורן חוקים מוסריים שנרצה שיתוו עבורן את הדרך, אבל כמו ילדים שבגרו, הן יתעצבו בכוחות עצמן.

אני מתקשה להאמין שנוכל לסטות מהתוואי הטכנולוגי שמוביל למכונות מלאכותיות אוטונומיות, אבל ללא ספק נוכל להגיע אליו מוכנים יותר.

 

רשימת קריאה

[1] Müller, V. C. and Bostrom, N. (2014). “Future progress in artificial intelligence: A Survey of Expert Opinion.” In Vincent C. Müller (ed.), Fundamental Issues of Artificial Intelligence(Synthese Library; Berlin: Springer).[2] Purves, D. (2017). “A Dilemma for Moral Deliberation in AI”. The International journal of applied philosophy 30/2.[3] Dworkin, G. (1988). The theory and practice of autonomy.[4] Sullins, J. P., (2008). “Artificial Moral Agency in Technoethics”. In Luppicini, R. and Adell, R. Handbook of Research on Technoethics, Ch. 14.[5] futureoflife.org/2016/07/06/evolution-of-ai/[6] ג'ון סטיוארט מיל, על התועלתיות, פרק 3.[7] Beavers, A. (2012). “Moral Machines and the Threat of Ethical Nihilism”. In Lin, P., Abney, K. and Bekey, G., Robot Ethics: The Ethical and Social Implications of Robotics, Ch. 21.[8] Greene, J. D. (2001). “An fMRI investigation of emotional engagement in moral judgment”. Science, 293(5537), 2105–2108.[9] Nussbaum, M. C. (2001). Upheavals of thought: the intelligence of emotions. Cambridge: Cambridge University Press.[10] Coeckelbergh, M. (2010). “Moral appearances: emotions, robots, and human morality”.  Ethics and Information Technology 12(3): 235-241. 

 

תמונה ראשית: גלגלי שיניים. תצלום: ביל אוקספורד, unsplash.com

מאמר זה התפרסם באלכסון ב

תגובות פייסבוק

> הוספת תגובה

4 תגובות על טחנות המוסר

01
אברום רותם

כל הרעיון של סוכן מוסר מלאכותי, כלומר מכונה עם שם יחצ"ני מתאים, כפוף לשתי אפשרויות מרכזיות:
(1) "לצרוב" את כללי המוסר שנרצה שיישם - אין בעיה, אך בתנאי קטן שמישהו (כולל מאבותינו מקדמת דנה) שיגלה לנו סוף סוף כללי מוסר מוסכמים כלשהם, שאינם נגועים באג'נדות פוליטיות/דתיות/ אישיות וכל תפיסת עולם. במילים אחרות - איך תתמודד המוכנה עם סוגיות אתיות שאין להם "פתרון מוסרי", אלא חלקי בהלימה לאג'נדות כאלה ואחרות. מאחר ואנו לא בדיוק פותרים, אלא משתמשים בחוק ומשפט ופרשנות אינקץ, איך מכונה/סוכן טכנולוגי מבריקה תעשה זאת?
(2) מכונת על, שתעלה בכושר הניתוח, חשיבה ביישום מוסר על אלה שקיימים כיום במוחות חכמים של אנשי חוק ומשפט ומוסר - שתייתר את הצורך במעורבות אנושית, ותדע מה היא טובת החברה האנושית בכל סוגיה וסוגיה באופן מיטבי ואופטימלי על-אנושי. טוב... זה נשמע אכן מבטיח ואפילו נחמד, אך בואו נדבר שזה יקרה ;-).
--------
אהבתי את הקביעה בסיכום המאמר שאם נרצה או לא, הסוכנים הפסבדו-מוסריים כבר פולשים לעולמנו, וקובעים התנהלות אתית כזו או אחרת (לא בהצלחה יתרה, אבל גם זה משהו בהתחשב בחלופות האנשויות), ולכן כדאי להיות ערוכים לזה יותר טוב. נעיר רק שביננו, זה רעיון מעגלי משהו - להיות ערוכים לזה יותר טוב. כי "טוב" זה מהו?

02
אסתר. באיו

האמת שלי. זה נכון שהטכנולוגיה. מגילה על חיי האדם המודרני. אבל יחד עם זאת זה מפחיד מאוד מי יודע. בעידן הרובוטים. לאדם. לא יהיה מקום ונעלם. מהעולם.כבר. היום. בלי. מחשב. פשוט. בסופר קופות. לא. עובדותלא. ניתן לקנות !וזה המחשב. הכי פשוט.¡!!!

03
חוה

מכונות שוגות המון. כל יום. במלא מלא דברים. ובהיותן מחוברות ברשת תקשורת, הן גם חשופות כל הזמן לפגיעות והטיות. למעשה, לכל מוצר דיגיטלי, ברגע שהוא התחיל את חייו, יש לו צוות תחזוקה ותמיכה, כל הזמן.
הייתי מציעה לרדת קצת מהגלוריפיקציה העיוורת הזאת שלא מוליכה למקומות מושכלים: אנשים עושים x, מכונות עושות מה שאנחנו יכולים לשכנע אותן לעשות, וצריך לבדוק מה משרת אותנו.

04
יוסף רבתי

המאמר למעשה יורה לעצמו ברגל: "חשוב להדגיש שמבחינה פילוסופית אין קשר הכרחי בין הסכמה חברתית למוסר. לצרכי המאמר אני מניח שסוכן מוסרי מלאכותי, שייבנה בין השאר בשיטות של למידת מכונה, ילמד התנהגות מוסרית מתוך דוגמאות רבות של אינטראקציות חברתיות."
מה שהמאמר בעצם אומר הוא שהבינה המלאכותית תשקלל מגוון תגובות ופעילויות חברתיות ומתוכן תסיק מהי התנהגות מוסרית. אליה וקוץ בה: ההתנהגות היומיומית שלנו ניגזרת ממוסכמות חברתיות שמעטות מהן נשענות, הן במודע והן שלא במודע, על מניעים מוסריים או ערכים.
מה השיקול המוסרי שאני מפעיל בעת שאני מחליט לקנות חצי קילו תפוח פינק ליידי וקילו תפוח חרמון?
המחבר נופל למלכודת של תפישת המציאות היומיומית שלנו כמאבק בין טוב ורע. ביומיום, המאבק הוא בין פינק ליידי וחרמון.