משמעויותיה הפילוסופיות של תוכנת AI (טור 591)

בס"ד

למה אי אפשר להתחפש לרבי חסידי? מפני שאם תשים עליך

כפתן נוצץ ותיסע במכונית מרצדס עם שני גברתנים

משני צדדיך  – אתה באמת רבי חסידי.

(הלצה ליטאית)

בטור הקודם עסקתי בשאלה האם בינה מלאכותית (AI) יכולה לפסוק הלכה, והערתי גם על פוביות שונות ביחס אליה. ההנחה שלי שם הייתה שבינה מלאכותית יכולה, או תוכל בעתיד, לתפקד כמו בני אדם ולפסוק הלכה נכון. בהנחה הזאת הסקתי שאין כל מניעה למסור לה את הפסיקה. בטור הזה ברצוני להיכנס לסוגיה יותר תשתיתית, האם לאור זאת ניתן לראות תוכנה כזאת כבן אדם. מסקנתי תהיה שלא, ובמובן מסוים זהו כיוון הפוך לזה של הטור הקודם. בטור הבא אנסה לבחון את השאלה העובדתית, כלומר את ההנחה האופטימית בדבר יכולותיהן של תוכנות AI עתידיות. נראה שם ששאלה זו אינה כה פשוטה כפי שנראה לאנשים כיום.

מבחן טיורינג

שאלות לגבי הגדרת אדם התעוררו כבר מתחילת עידן המחשב. אלן טיורינג, מאבות מדעי המחשב, כבר התלבט החל ממתי נכון יהיה להתייחס למחשב כאדם לכל דבר. הנחתו הייתה שזו שאלה שנקבעת על ידי יכולות, כלומר משעה שלמחשב יהיו יכולות של אדם הוא בעצם אדם. מכאן הוא גזר את 'מבחן טיורינג' הידוע (שבמקור נקרא 'משחק חיקוי', imitation game, כשם הסרט הידוע עליו), שמטרתו לערוך את הדיאגנוזה הזאת.

המבחן הולך כך. נכניס אדם לחדר עם שני מסכים, אחד מהם מחובר לתוכנת מחשב והשני מחובר לאדם (דרך מקלדת). האדם שבחדר ישוחח דרך שני המסכים שיחה חופשית עם שני הגורמים שמולו וינסה להבין מי משניהם הוא התוכנה ומיהו האדם. אם הוא לא יוכל להבדיל ביניהם, אזי המחשב הזה הוא כבר בעל יכולת של אדם ויש לראותו כאדם.

צ'ירץ'-טיורינג

כדי להרחיב את היריעה, נתבונן בתזה של צ'ירץ'-טיורינג. כדי להבין אותה, עלינו להכיר את 'מכונת טיורינג'. זהו יצור תיאורטי פשוט מאד, שמהווה אבטיפוס פרימיטיבי למחשב. למרות פשטותו, כל מה שמחשב יכול לבצע גם מכונת טיורינג יכולה לבצע, אלא שהדבר ייקח לה המון זמן. התזה של צ'ירץ'-טיורינג[1] במקורה היא טענה שכל פונקציה חישובית שאנחנו מכירים יכולה להתבצע על ידי מכונת טיורינג. אין לתזה הזאת הוכחה (אנחנו אפילו לא יודעים להגדיר מהי פונקציה חישובית במובן הכולל ביותר), אבל היא נחשבת כיום תזה סבירה מאד. הסיבה העיקרית לכך היא שלא מוכרת לנו כיום שום מכונה, מעשית או תיאורטית, שיכולה לחשב משהו שמכונת טיורינג לא יכולה. במילים אחרות, מה שלא ניתן לחישוב על ידי מכונת טיורינג, בינתיים לא מצאנו מכונה אחרת שכן תוכל לחשבו (כמובן, אחרת הזהות ברישא לא הייתה נכונה).

פילוסופים רבים ראו בתזה הזאת משמעויות פילוסופיות חשובות (ראו למשל כאן). לטענתם, משמעותה היא שאין הבדל עקרוני בין יכולות של אדם ליכולות של מכונת טיורינג, ומכאן שמכונת טיורינג היא בעצם אדם. כמובן שהמכונה כשלעצמה אינה אדם, ודרושה תוכנה שתוכל לבצע את כל הפונקציות שיודע אדם לבצע. מסיבה זו השאלה הזאת חוזרת אלינו בעוצמה רבה בימים אלה, שכן ישנה תחושה שמצאנו תוכנה כזאת. תוכנות AI עכשוויות (כמו ChatGPT) מתקרבות מאד ליכולת הזאת. וזה מחייב אותנו לשוב ולעיין בסוגיה שעד לשנים האחרונות הייתה היפותטית.

הטענה שעולה כאן היא הבאה: בהנחה שקיימת תוכנה כזאת (מבחן טיורינג הוא מדד אפשרי לזה), או אז המכונה הזאת תהיה ראויה לתואר 'אדם'. את זה גופא ניתן לפרש בכמה צורות. אפשר לומר באופן מינימליסטי שזה כמו שכל של אדם. המרחיקים לכת יותר טוענים שזה ממש אדם, ומגיעים לו היחס וכל הזכויות שאנחנו מעניקים לבני אדם. הפרשנות המינימליסטית היא במובן מסוים טאוטולוגיה. אם אכן נגיע למכונה שיודעת לחשב כל מה שאדם יכול לחשב או אז היא שקולה לשכל של אדם. השאלה המעניינת יותר היא השנייה. במה, אם בכלל, מותר האדם מן המכונה, לפחות כאשר יכולותיהם האינטלקטואליות שוות?

ניתן לדבר על השאלה האם מכונה כזאת תחווה תחושות, רגשות, יהיו לה רצונות וכו'. אלו רעיונות שמסתובבים לא מעט בעולם הבינה המלאכותית, אבל בעיניי הם הזויים. לכן כאן לא אעסוק בזה, אלא רק בשאלת ההשוואה במישור האינטלקטואלי ובמשמעויותיה. זו הגדרה עדינה, שכן כפי שהסברתי הטענה הזאת כפשוטה אינה אלא טאוטולוגיה, שכן בעצם היא טוענת את הטענה הבאה: שני יצורים בעלי יכולות אינטלקטואליות זהות זהים ביכולותיהם. אמנם יש כאן הנחה סמויה שלפיה כל הפעולות האינטלקטואליות שלנו הן סוגים של 'חישובים', ועל כך יש הרבה מקום לדון. האם כל חשיבה יצירתית היא בגדר חישוב? אם כן, כי אז תמיד ניתן להראות שיש אלגוריתם מכני לגמרי שמעביר אותנו למסקנה. חשבו למשל האם המעבר מנתונים אמפיריים לתיאוריה, שהוא לחלוטין לא חד ערכי ולא אלגוריתמי, הוא בעצם תהליך מכני מורכב? האם גילויין של תורת היחסות או הקוונטים היא תהליך מכני אלגוריתמי? האם הוא תוצר של פונקציה כלשהי של חישוב? זה ייתכן, ובמקרה כזה האינטואיציה שלנו היא רק כושר שמקצר תהליכים (היא עושה חישוב בצורה ישירה ולא מפורשת). אבל אם האינטואיציה שלנו אינה קיצור לתהליך חישובי אלא עניין שיש בו יצירתיות מובנית, כי אז לא ברור בכלל שתוכנת AI עתידית בהכרח תוכל לעשות כל מה שאדם בשר ודם עושה. די ברור שחלק ניכר מהיכולות שלנו הן באמת חישובים, גם אלו שחשבנו שלא, ואכן התוכנות העכשוויות מצליחות יותר ויותר לחקות אותן. השאלה היא האם כל היכולות שלנו הן כאלה, כלומר האם בעתיד התוכנות הללו יוכלו לעשות כל מה שאנחנו יודעים לעשות. בין אנשי AI מקובל לחשוב שכן, ובינתיים נראה שהמצב זורם לכיוון הזה, אבל אני לא בטוח כלל ועיקר שזה אכן המצב.

חשוב להבין שאחת הפונקציות הבולטות והמורכבות ביותר שמייחדות את האדם היא היכולת לשוחח (=רוח ממללא) שיחה אינטליגנטית. אם שיחה היא כושר חישובי, אזי סביר שניתן לעשות רדוקציה של כל הפעולות האינטליגנטיות שלנו לחישובים. לכן טיורינג הציע את המבחן שלו דרך ניסוי של שיחה יומיומית. אבל גם אם שיחה אינה סוג של חישוב, ואולי דווקא אם זה כך, הרי שאם מחשב יוכל לחקות גם את הכושר הזה שלנו הוא כבר באמת זכאי להיחשב כאדם. התוכנות העכשוויות, כמו ה-ChatGPT, בהחלט מתקרבות לעמידה מלאה במבחני טיורינג של שיחה, ולכן הן מאתגרות בצורה משמעותית הרבה יותר מבעבר את הגדרתנו לאדם.

בדוגמאות שהצגתי בטור הקודם ראינו שבינתיים התשובות שנקבל מה-AI די גנריות ולא מאד יצירתיות. הן כמובן תלויות במאמן ובמידע שמוזן אליהן. כידוע, רוב התוכנות הללו הן 'שמאלניות', שכן המלעיטים שלהן בעמק הסיליקון הם בעלי השקפות כאלה (לכן אל תתרשמו מכל מיני תשובות שמצטטים בשם ה-ChatGPT על הרפורמה המשפטית וסוגיות פוליטיות אקטואליות). ככלל, קשה להוציא מהתוכנה הזאת משהו מפתיע ומקורי. הטקסט שהיא יוצרת בדרך כלל נראה כמו תשובה שאדם עם חשיבה מסודרת מוציא אחרי סקירת העובדות בסדר נתון וידוע מראש. עושים סדר בעובדות, מנסחים את השאלה היטב, ומסיימים בכך שכל האפשרויות קיימות ויש להיזהר מבחירה של אחת מהן. ההכרעה לטובת אחת האפשרויות דורשת הכרעה ודורשת יצירתיות וחשיבה לא אלגוריתמית. את זה קשה לקבל מהתוכנות הללו.

ה-AI הולך על בטוח, ובדרך כלל לא  מפתיע אותנו. האם זו תוצאה של המצב הראשוני של התחום הזה ובעתיד זה ייראה אחרת? סביר שכן, אבל השאלה היא עד כמה? האם יגיע רגע שבו לא יישאר לבני האדם שום תפקיד ייחודי משלהם? איני יודע.

בשולי דבריי אזכיר שוב שה-AI לפעמים גם ממציא עובדות להנאתו, ולכן אי אפשר לסמוך עליו בהיבטים מסוימים. הפניתי בטור הקודם למקרה של עו"ד שהסתמך על ChatGPT ונתבע על כך שהגיש תקדימים ופסקי דין שקריים שלא היו קיימים בחומר שהגיש לבית המשפט. תוכלו לראות גם כאן (החל מהדקה 9:28) את ההמצאה היצירתיות של אקווריום מופלא בקרית ים וקורות חיים ומשפחה חדשה לגיא זהר. ממליץ לראות, זה מאד משעשע. יראה הציבור וייזהר. אמנם בהקשר של פסיקת הלכה, אם הוא עובר את הבחינה לגבי הרבה שאלות, זו אינדיקציה לכך שניתן לסמוך עליו שאינו ממציא תקדימים ותשובות הלכתיות (עד כמה שבכלל צריך לסמוך על תקדימים בפסיקה). אני מניח שניתן יהיה, לפחות בעתיד, לוודא שהברנש אינו מעולל לנו דברים כאלה. הדיון שלנו כאן נערך בהנחה שהוא עונה לעניין ומשיב כהלכה.

את כל מה שראינו עד כאן צריך לשמור מאחורי התודעה כשאנחנו נכנסים לדיון. אבל כעת עלינו לשוב להתחלה ולבחון את השאלה בצורה יותר שיטתית.

מהי הבנה?

יש בנותן טעם להתחיל את הדיון בשני משלים ידועים. הידוע שבהם הוא משל החדר הסיני של ג'ון סרל שכבר הוזכר כאן בעבר (ראו למשל בטור 35, שנוגע כולו לדיון שלנו כאן). חשבו על אדם דובר עברית בלבד שיושב בתא ובו שני אשנבים. יש בתא מיכל ענק מלא באותיות סיניות. דרך אחד מהאשנבים מכניסים לו שאלות שכתובות בסינית והוא אמור לענות עליהן בסינית רהוטה דרך האשנב השני. כל תשובה לא נכונה מזכה אותו במכת חשמל כפידבק שלילי. הנחתו של סרל היא שלאחר אינסוף זמן יש אפשרות שהבחור יצליח לענות על כל שאלה שהוא מקבל תשובה הגיונית ולא לקבל מכות חשמל. בגרסה אחרת יש ליושב בחדר אוסף כללים שמנחים אותו כיצד לענות לכל שאלה, אבל הם לא נכנסים לפירוש המילים והמשפטים בשאלות אלא מדובר בכללים טיפוגרפיים צורניים בלבד (סינטקס בלי סמנטיקה). השאלה היא האם במצב כזה הוא באמת יודע סינית? זה קצת מקביל לשאלה האם בן המלך בסיפור ההינדיק של ר' נחמן (ראו עליו בטורים 199 ו-354) אכן התרפא? הוא מתנהג כמו אדם אבל בתוכו פנימה הוא עדיין מחשיב את עצמו כתרנגול הודו. גם בחדר הסיני, הבחור שלנו כותב תשובות בסינית אבל זה רק במישור החיצוני-התנהגותי. בתוכו פנימה אין לו מושג מה אומרות השאלות ומה פירושן של התשובות שהוא עצמו כותב. הוא מתנהג כסיני, אבל רק כלפי חוץ. בפנים אין לו שום הבנה בסינית. קשה לומר על אדם כזה שהוא דובר סינית.

סרל רצה להמחיש לנו את ההבדל בין אוסף המאפיינים של הדבר לבין הדבר עצמו. יכול להיות תופעה או אובייקט שיש להם בדיוק אותם מאפיינים כמו תופעה או אובייקט אחרים, אבל עדיין הם לא יהיו זהים. ייתכן חיקוי שיש לו אותם מאפיינים חיצוניים אבל אין לזהות אותו עם המקור שהוא מחקה. שימו לב, הטענה לא תלויה בכך שלפעמים האדם בחדר הסיני יכול לא לענות נכון. גם אם הוא יענה נכון על כל שאלה, עדיין קשה לומר שהוא מבין סינית. הוא יודע להשתמש בשפה הסינית באופן שנראה כאילו מתקשר עם סביבתו, אבל הוא לא מבין סינית, ולכן גם לא באמת מתקשר עם סביבתו. ניתן לומר שזוהי אינטראקציה נטולת תקשורת.

דוגמה נוספת שמתקשרת לעניין היא החדר של מרי, של פרנק ג'קסון (גם היא הוזכרה לא פעם בעבר. ראו למשל בטורים 111, 142, 446, 452, 493 ועוד). מרי היא פיזיקאית שכל ימיה חיה ופטעלת בחדר שחור–לבן. היא שולטת בכל מכמני האופטיקה, ויודעת כל מה שניתן לדעת על גלי אור בתדרים השונים והתנהגויותיהם. יום אחד היא יוצאת מהחדר שלה ופוגשת לראשונה אור בצבע אדום. האם היא למדה משהו חדש? התשובה היא כמובן כן. בחדר היא ידעה כל מה שניתן לדעת על אופטיקה וגלים, אבל לא היה לה מושג מהו צבע. את זה ניתן להבין רק במפגש בלתי אמצעי. כאן לא מדובר בחיקוי אלא בתיאור מדעי של המציאות. המדע אינו מחקה את המציאות אלא מתאר אספקטים מסוימים שלה. אבל עדיין המדע אינו המציאות אלא תיאור שלה, ולא נכון לזהות ידע של ממצאי המדע של תחום כלשהו עם הבנה בלתי אמצעית של המציאות עצמה.

שתי הדוגמאות הללו מלמדות אותנו שהמושג 'הבנה' הוא חמקמק למדיי. אדם שמבין משהו מתנהג באופן שמעיד על ההבנה הזאת. אבל ההתנהגות אינה ההבנה אלא לכל היותר ביטוי של ההבנה. לכן ייתכן מצב שאדם או יצור אחר מתנהגים בצורה שמתנהג בעל ההבנה, גם אם להם עצמם אין הבנה. הבנה אינה ההתנהגות אלא מצב קוגניטיבי, שההתנהגות היא ביטוי שלו. ניתן אולי ליצור חיקוי של ההתנהגות, אבל חיקוי כזה, גם אם הוא מושלם לגמרי, אינו בהכרח מבטא הבנה. במקרה של החדר הסיני או החדר של מרי, מדובר בחיקוי חיצוני שדי בבירור אינו מעיד על הבנה פנימית.

על האינטליגנציה של מים

בטור 35 עסקתי במושג אינטליגנציה. עמדתי שם על כך שבתחום ה-AI מקובל לדבר על אינטליגנציה של מחשבים ושל בעלי חיים, שנקבעת לפי יכולותיהם לפתור בעיות. יש ציפורים שיודעות לנווט, דבורים שיודעות לנהל כוורת ונמלים בקן וכדומה. טענתי שם שהיכולות הללו לא משקפות אינטליגנציה, ולדעתי יש כאן טעות ביישום המושג. כדי להסביר זאת, הצעתי להתבונן על מים. זרימת מים מתוארת על ידי משוואות מסובכות מאד (נווייר-סטוקס), שגדולי המתמטיקאים והפיזיקאים לא יודעים לפתור אותן אפילו במקרים ממש פשוטים. אבל המים ממש לא מתקשים בזה. הם תמיד זורמים לפי משוואות נווייר סטוקס, ולא מפריע להם אם תנאי הסביבה ממש מסובכים לפתרון מתמטי של המשוואה.

ניתן לראות את המים כ"מחשב אנלוגי". כדי להבין את המושג, טלו כדוגמה סליל חשמלי. אנחנו יודעים מחוקי הפיזיקה שהמתח על הסליל פרופורציוני לנגזרת של הזרם (ולכן הזרם הוא אינטגרל של המתח). לכן אם אכניס לסליל זרם שתלותו בזמן היא לפי הפונקציה f(t), המתח שייווצר עליו יהיה פרופורציוני לנגזרת של הפונקציה הזאת. אם אני רוצה לגזור פונקציה, אין לי אלא להזרים זרם לפי הפונקציה הזאת לסליל ולמדוד את המתח שנוצר עליו. הסליל הוא מחשב אנלוגי (לא ספרתי, כמו המחבים שמוכרים לנו), שכן זוהי מכונה שגוזרת כל פונקציה שנרצה, והיא עושה זאת הרבה יותר טוב ממה שכל אדם יכול לעשות, גם לגבי פונקציות שמאד קשות לגזירה.

אם לגבי גזירה זה קל, כי פעולת הנגזרת היא חד ערכית ואנחנו יודעים לעשות אותה לכל פונקציה, הרי שבאינטגרציה (הפעולה ההפוכה) המצב חמור שבעתיים. אם נפעיל על סליל מתח לפי פונקציה נתונה g(t), הזרם שיעבור דרכו יהיה האינטגרל שלה. זו כבר פעולה שאנחנו לא יודעים לעשות עבור כל פונקציה g. כאן הסליל כבר עולה עלינו ביכולותיו המתמטיות. האם זה אומר שהוא יותר אינטליגנטי מאיתנו?[2]

גם מים הם מחשב אנלוגי, שכן זוהי בעצם מכונה ש'פותרת' את משוואות נווייר-סטוקס. כאמור 'יכולותיה' עולות עשרת מונים עלינו כבני אדם. ועדיין יהיה זה די תימהוני לייחס למים או לסליל חשמלי אינטליגנציה  כלשהי. ה'יכולות' הללו אינן אינטליגנציה. מדוע? מפני שזה הטבע של ה'מכונות' הללו. הן לא פותרות בעיות אלא פשוט מתנהלות לפי טבען. הבעיות (המשוואות המתמטיות) ופתרונן הן בדרך הראייה שלנו את המצב. רק כשאנחנו מתבוננים בסליל או במים זה נהיה מכונה חושבת או מחשבת. היא כשלעצמה פשוט מזיזה אלקטרונים או מולקולות מים לפי טבעה.

אבל גם מחשב הוא מכונה כזאת. הוא עצמו בעצם רק מזיז אלקטרונים לפי טבעו. כשאנחנו מתבוננים בו זה הופך לפתרון בעיה. חשבו על מחשב שפותר את הבעיה לחשב 3+8. אנחנו מקלידים את הספרות הללו עם סימן + ביניהן על המקלדת. במקביל לזה התרגיל מופיע על המסך. כיצד זה קורה? כי בנינו מערכת שמייצרת תמונה ויזואלית שמקבילה להקלדה שלנו ויוצרת את התמונה "3+8" על המסך. אם היינו בונים זאת אחרת, הקלדה זהה הייתה יוצרת על המסך תמונה של מפל מים או ציפור שעפה או סתם משהו אבסטרקטי. אבל חשוב היה לנו לדאוג לכך שהתמונה תהיה זו שאנחנו קוראים אותה כתרגיל אריתמטי של 3+8, אז דאגנו לכך במו ידינו שזו תהיה התמונה שתיווצר. המחשב עצמו כמובן לא יודע בשום צורה שהיא שהוא עוסק בפתרון בעיה או בחישוב אריתמטי (הוא בכלל לא בעל יכולת "לדעת" משהו). הוא פשוט מזיז אלקטרונים לפי חוקי הפיזיקה שמוכתבים לו, ויוצר תמונה לפי התכנית שלי. התמונה הזאת מקבלת משמעות של תרגיל אריתמטי רק אצלי, כמי שמקליד ומתבונן בתמונה על המסך, אבל לא אצלו. גם ה'חישוב' שהוא עושה ומגיע לתוצאה 11, אינו באמת חישוב. פשוט בניתי בתוכו מערכות שמזיזות אלקטרונים באופן כזה שאם נכנס למחשב תרגיל כמו 3+8 האלקטרונים יזוזו כך שתתקבל על המסך התמונה "11". המחשב לא יודע איזו בעיה הגיעה אליו, הוא גם לא יודע שהוא פותר משהו, והוא אכן לא פותר. הוא מזיז אלקטרונים לפי תכנית שבניתי כדי שהתוצר ייתן לי משהו שמקביל לתוצאה המבוקשת. זהו גם סוג של מחשב אנלוגי, אלא שכיום זה נעשה בדרך כלל באופן ספרתי. זה לא משנה את התמונה העקרונית.

האם במחשב שמפעיל תוכנת AI המצב שונה? ממש לא. זה עדיין גולם שמזיז אלקטרונים לפי תכנית שבניתי לו. אלא שהתוכנית מאד מתוחכמת. עד כדי כך שאפילו כותביה לא תמיד יודעים להסביר האם היא תעבוד ומדוע (אנשים לא ממש מבינים כיצד התוכנה נותנת את התוצאות המדהימות שהיא נותנת, אבל עובדה שהם יודעים לבנות אותה ולשפר אותה. כמו בתחומי מדע מסוימים, גם כאן יש לנו ידע תצפיתי שלא לכולו יש לנו הסברים). כיצד, אם כן, מישהו מעלה בדעתו לטעון שלתוכנת AI יש אינטליגנציה? במה היא שונה ממים, ציפור, סליל, או ממחשב רגיל? לדעתי במאומה. זו מכונה שהצלחנו להביא אותה לעשות דברים מורכבים יותר, דומים יותר אלינו, ועדיין זו מכונה שמזיזה אלקטרונים לפי הוראותינו. אני לא רואה כאן שינוי עקרוני ברמה הפילוסופית. כל זה כמובן לא אומר מאומה על יכולותיה ועל הבעיות שהיא 'פותרת' או 'תפתור' בעתיד, ובטח לא על הסכנות שצפויות ממנה. אבל אלו רק שאלות טכניות, גם אם חשובות מאד, שאיני רואה כיצד הן משנות את המצב הפילוסופי המהותי. מחשב אינו אדם, וגם אם הוא 'יודע' 'לפתור' בעיות מורכבות אין לייחס לו אינטליגנציה בשום מובן מהותי. זו תמונה או חיקוי של אדם, אולי חיקוי מוצלח ועדיין חיקוי. בדיוק כמו ששדה אלקטרומגנטי אינו צבע והחלפת אותיות מכנית בחדר הסיני אינה דיבור בסינית.

בטור הבא אנסה להיכנס קצת לדיון על מהותה של חשיבה יצירתית (בניגוד למה שכתבתי לטירגיץ), ולשרטט מפת שיקולים שדרכה ניתן לחשוב על הסיכוי להגיע לתוכנה שמצליחה לעשות כל מה שאדם עושה בתחומים הללו. כעת אנסה לבחון את הסוגיה שלנו מן הזווית של הפילוסופיה של ויטגנשטיין.

ChatGPT וויטגנשטיין

לפני כמה חודשים שלחו לי דברים של פרופ' יצחק בן ישראל (שכבר הוזכר כאן בטור 502) שהפנה למאמר של דותן רייס. רייס דן שם בשאלת ההבדל בין מכונה לאדם לגבי חשיבה, יצירתיות ודיבור. נקודת המוצא שלו היא הפילוסופיה של ויטגנשטיין (המאוחר), בספרו מחקרים פילוסופיים. חידושו העיקרי של ויטגנשטיין שם נוגע ליחס בין משמעות לשימוש.

בתחילת דבריו שם רייס כותב את הדברים הבאים:

פן נוסף שלא זוכה למספיק התייחסות לדעתי הוא הצל שמטילים ChatGPT ודומיו על התפיסה שלנו את עצמינו כבני אדם. ייתכן שההצלחה של ChatGPT דורשת מאיתנו לעדכן את המושגים שלנו לגבי מהי ״מחשבה״, מהי ״יצירתיות״ ומהו ״דיבור״. האם ChatGPT  חושב ומדבר כמונו, או שמדובר בחיקוי של הדבר האמיתי? מה זה אומר על המחשבה אם מודל AI יכול לחשוב, ומה זה אומר עלינו אם אפשר לעשות חיקוי כל כך קרוב למציאות?

הוא מעלה כאן שתי אפשרויות: שהתוכנה מחקה אותנו או שהיא מחקה (?) את הדבר האמיתי. מהו בדיוק ההבדל? אם בנינו חיקוי מושלם של דרכי חשיבה שלנו אז אין מה לעדכן את תפיסותינו את עצמנו. זהו מבנה שמחקה אותנו אבל אין לו יכולות משל עצמו. הוא לא יודע לחשוב אלא פשוט מחקה את מה שאנחנו היינו עושים במצב כזה. אבל אם הוא 'חיקוי' של הדבר האמתי, משמעות הדבר היא שהוא עצמו חושב, אולי כמונו אבל לא בגלל שהוא מחקה אותנו אלא מפני שגם הוא חושב וגם אנחנו (אנחנו דומים כי שנינו עושים אותה פעולה). כמובן שהמונח 'חיקוי' אינו מוצלח במשמעותו השנייה.

אם התוכנה מחקה אותנו עדיין זה מעורר שאלות לגבינו (אם תוכנה יכולה לחקות אותנו באופן מלא זה אומר שיש משהו מכני ולא מאד יצירתי במחשבה שלנו). ואם היא מחקה את הדבר האמתי, שוב עולות שאלות לגבי החשיבה היצירתית שלנו או אולי שיצירתיות אינה מיוחדת לבני אדם, מה שמעלה הרהורים על טיבה של יצירתיות בכלל, ובפרט על הקשר שלה לחופש המחשבתי שלנו (ראו בטורים 35 ו-175 וגם בטור הבא). וכעת לויטגנשטיין.

מקובל לחשוב שלמושגים וטענות בשפה יש משמעות מחוצה להם, שהם מצביעים עליה. השפה היא תיאור של אובייקטים, עובדות ויחסים ביניהם, ואנשים מניחים שמשמעותה של השפה היא אותן עובדות שהיא מתארת. יתר על כן, כשאנחנו אומרים משהו בשפה, ההנחה היא שקודם אנחנו מבינים זאת ואז מבטאים זאת בדיבור (ראו על כך בטור 381 על וורף, ובסדרה ההיא בכלל). ויטגנשטיין טוען שזה אינו עומד במבחן המציאות. התבוננות על השימוש שלנו בשפה מורה לנו שזו אינה באמת המשמעות שלה. לכן הוא טוען שהמשמעות של טענה אינה אלא אופן השימוש שלנו בה, ואי אפשר לנתק בין שני אלו. אני חושב שאין חולק על כך שמשמעות של טענה או מושג הם תלויי קונטקסט, והם יכולים להשתנות בנסיבות שונות, אבל ויטגנשטיין טוען יותר מכך. אין באמת משמעות במנותק מאופן השימוש. השימוש הוא הוא המשמעות. לא אכנס לאמירה הזאת ולאפשרויות השונות להבין אותה, מפני שעל פניה היא נשמעת לי אבסורדית. הוא מניח שהשימוש יכול להתפתח גם בלי הבנה, ובטורים הנ"ל כבר עמדתי על האבסורד שבדבר.

לאור המהלך הפילוסופי הזה, רייס מעלה את השאלה הבאה:

אין ספק ש ChatGPT יודע להשתמש במילים, וזה מה שהופך אותו למקרה מסקרן בשביל לבחון את התפיסה הזו.

השימוש במילים הוא עניין טכני, אבל כפי שראינו למעלה (בדוגמת החדר הסיני ובכלל), הזיהוי שלו עם הבנה הוא מאד בעייתי. התוכנה יודעת לחשוב כמו שהיושב בחדר הסיני יודע לדבר סינית. מיומנות השימוש (כמה פעמים הוא ישגה) אינה רלוונטית כאן. גם אם תהיה לו מיומנות מוחלטת אי אפשר לזהות את מצבו עם אדם שמבין סינית, מפני שאין תהליכים קוגניטיביים שמתרחשים מאחורי השימוש הזה. שימו לב, ייתכן שמכונה כזאת תוכל לעשות כל מה שאנחנו יודעים לעשות (ראו בטור הבא), ועדיין איני מוכן לייחס לה הבנה, שיקול דעת, יצירתיות וכדומה. זהו חיקוי מושלם של תהליכים שקורים אצלנו, אבל חיקוי חיצוני. יתר על כן, הוא מצליח רק בגלל שאנחנו עשינו זאת קודם והמכונה מחקה אותנו. האם מכונות כאלה שהיו חיות בעידן של אדם הראשון היו מפתחות בעצמן חשיבה ומדע כמו בני אדם? אני בספק רב, אבל זהו הנושא של הטור הבא.

ראו למשל את הטקסט של תשובתו של ה-ChatGPT לשאלתו של רייס (תורגם על ידו):

תהליך האימון של ChatGPT מעלה שאלות לגבי הקשר בין שפה ומציאות. המודל מסוגל לייצר שפה קוהרנטית ובעלת משמעות בהתבסס על תבניות סטטיסטיות ויחסים בין מילים, בלי שבהכרח תהיה לו הבנה של אובייקטים בעולם האמיתי, או של מושגים שהשפה מתייחסת אליהם. זה מדגיש את הרעיון שהקשר בין השפה והמציאות הוא מורכב ולא תמיד פשוט וישיר.

ייתכן שאני מוטה, אבל הטקסט הזה (כמו קודמיו מהטור הקודם), הוא מאד גנרי, מכני ועמום, ולא ממש מראה על יצירתיות. יש בו נקודה מעניינת לגבי הקשר בין שפה למציאות, אבל זה הוכנס אליו בשאלה. נדמה לי שזה בערך מה שאני הייתי כותב אם הייתי קם מהשינה ולא הייתי רוצה להש'יע זמן מחשבה בתשובה.

רייס כותב:

בחלק גדול מהגותו, ויטגנשטיין מנסה להפריד בין הפרקטיקה למה שעומד מאחוריה, שהוא בלתי נגיש.  ChatGPT הוא מקרה המבחן האולטימטיבי לגישה שלו, בכך שהפרקטיקה שלו – הכתיבה – דומה מאוד לשלנו, בעוד שאנחנו יודעים שמה שעומד מאחוריה אינו אנושי. אם המשמעות היא אכן בשימוש, אז אין כל הבדל בין אמירה של אדם ואמירה של AI.

אבל כאן בדיוק קבור הכלב. מה שעומד מאחורי הפרקטיקה הוא בלתי נגיש לנו. קשה לנו לתאר את הדבר כשלעצמו מעבר לתיאור המילולי שלו (שהרי כל ניסיון לתאר אותו ישתמש גם הוא במילים). אבל זה שהדבר אינו נגיש לנו לא אומר שהוא לא קיים או לא חשוב. הוא הכי חשוב, והתיאור המילולי הוא הדרך הטובה ביותר שלנו להתקרב אליו. הטיעון הזה לא מראה זהות בין משמעות לשימוש אלא את חוסר הנגישות של המשמעות ואת הנגישות הטבעית של השימוש. לכן בעיניי תכונה כזאת לא מעוררת שאלות פילוסופיות לגבי מהי הבנה. היא אכן מעוררת שאלות האם הבנה יכולה להוליד תוצרים שאי אפשר ליצור בלי הבנה (על ידי תוכנה, שמעצם הגדרתה אינה מבינה כלום). כאן התשובה לא פשוטה, ועוד אזקק אליה בטור הבא. אבל כל מסקנה פילוסופית לגבי מהות ההבנה ומהות האדם והדיבור שלו, היא בעיניי שגיאה.

רייס שואל שם:

אם אפשר לדעת הכל על העולם רק מתוך למידה של קשרים סמנטיים בין מילים, מה הערך בכל החוויות האלה שצברנו?

הטעות היא שלא ניתן "לדעת" מאומה על העולם רק מתוך קשרים סמנטיים (ע"ע 'החדר הסיני'). מה שאפשר הוא להשתמש נכון במילים באופן טכני וחיצוני. זה ממש לא אותו דבר.

הזכרתי כבר קודם שכל חיקוי מכני של פעולה אנושית יכול לעורר את אותה שאלה. לכן אין משהו מיוחד בתוכנות העכשוויות של AI ביחס לשאלה הפילוסופית של הבנה. זהו פשוט חיקוי באיכות טובה ומלאה יותר. גם בעבר יכולתי לשאול האם למחשב יש הבנה כמו ילד מפגר? תשובתי גם אז הייתה שלא, מפני שלמחשב אין הבנה. ההתקדמות מ'הבנה' של ילד מפגר ל'הבנה' של גאון אינטלקטואלי אינה משנה בשום צורה את ההבחנה המהותית.

בהמשך דבריו רייס כותב שם:

מעניין להיווכח שתהליך לימוד השפה שלנו אינו מניח הבנה. כאשר ילדים לומדים את המילים הראשונות שלהם, הם לומדים אותן לא דרך הבנה של משמעות אלא דרך שימוש (ויטגנשטיין מתייחס ללמידה של שפה בחקירות פילוסופיות, סעיפים 1-21). הם לומדים שבמצבים מסוימים אומרים דברים מסוימים. אנחנו אומרים להם: ״תגידי אמא. א-מא״. אנחנו מבקשים שישלימו משפטים: ״אחת שתיים שלוש, ידיים על ה-״. אנחנו מלמדים אותם לקשר מצב למילה: ״תגיד ביי״. וזה ממשיך כך שנים רבות. אנחנו אומרים ״בתיאבון״ בלי להרהר ב״משמעות״ של המילה. כך גם עם המילים ״אמֶן״, ״מזל טוב״, ״בהצלחה״. ניתן לומר שאנחנו מלמדים ילדים לעקוב אחרי כללים. הם לומדים באופן סטטיסטי מהי המילה הבאה שצריכה להיאמר.

גם אם הוא צודק בתיאור הלמידה של ילד, הוא מתעלם מההבנה שנמצאת ברקע הלמידה הזאת. העובדה שההבנה נרכשת בעזרת תרגול של מיומנות, כלומר שהסינטקס יוצר סמנטיקה, רק אומרת משהו עלינו ועל הצורה בה אנחנו לומדים. אחרי התרגול נוצרת אצלנו באופן מפתיע גם הבנה. אבל לא נכון לזהות בגלל זה הבנה עם שימוש. זוהי טעות פילוסופית וסטטיסטית נפוצה: זה שיש קורלציה בין A ל-B או גרימה (A מחולל את B) לא בהכרח אומר שיש זהות ביניהם.

הביקורת שלי על ויטגנשטיין

הביקורת שלי אינה על רייס. אם מניחים את הפילוסופיה של ויטגנשטיין אזי הוא צודק. השאלה האם הזיהוי של ויטגנשטיין בין משמעות לשימוש הוא נכון. כפי שהסברתי, לדעתי אין ספק שלא. כל אחד מאיתנו חווה זאת באופן בלתי אמצעי. ייתכן שניתן להגיע לכל המסקנות שלנו גם ללא הבנה אלא רק בצורה סינטקטית, אבל אין בכך כדי לומר שאין בהבנה משהו מעבר לשימוש.

דומני שהבעיה של ויטגנשטיין כאן היא טיפוסית מאד לחשיבה האנליטית (לא בכדי, הוא היה פילוסוף אנליטי). יש לו טיעונים לא רעים שמראים מדוע המשמעות אינה נגישה לנו, וכיצד ניתן ליצור את התוצרים של החשיבה גם ללא הבנה אלא רק מתוך שימוש (ה-AI מחדד בעיקר את הנקודה הזאת). אבל האלטרנטיבה שהוא מציע, לזהות הבנה ומשמעות עם שימוש, תמיד נראתה לי בעייתית. לפילוסופים אנליטיים יש נטייה לקחת שאלה טובה ולהפוך את סימן השאלה לסימן קריאה. לקחת קושי ולהפוך אותו לתזה פילוסופית. הם מתעלמים מהאינטואיציה שזועקת לנו שמדובר בקושי, כלומר שהתפיסה הקשה היא בכל זאת נכונה (כלומר מתעלמים מהקושי בתפיסה שהם עצמם מציעים. היא אולי מתאימה לעובדות הנגישות לנו, אבל בעליל לא נכונה).

דוגמה אחת שעסקתי בה בעבר היא הגדרת ההבדל בין לאו לעשה במצוות התורה (ראו על כך במאמרי כאן. עמדתי שם על העובדה שזה מאפיין טיפוסי לחשיבה אקדמית-אנליטית. ראו גם בטור 202 ובסדרה 414418. ראו גם במאמרי כאן על גישות שונות בלימוד מחשבת ישראל). הבאתי שם את מאמרו של אהרון שמש ז"ל, שמצביע על הקשיים בזיהוי ההבדלים בין לאו לעשה. בתפיסה הראשונית נראה שההבחנה היא ביצועית: מצוות עשה מורה לנו לעשות משהו (עוברים עליה בשוא"ת ומקיימים אותה בקו"ע), ואילו לאו מורה לנו לא לעשות משהו (עוברים עליו בקו"ע ומקיימים אותו בשוא"ת). ההבחנה הראשונית הזאת לא עומדת במבחן העובדות. יש מצוות עשה שמתקיימות בשוא"ת (כמו שביתה בשבת תענית ביו"כ ועוד) ויש לאוים שמתקיימים בקו"ע (כמו "לא תעמוד על דם רעך", "לא תשים דמים בביתך" ועוד). מכאן מגיע שמש למסקנה שההבחנה בין לאו לעשה היא לשונית ולא ביצועית. אופייה של מצווה תלוי בצורת הניסוח שלה בתורה.

זו מסקנה נכונה כמובן, אבל מוזר מאד לחשוב שהניסוח הזה בעצמו לא מבוסס על הבחנה אמתית כלשהי. האם סביר שהתורה בחרה באופן שרירותי לנסח מצוות מסוימות כלאו ואחרות כעשה, בלי קשר לתוכנן? צריך להיות הבדל תוכני כלשהו, שהניסוח הוא רק ביטוי שלו. לא אכנס כאן לתשובה שהצעתי לעניין (ראו על  כך בהרחבה במאמרנו לשורש השישי), אבל לענייננו כל אחד מכם יכול מיד לראות את הדמיון לטעות של ויטגנשטיין. גם שם הוא מזהה בין הביטוי של דבר (השימוש, השפה) לדבר עצמו (ההבנה, המשמעות) בגלל הקושי בהבנת הדבר. וכך חוסר הנגישות שלנו לדבר עצמו מתפרש כאילו הדבר עצמו פשוט לא קיים. זה פתרון אנליטי קלסי, ושגוי כמובן.

בדוגמה שרייס מביא שם לגבי עקיבה אחרי כלל, המסקנה של ויטגנשטיין היא שבגלל קושי להבין כיצד אנחנו עוקבים אחרי כללים, אין באמת כללים. יש שימוש שלנו בעקרונות הללו שמצטייר ככלל. ושוב, לדעתי יש כאן אותה טעות. ברור שיש כללים. הדרך שלנו ללמוד אותם היא דרך השימוש. קשה לנו לתאר את הכללים וכיצד אנחנו לומדים אותם ועוקבים אחריהם, אבל זה לא אומר שהם לא קיימים. השימוש שלנו בכללים או בשפה מבטא הבנה, לפעמים לא מילולית ולא מומשגת, שלהם. אבל לפחות אצלנו (שלא כמו בתוכנות AI) השימוש לא עומד לעצמו.

ושוב תשובה של CharGPT

אי אפשר בלי התרגיל המקובל בדיונים הללו. לראות מה התוכנה עצמה אומרת על הסוגיה של השימוש בה. יצחק בן ישראל בפוסט הנ"ל שקיבלתי כותב ששלח את השאלה הבאה ל-ChatGPT: ״מה ויטגנשטיין היה אומר על היכולות המילוליות שלך?״, ומביא גם את התרגום של תשובתו:

כמודל שפת בינה מלאכותית, אין לי חוויות אישיות, תודעה או יכולת להחזיק בדעות או אמונות. לכן, אני לא יכול לשער מה לודוויג ויטגנשטיין, פילוסוף רב השפעה של המאה ה-20, היה אומר ספציפית על היכולות המילוליות שלי.

עם זאת, ויטגנשטיין היה ידוע בהתעניינותו בשפה והשימוש בה בתקשורת. הוא הדגיש את חשיבות השפה בעיצוב הבנתנו את העולם ואת הגבולות של מה שניתן לבטא בצורה משמעותית. הוא טען שהשפה שואבת את משמעותה מהשימוש בה בהקשרים ובצורות חיים מסוימים.

אם ויטגנשטיין היה מעריך את היכולות המילוליות שלי, הוא היה עשוי לשקול את הדרכים שבהן אני משתמש בשפה כדי ליצור תגובות על סמך דפוסים ודוגמאות מנתוני ההדרכה שסופקו לי. הוא היה עשוי גם לשאול אם אני באמת יכול להבין ולתפוס את המשמעות של המילים והמושגים שבהם אני משתמש, או אם התגובות שלי הן מכניות בלבד וחסרות הבנה אמיתית.

בסופו של דבר, זה יהיה עניין של ויכוח פילוסופי ופרשנות כיצד ויטגנשטיין היה עשוי להעריך את היכולות המילוליות של מודל שפת בינה מלאכותית כמוני.

שוב, תוכלו לראות שמדובר בטקסט די גנרי שמסכם את הנושא אבל לא באמת מציע משהו בעל מעוף. זהו כמובן הישג מרשים לתוכנתAI , אבל רחוק מתשובה שהייתי מצפה לה מאדם בעל מחשבה יצירתית. לדעתי יש כאן גם שגיאות של ממש, כמו הדיון בשאלה האם הוא באמת יכול להבין ולתפוס את המשמעות של המילים והמושגים שבהם הוא משתמש או אם התגובות הן מכניות וחסרות הבנה אמתית. ברור שהאפשרות השנייה היא הנכונה, והצגת שתי האופציות אינה אלא תולדה של מה שהכניסו לתוכו אלו שאימנו אותו. יש ויכוח בין חוקרי AI בעניין הזה, ולדעתי בעלי העמדה הראשונה פשוט טועים (הם מזהים שימוש עם הבנה. קשה לי להאמין שמישהו מהם טוען שיש לתוכנת AI הבנה במובן המקובל). אבל התוכנה מציגה את שתי האופציות כי זה מה שאימנו אותה לעשות.

אני חייב לומר שיש לא מעט אנשים שהתשובות שתשמעו מהם לשאלות כאלה ייראו די דומות (ראו בתחילת הטור הקודם על וורטים ודרשות של AI, לעומת טקסטים בלמדנות). השאלה האם זה אומר ש-ChatGPT הוא אדם או שאותם אנשים חושבים כמו מכונות? אני נוטה לאפשרות השנייה. העתיד יאמר לנו האם תוכנות AI אכן יגיעו גם לחשיבה יצירתית של ממש, והאם לא תהיה פונקציה אנושית שהתוכנה לא תוכל לחקות, או שתמיד יישאר הבדל (אעסוק בזה בטור הבא). אבל גם אם לא יהיה הבדל, ברור שהבנה אין שם.

לכן העובדה שמגיעים לחיקוי כה מושלם אינה כה מרשימה כפי שניתן היה לחשוב. זה אולי אומר שאנחנו חשים יצירתיים כשבעצם מדובר בחשיבה מכנית, אבל עדיין אין מקום לזהות תוכנה עם אדם. תוכנה אינה חושבת ואין לה אינטליגנציה, ובעצם אין לה בכלל הבנה. זהו חיקוי (משוכלל) של חשיבה של אדם, אבל הוא  מתייחס לאדם אמתי בערך כמו צילום שלו לגופו. ההבדל בין החיקויים העכשוויים לקודמיהם הוא בעיקר כמותי (ברמת המורכבות והשכלול).

זה אומר שמבחינת היחס שלנו למחשבים עם תוכנות ויכולות כאלה, או הזכויות שלהם, אין שום סיבה בעולם לשנות משהו לעומת היחס שניתן ושאנחנו עדיין נותנים למחשבים פרימיטיביים שאף אחד לא היה מעלה בדעתו לתת להם יחס של בני אדם. ראו בתגובה הזאת לטור הקודם.

אחת ההשלכות של הדברים היא לגבי השאלה שנשאלתי בעקבות הטור הקודם. נשאלתי שם לגבי הערך של לימוד תורה במצב שבו תוכנות יוכלו ליצור טקסטים למדניים ברמה של גדולי הלמדנים או אפילו מעבר לזה. עניתי שבעיניי אין לזה שום משמעות, והחובה ללמוד בעיון עדיין תיוותר בעינה, שהרי מטרתנו בלימוד היא לדבוק ברצון ה' ולא בהכרח ליצור תשובות חדשות. בדיוק כמו שקיומו של למדן מופלא לא מייתר את הלימוד של כל הלומדים האחרים. כמובן שהעובדה שהמכונה 'לומדת' (עד כמה שניתן לדבר על לימוד ללא הבנה) אין לה שום ערך דתי. זהו ביטוי לעובדה שהמכונה הזאת, משוכללת ככל שתהיה, אינה אדם.

שני הטורים האחרונים עסקו ביחסנו למכונות חושבות, גם בהנחה (שאולי תתממש בעתיד) שהן מצליחות לבצע כל מה שאדם מצליח לעשות. בטור הבא אנסה לגעת בשאלה העובדתית האם אכן זה יהיה המצב.

[1] אלונזו צירץ' היה לוגיקן ידוע מאד, מנחהו של טיורינג לדוקטורט.

[2] ראו שם את הדיון בשאלה האם יכולת אחת מובחנת היא אינטליגנציה, או שדרושות יכולות מגוונות. לדעתי זה לא ממש משנה לענייננו.

26 תגובות

  1. תודה על הניתוח הפילוסופי המעניין של הדברים. הטענה (השגויה, כפי שאתה מראה) שאם יש סטטיסטיקה אז כנראה שבני אדם פועלים לאורה מחליפה סיבה במסובב. הסטטיסטיקה היא מפני שכך בני אדם מתנהגים, ולא הפוך (זה בערך כמו להגיד שאם אשה הביאה ילד עם בעלה אז היא עשתה זאת מפני שרוב בעילות אחר הבעל…). אדרבה: רוב הפעמים שבני אדם בוחנים סטטיסטיקה בצורה מדויקת – זה לא כדי לפעול לאור התוצאות, אלא כדי למצוא את המאפיין שיאפשר להתגבר על הסטטיסטיקה ולתקן משהו בעולם…

    1. תודה על הניתוח. לאור דבריך על אנשים שחושבים כמו מכונות יהיה מעניין להגדיר מבחן טיורינג הפוך שבוחן את האדם ולא את המחשב. מבחן שבו משווים בין מחשב לאדם וצריך לזהות אם האדם הצליח לגרום לכך שיזהו אותו כאדם. (אני מודע לשקילות הפורמלית עם המבחן הרגיל)

  2. אז בראנו אדם.
    ומה יהיה על הפסוק "שופך דם האדם באדם דמו ישפך , כי בצלם אלקים עשה את האדם " ?
    והדעת נותנת שרצח לא יחשב עברה – כי מה העברה בלהפסיק פעולתם של כמה אלגוריתמים .
    קראתי בספר נדמה לי של פרופסור יקיר שושני, תאור של אדם מאושפז בבית חולים ,
    שאחרי כמה ימים אומרים לו : "מצבך הגופני רעוע למדי. הכנו עותק מדויק שלך , ואת העותק הזה נכבה.
    אל תדאג. תמשיך להתקיים בעותק השני" .
    מה יעשה העותק הרעוע ?

  3. אני חושב שיש כאן משום התחמקות – הלא גם החדר הסיני וגם החדר של מארי בדיוק באים למתוח הבחנות מדויקות יותר בשאלות של הבנה וידע, להבחין אותו מפרגמטיקה (במקרה של החדר הסיני) או לכלול בו את הפנומנולוגיה (במקרה של החדר של מרי). אתה צודק שהעובדה שAI מסוגל לבצע אותם דברים כמו בני אדם לא הופך אותו בהכרח לבן אדם, אבל נותרת השאלה מה כן. לחילופין, אם יבוא מישהו ויטען שהוא למעשה הצליח להעלות את התודעה שלו למחשב, איך נוכל לדעת אם הוא באמת הצליח או לא?

    ובשולי הדברים – chatGPT ודומיו אינם "מולעטים" בדברים שמאלניים, אלא ישנה התערבות גסה בשלב מאוחר כדי למנוע ממנו לומר דברים מסוימים, וממילא ההבחנה בין שמאל וימין בהקשר הזה היא מאד דיכוטומית ולא מועילה

    1. איני יודע מה כן, כמדומני שזו הנשמה (הממד הרוחני שלנו). נקודת המוצא שלי היא שכל אחד מאיתנו חש שלתוכנה אין את הרובד המנטלי. אז חובת הראיה היא על מי שטוען שיש לה. טענתי היא שהפונקציונליות שלה לא מוכיחה מאומה. לא רואה מה ההתחמקות כאן.
      התוכנות הללו בהחלט מאומנות בסביבה שמאלנית, וזה מן המפורסמות, וזה מטה את 'תפיסות העולם' שלהן שמאלה. אני לא מדבר על פוליטיקלי קורקטנס שהזכרת אלא על האימון עצמו.

      1. ההתחמקות היא כמובן בהנחה שיש רובד מנטאלי שלא בא לידי ביטוי באופן פונקציונאלי, שזה אולי נכון (או לפחות נשמע אינטואיטיבי) אבל לא עונה לשאלה איך ניתן לקבוע האם יש או אין רובד מנטאלי. התחושה שלנו שלתוכנה אין רובד מנטאלי לא מאד מעניינת בהינתן שהיא מבוססת על היכרות עם תכנות אחרות, השאלה היא איך ניתן לדעת זו על תוכנה מסוג חדש
        לגבי האימון השמאלני אשמח להחכים. אני מכיר הרבה טענות על כך שהתוצאות הסופיות שמאלניות בגלל אותן התערבויות גסות, אני לא מכיר אפילו טענה אחת על כך שהדאטאסט של האימון הוא שמאלני. זה גם לא נשמע לי סביר במיוחד כי אין לי מושג איך מגבשים דאטאסט עצום ושמאלני

        1. אכן זו טענתי. בדיוק כמו אצלנו, יש לנו בחירה חופשית לדעתי ואין לי ניסוי שיוכיח זאת. כמו שאין ניסוי שיפריך זאת (ראה בטור הבא שיעלה בקרוב). יש דברים שאת קיומם לא ניתן לקבוע אמפירית (כמו קיומו של אלוהים או אפילו קיומנו שלנו מבחינת האידאליסטים). אתה יכול להתרשם באופן בלתי אמצעי וזהו. מאכזב? נכון. אבל מה לעשות, החיים אינם פיקניק ולא הכל נגיש למתודות מדעיות. שוב ראה בטור הבא.
          לגבי האימון, חשוב על העיתונות שמאכילים את התוכנה. אם מאכילים אותה בניו יורק טיימס או הארץ, ובפרט אם מעניקים למקורות הללו משקל גדול יותר ממקביליהם, מקבלים תוכנה שמאלנית. אתה יכול לקרוא לזה התערבות גסה או לא. אבל דברים אלו הם מפי יודעי דבר ששמעתי ואין תחת ידי מקורות לכך. עקרונית ודאי שזה אפשרי.

  4. מודה שקראתי ברפרוף (קצר בזמן), אבל בכל זאת, רק לגבי 2 עניינים שהתייחסת אליהם:

    כפי שציינת ChatGPT (למיטב ידיעתי ה AI מבוסס ה natural language proccesing המתקדם ביותר שיש בימינו), מספק מידע ממש לא אמין בלשון המועטה, ולכן אין סיבה שהוא יוכל לכתוב באופן דומה לאנשים כמוך, שמתבססים על הבנה תיאוריטית עמוקה יותר של החומר עליו אתם מדברים, ובאופן כללי חוץ מהיכולת המדהימה שלו לעזור למתכנתים, הוא לא עושה שום דבר מרשים מעבר לסתם לנסח תשובות שמתייחסות למה שהמשתמש כותב לעניין, מצליח לשלוף חלק מהמידע הבאמת רלוונטי ממסד הנתונים שלו, ולהתנסח ללא שגיאות כתיב ובצורה רהוטה, שוטפת וקוהרנטית.

    כל מה ש OpenAI עשו זה לשדרג את ה project debater כך שיוכל לדבר על הכל ולא רק בהקשר של דיבייט.. זה אולי נשמע ממש מסובך לעשות, אבל בפועל זה ממש קל כי זה מבוסס על בדיוק אותם טכנולוגיות (NLP, data mining , machine learning, deep learning) וקונספטים ממדעי המחשב, לא פלא ש openAI פיתחו את chatGPT עם קבוצה קטנה של כמה עשרות עובדים לאורך כמה שנים. זה הרבה יותר קל ממה שזה נשמע.

    נראה לי שהבנת את המסר הזה יפה מאוד בעצמך, גם אם אתה לא מודע למה שכתבתי. ChatGPT לדעתי ממש לא עומד במבחן טיורינג, ואופן ה "חשיבה" שלו (שאיננו באמת חשיבה בפועל אלא רק חיזוי המילים הבאות ברצף, אגב!) לא דומה מספיק כי הוא לא יכול להתחקות אחרי מקורות מידע מהמימן (בין אם באינטרנט ובין אם על ידי פנייה לבני אדם אמיתיים שמבינים בנושא).

    ועל כן אין סיבה ש AI מסוג זה יוכל להחליף בעתיד הקרוב רבנים, פילוסופים, מדענים וכו'.. הם ממש nowhere near ביכולותיו לחשיבה של אנשים כמוך. המאמרים שהוא כותב בתגובה לבקשת המשתמשים לא תמיד אפילו מנוסחים בצורה תקינה מבחינה תחבירית, לא ברור על איזה מקורות מידע הוא מסתמך (אולי הוא סתם מסתמך על ויקיפדיה, בלוגים ללא רפרנסים וכו'),

    לפעמים אני מרגיש כאילו אפילו AI של משחקי וידאו הרבה יותר קרוב ל AGI ולעמוד במבחן טיורינג מאשר ChatGPT, כי למרות שהם בפירוש לא AGI, לעולם לא מבוססים על NLP ולא יכולים לעשות כלום חוץ מסתם לשחק משחקי ילדים, הם עושים עבודה מצוינת בלהתחקות אחרי שחקנים אמיתיים, להשתמש ב machine learning ו neural networks כדי "להשתפר במשחק" וכו'.. והוא יכול לשחק ברמה גבוהה מאוד כך שהיכולות שלו הרבה יותר קרובות לאלו של בן אדם-שחקן אמיתי מאשר המידע הממש לא נכון ש chatGPT תמיד מספק..

    מעניין אותי גם מה בלשנים חושבים על chatGPT? מיכאל אם אתה יודע משהו לגבי זה (ו/או אם התייחסת לזה במאמר ולא שמתי לב) אשמח לדעת.

    1. חשוב להדגיש ש chatGPT אגב הוא רק תוכנה ולא שום דבר מעבר לכך, ברמה החומרית.
      הוא רץ על קוד בלבד (של מערכת של תוכנות שהאינטגרציה וה "תקשורת" מתרחשת דרך, ניחשתם נכון, קוד ותקשורת אינטרנטית).
      ככה שאם הדברים האלה, בשילוב עם קצת UI שמספק UX (חווית משתמש) של שיחה עם בן אדם אמיתי, יכול לגרום למשתמשים לחשוב על התוכנה כאילו היא מסוגלת לחשוב/לדבר/להבין/בעלת אינטליגנציה, כפי שהתייחסת לכך במאמר שלך..
      מדובר בסך הכל לדעתי בדרכים של המשתמש שעוזרות לו להשתמש בתוכנה ולהבין איך להשתמש בה, איך היא עובדת ומה מתרחש בה בכל רגע.
      בין היתר, היכולת של התוכנה לשדר בעלות של תכונות של נפש האדם היא בזכות יישום תיאוריות ממדעי המחשב מתחום ה neural networks, שבעזרתו מפתחים AI על סמך עקרונות אופן הפעולה של המוח האנושי, ממש ברמת הקשרים בין הנוירונים השונים בתוך המוח והאינטגרציה וה "תקשורת" ביניהם (לזה הכוונה במילה networks).
      בל נשכח ש AI פירושו artifical intelligence, המילה אינטליגנציה נכללת בהגדרת המושג.

      ככה שאולי כדאי גם שהצוות מ openAI שפיתח את זה (ובמיוחד המתכנתים שביניהם), יעזור לספק מידע על הקוד של התוכנה שיעזור להבין האם הוא באמת ישתמש בקונספטים של neural networks וקונספטים של הבנה/חשיבה/דיבור/אינטלגנציה.

      מה דעתך על זה מיכאל? משהו פה חידש לך? איפה אני טועה או צודק?

      1. זה שרשתות נוירונים מלאכותיות הן שהביאו כנראה לפריצת דרך היא אולי לא מקרית. בדומה למוח גם הן מבוססות על הולכת פוטנציאל חשמלי, על סיגנלינג בין יחידות מודולריות (תאים) ופלסטיות. כמובן שתאים ביולוגיים מורכבים אלפי מונים. ההבדל העקרוני מנאצים במשחק המחשב הקלאסי טירת וולפשטיין, הוא שלישויות האלה יש להן יכולות למידה. אפשר לראות דוגמאות למערכות רובוטיות שלומדות ללכת בדומה לתינוק ביוטיוב, או את אותם כלבים רובוטיים מעוררי חלחלה של הצבא האמריקאי. אפילו ברמת האינסטינקטים שלי כאדם, התחושה היא שמדובר ביצור ביולוגי. בניגוד לרוב היונקים למעט אדם, פונקציות הליכה דורשות אצל חלק מהרובוטים האלה אימון ולמידה. יצור ביולוגי הוא לא רק מוח אלא גם גוף, ויכול להיות שהפידבק בין הגוף למוח פלוס רביה מינית הוא חלק מההגדרה של חיים. הייתי אומר שגם אם יום אחד בעוד 50 שנה יהיה מדובר ביצור דומה לאדם, לצורך העניין, הייתי מעדיף להרוג אותו כמו בבלייד ראנר.

    2. לא יודע מה בלשנים חושבים על זה.
      דומני שהוא די קרוב לעמידה במבחני טיורינג. נכון שהגמלוניות של הניסוחים והגנריות שלהם רומז על זהותו המכנית, אבל יש גם לא מעט אנשים שמגיבים כך.

  5. ידוע שבעולם השח, תוכנות AI משחקות מהלכים שבני אדם לא מבינים למה הם טובים, אבל תמיד מסתבר אחרי המון מהלכים שהם יותר טובים ממה שבני אדם היו מעדיפים לשחק. אם בעתיד יהיה מצב דומה בעולם התורה וההלכה, שמחשבים ידעו לייצר פסקי הלכה שבני אדם לא יבינו למה הם נכונים, אבל יסכימו שהAI כנראה קרוב יותר לאמת גם אם אנחנו לא מבינים. האם במצב כזה נפסוק לפי מה שהAI יורה לנו? או שבהתאם לערך האוטונומיה, נעדיף לפסוק לפי מחשבות בני אדם, תוך ידיעה שאנחנו כנראה רחוקים יותר מהאמת. אני שואל לא רק לגבי מי שהוא בר הכי ופוסק לעצמו (ששם ברור שערך האוטונומיה גובר). אני שואל גם לגבי מי שאינו בר הכי וצריך לבחור לעצמו רב, האם נכון יותר לבחור רב אנושי כדי לממש את ערך האוטונומיה דרכו אולי? או שעדיף לבחור רב AI כדי להתקרב יותר לאמת?

    1. הן פשוט יודעות לחשב יותר מהלכים קדימה. כמו שהן עושות מהר יותר תרגיל כפל. היתרון הזה כנראה רלוונטי גם לפסיקה, אם כי שם בד"כ הבעיה אינה כוח חישוב ומורכבות אלא סתם טעויות. זאת בהנחה שאין לתוכנות הללו חיסרון לעומת אדם בחשיבה יצירתית וכו'. יידון בטור הבא.

      1. זה לא בדיוק חישוב של יותר מהלכים קדימה. בעיקרון תוכנות AI של שח לא סורקות את כל האפשרויות של המהלכים בשח כי מספר האפשרויות כל כך גדול שטכנית הן לא מסוגלות לסרוק אותן. מה שהן עושות הוא שהן מזהות דפוסים של מהלכים מתוך דוגמאות שניתנו להן בעבר ויודעות איזה מהלך יניב את התוצאה הטובה ביותר סטטיסטית מבלי להסתמך על חישוב מכני קדימה.

        1. אתה מדבר על השאלה כיצד מביאים את התוכנה ליכולת הזאת (האם על ידי סריקת אפשרויות, כמו בתוכנה קלסית, או על ידי אימון – כמו בינה מלאכותית). אבל אני דיברתי על התוצר של התהליך, והוא מאופיין ביכולת לחזות יותר צעדים קדימה מאשר אדם. מה שטענתי הוא שבפסיקה הלכה לא זו היכולת החשובה ולא זה בסיס החולשה של בני אדם.

          1. אוקיי אבל נניח היפותטית שהיה מחשב שיודע לפסוק יותר טוב מכל אדם, האם היינו הולכים לפי פסיקותיו גם במקום שאיננו מסכימים עם פסיקתו אבל מכירים בעליונותו?

  6. אתה מניח שתשתית הפסיקה ההלכתית דומה למהלכים בשח?(לא מתחיל כפרה)

    1. מניין באה השאלה המוזרה הזאת? תלוי איזו תוכנה? מי אימן אותה? מה פירוש שהיא "תשאף"? ולמה כל זה מעניין?

      1. תשאף, על פי האינפורמציה שקיימת בה, מבלי שתוכנתה באופן ממוקד לשאלה. מבחינתי, זהו המדד לקיומה של תודעה; אם התשובה שלילית, הרי שקל להבחין בין התוכנה לבן-אדם; תשובה חיובית, הרי שהצלחנו לברוא אדם בגוף של מכונה, על כל ההשלכות שיש לדבר.

השאר תגובה

קרא גם את הטור הזה
Close
Back to top button