האם בינה מלאכותית תוכל להחליף אותנו? (טור 592)

בס"ד

בשני הטורים הקודמים עסקתי בבינה מלאכותית ובמשמעויותיה הפילוסופיות וההלכתיות. כל הדיון התנהל תחת ההנחה שהבינה המלאכותית תגיע בשלב כלשהו למצב שבו היא תוכל לבצע כל מה שבני אדם יכולים, ואף למעלה מכך. טענתי שבמצב כזה היא תוכל לפסוק הלכה, לקבל החלטות מוסריות (כמו ברכב אוטונומי) ועוד. מאידך, טענתי שגם במצב כזה אין לה מעמד מוסרי של אדם, וגם אין לה הבנה ולא יצירתיות. היא עוסקת בחיקוי של הסינטקס (הצורה) של החשיבה והשפה שלנו, אבל לא בסמנטיקה שלהן, כלומר בהבנה ובמשמעות. הגם שיש הקבלה בין שני אלו (כפי שטען ויטגנשטיין, וכפי שאומר משפט הנאותות בלוגיקה), טעות היא לזהות ביניהם.

עד כאן הקפדתי להותיר פתוחה את השאלה העובדתית האם אכן AI יכול או יוכל בעתיד לעשות כל מה שאדם עושה. הערתי על הניסוחים הגנריים והשבלוניים מאד של תשובותיה של תוכנת הבינה המלאכותית לשאלות שהיא נשאלת, אבל זה יכול להיפתר עם הזמן. בנוסף, הערתי גם על כמה דוגמאות שיש לי ספק לגבי יכולתה לטפל בהן, כמו הכללות מדעיות (מציאת תורת היחסות או תורת הקוונטים) ועוד. בעקבות שאלותיו של טירגיץ בטוקבקים לטורים הקודמים (ראו כאן וכאן), חשבתי שמן הראוי להקדיש מקום כלשהו גם לשאלות הללו.

בטור הזה אנסה לחזור ולבחון מעט את הנחת היסוד שכל כך מקובלת כיום בין חוקרי בינה מלאכותית: האם באמת זה רק עניין של זמן עד שתוכנות בינה מלאכותית יוכלו להחליף אותנו בכל? האם אין לנו כבני אדם שום יכולת (להבדיל מהבנה ומשמעות, שאצלנו יש ובמכונה אין) מעבר לתוכנות משוכללות? ברצוני לעסוק כאן בשאלה הסינטקטית עצמה: האם הדמיון בין אדם למכונה ברמת הסינטקס אכן נכון? אם זהו המצב, אזי מכונות משוכללות לגמרי (באם תהיינה כאלה אי פעם) יוכלו להחליף אותנו בכל תחום שבו אנחנו עוסקים ואף לעשות זאת טוב יותר. כאן נכנס לתמונה מבחן טיורינג משוכלל ומורכב יותר מזה המקורי, שהבינה המלאכותית העכשווית רחוקה ממנו מאד. אם נעמיד בינה מלאכותית במצב הידע שבסוף המאה התשע-עשרה (ניסוי שעקרונית ניתן לעשות כיום), האם היא תגיע לתורת היחסות ותורת הקוונטים? אולי היא אפילו תצליח לחבר ביניהן, מה שהפיזיקאים כיום עוד לא יודעים לעשות (זה ידוע כבעיה של גרביטציה קוונטית).

לפני שאכנס לדון בשאלה הזאת, נסלק מהשולחן טיפול בשאלות ערכיות.

חולשת הרצון והכרעות ערכיות

מעניין לבחון האם למכונה חושבת יכול להיות מצב של חולשת רצון (ראו בטורים 172173)? כלומר האם היא יכולה לחשוב משהו אחד ולפעול באופן אחר? נראה שלא. החוויה של החולשה והדיסוננס בין מה שאני חושב לבין מה שאעשה בפועל לא קיים במכונה, שכן אצלה מה שהיא 'חושבת' זה בדיוק מה שהיא עושה בפועל. איני רואה כיצד ניתן לתכנת אותה לחשוב משהו אחד ולעשות משהו אחר, שהרי היא בכלל אינה חושבת. במכונה יש רק את הממד המעשי ולא המחשבתי. מה שהיא 'חושבת' בא לידי ביטוי במה שהיא עושה. אין אצלה בכלל שני מישורים כאלה, שכן אין לה פנים מנטלי כמו שיש לנו.

אבל עד כאן זה רק יתרון. החטאים שלנו נובעים בדרך כלל מרצון חלש, כלומר  מפער בין מה שאנחנו חושבים לבין מה שאנחנו עושים. היצרים מטים אותנו, אנחנו בונים לעצמנו תמונות דמיוניות (ע"ע סיפור ההינדיק, בטור 354 ועוד) שיצדיקו את צעדינו, זאת למרות שבתוכנו פנימה אנחנו מבינים מה נכון. למכונות אין בעיות כאלה. אם הן חושבות משהו זה מה שהן תעשינה. לכן השאלה אינה האם הן תפעלנה נכון אלא האם הן תחשובנה נכון. אם הן 'תחשובנה' נכון, כלומר אם הן תגענה למסקנות המוסריות הנכונות, אז זה מה שהן תעשינה.

אם מסתכלים על החשיבה המוסרית כסוג של חישוב אזי אין סיבה לשלול את האפשרות שמכונה תדע לעשות את החישוב הזה. אמנם במקרים מסוימים אין תשובה נכונה אחת (יש חילוקי דעות בין בני אדם), ושם לא ברור מה תוגדר תשובה נכונה במבחן טיורינג המשוכלל שנבצע. אבל אפשר לפחות לבדוק אותה על השאלות שלגביהן יש הסכמה (אלו רוב השאלות). במקרים שלגביהם יש חילוקי דעות, אפשר אולי לקבל כל אחת מהעמדות המוסריות הללו כקבילה כנכונה. לכן, אם אכן מדובר בסוג של חישוב, אזי עקרונית ניתן להביא מכונה לחשוב כמו בן אדם ולהגיע למסקנות ולהכרעות המוסריות שיגיע אדם. השאלה האם זה באמת נכון? האם אכן מדובר בחישוב? כלומר האם יש אלגוריתם שמבוסס על כמה עקרונות קשיחים שמניב את התשובה המוסרית הנכונה?

חשבו על גיבוש עמדה לגבי שאלת הסוציאליזם מול קפיטליזם. לפעמים הוויכוח מתנהל כאילו הייתה כאן מחלוקת עובדתית, איזו שיטה תביא לתוצאות כלכליות טובות יותר. אבל ביסודו זהו ויכוח ערכי, ולא עובדתי: האם אנחנו מעדיפים את ערך החופש או את ערך השוויון. כמובן שיש המעדיפים את זה ויש שמעדיפים את זה, ולכן זוהי סוגיה שבמחלוקת. אבל איך כל אחד משני הצדדים הללו מגבש את עמדתו? האם הוא פשוט עושה חישוב? אם זה היה המצב, אזי המחלוקות הללו באמת אינן משמעותיות. החישובים יוצאים שונים רק בגלל שלכל אחד מהאנשים יש מבנה נפשי שונה. אם כן, זו אינה הכרעה מוסרית אלא סתם תוצר של מבנה נפשי. לעומת זאת, אם רואים ויכוח כזה כוויכוח ערכי אמתי, כי אז מניחים במובלע שאדם מגיע לעמדתו על ידי שיקול דעת. זה לא חישוב אלא הכרעה ערכית, והמחלוקת נוצרת בגלל שאנשים הכריעו הכרעות ערכיות שונות. אם זו התמונה הנכונה, זוהי החלטה חופשית של בחירת ערך וקשה לראות כיצד מכונה תוכל לחקות תהליך כזה. אפילו אם נזין אותה בכל הנתונים על אדם מסוים ובכל הנתונים הכלכליים והחברתיים, היא לא בהכרח תגיע לתוצאה שהוא יגיע, מפני שיש כאן הכרעה ולא רק חישוב דטרמיניסטי מתוך נתונים (ראו על כך בטורים 35 ו-175). אמנם כל זה רק אומר שהמכונה לא תוכל לחקות אדם באופן מושלם, אבל עדיין החלטותיה יכולות להיות נכונות כך או כך, שכן בין אם היא תגיע למסקנות סוציאליסטיות או קפיטליסטיות, היא עדיין בתחום הלגיטימי כמו בני אדם. אמנם לגבי מכונה יתכן שהיא בכלל תגיע למסקנות מסוג שלישי, אחר לגמרי, שיהיה בעליל לא מוסרי. לכן בכל מקרה ישנה כאן נקודה חשובה שמבחינה בין אדם למכונה.

אפשר כמובן להזין למכונה את ערכיו של אדם מסוים (בהנחה שניתן להמשיג ולנסח את כולם במפורש), ואז היא לפחות תחקה אותו (היא תהיה סוציאליסטית או קפיטליסטית, בהתאם לאדם שהיא מחקה)[1]. כלומר היא לא תגיע למסקנה שנמצאת לגמרי מחוץ למסגרת המוסרית. אבל כאן נכנסת שאלה נוספת. חשבו על מצב חדש שטרם עמדנו בפניו, ועלינו לקבל החלטה מוסרית לגביו. מכונה שאומנה לחשוב מוסרית על בסיס מקרים מוכרים שהתשובות המוסריות הנכונות הוזנו לתוכה, אולי לא תדע לענות על מקרה חדש שלא ניתן לגזור את התשובה אליו מהמקרים הקודמים. ומה עם אדם במקרה כזה? זה תלוי בתפיסתכם את האדם ואת החשיבה המוסרית שלו. אם יש באדם מערכת מוטבעת של עקרונות מוסריים (כוונתי לאינטואיציה מוסרית, לאו דווקא לעקרונות קשיחים שהגזירה מהם נעשית בדדוקציה לוגית), אזי הוא יכול לעשות בהם שימוש ולגזור מהם מסקנה גם לגבי המקרה החדש. זה כמובן בהנחה שהעקרונות המוטבעים הללו אינם תוצר של ניסיון מצטבר ואימון המערכת הנוירונית שלנו, אלא משהו שטבוע בנו בדרך כלשהי, או הכרעה שלנו (בכל אופן, לא שרירותי. אחרת אין לו חשיבות, והוא לא 'נכון' בשום מובן). אם המערכת הזאת הייתה תוצר של ניסיון מצטבר, אזי גם אדם היה טועה במקרה חדש שאינו ניתן להילמד מהמקרים שפגשנו בעבר. יש לזכור שאת המכונה אנחנו מאמנים על בסיס מקרים קודמים (כך פועלת בינה מלאכותית), שהרי אי אפשר להזין לתוכה את העקרונות המוסריים כשלעצמם (כך עושים בתוכנה קלסית), שכן אין לנו ניסוח מפורש ושלם שלהם. במקרה כזה, ייתכן שהבינה המלאכותית לא תקבל החלטות מוסריות נכונות בחלק מהמקרים (המקרים החדשים). כעת, אם אנחנו מניחים שבני אדם כן יקבלו החלטות נכונות במקרים אלו (בגלל המערכת המוסרית המוטמעת בהם, כנ"ל), אזי המסקנה היא שהמכונה לא יכולה להחליף אותנו בכל מצבי ההכרעה המוסריים.

אציין שביחס למכוניות אוטונומיות הבעיה לא ממש קיימת, מפני ששם רוב הבעיות הן חישוביות לגמרי. המטרה שם היא לקבל החלטות בכל שלב שיצילו כמה שיותר חיים, ולכן השאלה היא רק טכנית: מהי הדרך הטובה ביותר לעשות זאת. את זה מכונה משוכללת אמורה לעשות טוב מאתנו. יתר על כן, כפי שהסברתי בטור 590, ברור שבמבט כללי בינה מלאכותית תפעל טוב יותר מבני אדם. גם אם תמצאו מקרים בודדים שהם חדשים במובן שתיארתי כאן, ולגביהם המכונה תקבל החלטה ערכית שגויה (למשל דילמת הטרולי אינה חישובית אלא ערכית: האם עדיף להרוג אדם אחד או להניח לחמישה בני אדם למות באופן פסיבי),[2] עדיין אם השיקול הוא התועלת והרווח הכלליים אז השימוש במכונות עדיף. אבל אם אני רוצה לדון במעמדה ויכולותיה של מכונה לקבל החלטות נכונות (כלומר לא פחות נכונות מאלו של אדם) בכל מקרה נתון, זוהי שאלה אחרת, והתשובה אליה לא לגמרי ברורה.

בשולי דבריי אוסיף שלמכונות גם אין אחריות מוסרית, ואצל בני אדם זהו היבט חשוב מאד בהחלטות המוסריות שהם מקבלים. אבל גם זו אינה בעיה אמתית שהרי המכונה מחקה החלטות של בני אדם במצב כזה, וההחלטות הללו מתקבלות מתוך האחריות שהם חשים. במובן הזה המכונה מחקה גם את האחריות, שכן היא נלקחת בחשבון בהחלטות עצמן. כמובן שאם המכונה טעתה לא נעניש אותה, אבל זה לא הדיון שלנו כאן. ייתכן שנעניש את המתכנת את המשתמש, אבל גם זה נראה לא סביר, שכן הוא לא התכוון לבעיה שקרתה. זו תוצאה של טעות או של תוכנה לא מושלמת. אין כאן כוונה פלילית, וכנראה גם לא אחריות (אלא אם הייתה כאן רשלנות של המתכנת או הרגולטור).

עד כאן באשר ליכולתן של מכונות לקבל החלטות מוסריות נכונות. כאמור, התשובה לזה אינה ברורה, לפחות לגבי מקרים חדשים. די ברור שבמקרים חדשים המכונה לא תגיע לתשובה 'נכונה' (מעצם הגדרתם כחדשים אי אפשר לגזור את התשובה לגביהם מהמקרים הקודמים), אבל ייתכן שגם אדם בנוי באופן חישובי (זו בעצם ההנחה המקובלת אצל חוקרי בינה מלאכותית), ואז גם הוא לא יגיע לתשובות הנכונות. אם זהו המצב, אי אפשר להסיק מאומה לגבי נחיתות של מכונות לעומת בני אדם. ובכלל קשה יהיה לערוך מבחן טיורינג להכרעות ערכיות של מכונה, שכן הנכון והלא נכון כאן אינם חד משמעיים. כעת נעבור לבחון את שיקול הדעת שלהן ביחס לעובדות, שם המצב אמור להיות פשוט יותר. לכאורה לא אמורות להיות שם מחלוקות בין אנשים, ויש דרך פשוטה יותר להעמיד את המכונה במבחן טיורינג המשוכלל לגבי זה. אך כפי שנראה, גם שם המצב אינו פשוט כלל ועיקר.

על אמפיריציזם ומכונות חושבות

לכאורה כאשר אנחנו בוחנים עובדות ומנסים להבין אותן או להסביר אותן ולגזור מהן מסקנות, זהו תהליך חישובי גרידא. גם אם הוא מורכב, בסוף בסוף אנחנו יוצאים מהעובדות שבפנינו ומגיעים למסקנות שמתבקשות או נגזרות מהן. אם כך, את ההליך הזה מכונה חושבת משוכללת לכאורה תוכל לעשות. אלא שזה אינו פשוט כלל ועיקר. ראשית, הסברתי כמה פעמים שהמעבר מהעובדות להסבר (התיאוריה) אינה חד ערכי וגם לא נראה אלגוריתמי. את אותו סט של עובדות ניתן להסביר בכמה צורות, והבחירה ביניהן היא תהליך שנראה בעל מרכיב יצירתי. השאלה האם מכונה תוכל לחקות את ההליך הזה, תלויה בשאלה עד כמה הוא חישובי.

זוהי בדיוק טעותו של האמפיריציזם הנאיבי (ראו עליו בטור 586) שסבור שהמדע פועל על ידי איסוף עובדות, ניתוחן וגזירת המסקנות המתבקשות. אמפיריציסט כזה סבור שחוקי הטבע ומסקנות המדע הן תולדה של תצפית טהורה ותו לא. אין כאן מרכיב מחשבתי סינתטי, (ולכן לפעמים הוא גם סבור שזה בוודאות נכון). אבל זו טעות, שכן אין הסקת מסקנות מדעית שהיא דדוקציה בלבד. הדרך מהעובדות אל התיאוריה היא מפותלת ומאד לא ניתנת להמשגה וניסוח. הדברים מגיעים עד כדי כך, שבפילוסופיה של המדע מבחינים בין 'הקשר הגילוי' לבין 'הקשר הצידוק'. הטענה היא שאין לנו שום דרך לעקוב ולבקר את ההגעה לתיאוריה המנוסחת. כל מה שבידינו הוא לערוך ניסויים כדי לבחון האם ניבוייה עומדים במבחן האמפירי. ניסוח והמשגה של תיאוריה מדעית הוא הליך מורכב, וספק רק עד כמה הוא חישובי. לכן לא ברור שמכונה חושבת, משוכללת ככל שתהיה, תוכל לעשות זאת בכל המקרים.

רק כעת, תוך כדי כתיבת הדברים, קראתי ראיון על סם אלטמן, מנכ"ל חברת OpenAI שפיתחה את ChatGPT (נא להתעלם מהסופרלטיבים המופרכים לגבי חשיבותו ומעמדו היקומי. זה בעיקר לצרכים עיתונאיים). בתוך הדברים שם מוקדשת פסקה לשאלה האם תוכנת בינה מלאכותית תצליח לעשות קפיצות דרך מדעיות:

המטרה החשובה ביותר לאלטמן – "היעד הגדול" שיבשר על הגעת בינה כללית מלאכותית – היא פריצת דרך מדעית.  GPT-4 כבר יכול לסנתז רעיונות מדעיים, אבל אלטמן רוצה בינה מלאכותית שתעמוד על כתפי ענקים ותראה לעומקו של הטבע. כלי AI יצרו ידע מדעי חדש אבל הם אלגוריתמים עם מטרות צרות, לא מכונות היגיון כללי. ה־AI AlphaFold, למשל, פתח צוהר חדש לחלבונים על ידי חיזוי רבות מצורותיהם – הישג ניכר בהתחשב בחשיבותן לרפואה. אלטמן מהמר שמכונות עתידיות להיגיון כללי יוכלו ליצור תובנות מדעיות חדשות.

אלטמן מדמיין מערכת שתייצר השערות משלה ותבדוק אותן בסימולציה. הוא הדגיש שעל בני אדם להישאר "בשליטה מלאה" בניסויי מעבדה בעולם האמיתי, אם כי למיטב ידיעתי, אין חוקים שיבטיחו זאת. הוא מייחל ליום שיתאפשר לבינה מלאכותית, "לכי תביני את שאר הפיזיקה". כדי שזה יקרה, הוא אומר, נצטרך משהו חדש, שנבנה על דגמי השפה הקיימים של OpenAI. נראה שאף אחד ב־OpenAI  לא יודע מה צריכים להוסיף ל־GPT-4 כדי לייצר משהו שיכול להתעלות על החשיבה האנושית ברמותיה הגבוהות…

אבל לייצר השערות אינו כושר מספיק לחקות התקדמות מדעית אנושית, שכן יש אינספור השערות שניתן לבדוק. היכולת העיקרית שלנו היא לברור את ההשערות הרלוונטיות, או לקלוע אליהן באינטואיציה ראשונית (להלן אדבר על 'הקשר הגילוי'), ואז לבדוק את מה שמצאנו (להלן 'הקשר הצידוק'). מעבר לזה, ישנה בעיה גם בהקשר הצידוק שהוא מתאר. מה פירוש לבדוק את ההשערה בסימולציה? אם אתה מכיר את החוקים היסודיים ורוצה לדעת מה הם יעשו בסיטואציה מורכבת, או ליצור הכללה כלשהי שלהם (למשל ליצור את חוקי הביולוגיה מתוך חוקי הכימיה והפיזיקה, בהנחה שהרדוקציוניזם נכון), הסימולציה היא הכלי הנכון לטפל בעניין. אתה פשוט בונה מערכת ממוחשבת שמתנהלת לפי החוקים היסודיים ורואה מה התמונה הגדולה שמתקבלת במצב המורכב שמעניין אותך. אבל גילוי החוקים היסודיים עצמם לא יכול להיעשות על ידי סימולציה כי היא עצמה צריכה להתנהל על פי אותם חוקים. מה בדיוק הוא רוצה להכתיב לסימולציה לעשות כדי לבדוק את התוצאה? חוקי טבע יסודיים לא מגלים בסימולציות אלא בתצפיות על הטבע עצמו (הוא בהגדרה מתנהל לפי החוקים האמתיים).

אתם יכולים לראות כבר כאן רמז ליכולת אנושית מיוחדת שאולי אינה 'חישובית', ולכן מהווה אתגר ממשי לתוכנות AI: לפרוץ בעיה של מעגליות. בפסקאות הבאות אנסה להבהיר מעט את הקושי שבפניו עומדת הבינה המלאכותית בבואה להחליף אותנו, כלומר להבהיר מעט את ייחודה של החשיבה האנושית כפי שהוא בא לידי ביטוי בתחום הזה.

ליבתו של ההליך המדעי

כאשר מדען ניגש לסוגיה מדעית מורכבת שמצריכה תיאוריה מדעית חדשה, הוא מצוי במצב של 'משבר פרדיגמטי', במונחיו של תומס קון. במצב כזה התיאוריה הקיימת נתקלת בכמה וכמה קשיים שאין לה פתרון עבורם, ואז ברור לכל שנדרשת תיאוריה חדשה שתחליף את הפרדיגמה הקיימת (כמו במקרה של תורות היחסות או הקוונטים לעומת המכניקה הקלסית). במצב כזה בדרך כלל הקהילייה המדעית פותרת את הבעיה באופן קולקטיבי. גם אם יש גאון מיוחד שתורם תרומה מכרעת, כמעט תמיד הוא נסמך על כתפי ענקים שקדמו לו (בדרך כלל גם לא מתעלמים מהתיאוריות הקודמות אלא מתקנים ומשכללים אותן – ארטיקולציה). אבל נתעלם מזה לצורך הדיון, ונחשוב מהם הצעדים הדרושים במהלך כזה. אני אסתמך כאן על דברים שכתבתי ואמרתי במקומות אחרים בעבר (בעיקר בסדרת שיעוריי על לימוד מהניסיון).

בתפיסה הנאיבית של פרנסיס בייקון המדע עוסק בשלב ראשון באיסוף עובדות. לאחר מכן הוא  מנתח אותן ומנסה ליצור מהן הכללה (באמצעות אינדוקציה), שתכניס את כולן למסגרת רחבה אחת. בשלב הסופי מנסים ליצור מהתיאור הכולל תיאוריה חדשה (זהו הליך של אבדוקציה. ראו בטורים 399, 537 ועוד), שתסביר אותן וגם עובדות נוספות. אלו שלושה שלבים שמהווים חוליה אחת בבניית תיאוריה  מדעית. אחרי שמסיימים אותם, חוזרים שוב לאסוף עוד עובדות, לתקן את ההכללות ואת התיאוריה וחוזר חלילה. מתברר שכל אחד משלושת השלבים בתהליך הזה דורש יצירתיות, וספק רב עד כמה הוא 'חישובי'. נראה זאת כעת שלב אחרי שלב.

א. המעגל השוטה של איסוף העובדות

בשלב ראשון, כאמור, יש לאסוף את העובדות הרלוונטיות. אבל זה עצמו אינו צעד טריוויאלי, שכן בהיעדר תיאוריה, אי אפשר לדעת אלו עובדות הן רלוונטיות. יש לכך כמה דוגמאות  מובהקות שמובאות בספרות הפילוסופית, והרווחת ביותר היא זו של איגנץ זמלווייס וקדחת היולדות שמובאת בספרו של פילוסוף המדע קרל המפל.

זמלווייס היה ראש מחלקת יולדות אחת מתוך שתיים בבית חולים גדול בווינה. במחלקה שלו הייתה תמותה של יולדות בשיעור גבוה הרבה יותר מזו שבמחלקה השנייה. הם חיפשו את הסיבה לכך, אבל לא היה להם שום כיוון. הם ניסו לאסוף את העובדות הרלוונטיות, אבל כל עוד לא הבינו מה גורם לתמותת היולדות הם לא יכלו לדעת מהן העובדות הרלוונטיות. כנקודת מוצא, יכולות להיות אינספור עובדות שמבחינות בין המחלקות: גובה התקרה, הגיל הממוצע של הרופאים, החציון של גיל האחיות, שם המשפחה של האחות הראשית, צבע הקירות, שטח המחלקה, כמה זמן היא קיימת, מה גודל המשרד של הכלכל הראשי, אורך המבחנות, החברה שיצרה את הנברשות בתקרה ועוד ועוד. כל עוד אינך יודע מה גורם לתמותה אינך יכול לחפש עובדות. אם הם היו יודעים שמה שגרם לתמותה הוא אורגניזמים שונים שגרמו זיהומים אזי יכולים היו לחפש מדוע יש הבדלים בהיגיינה בין המחלקות. זה אכן מה שהם גילו בסוף, אבל גם זה קרה בדרך נס. אם אין לך כיוון ראשוני לתיאוריה שתסביר את העובדות שלך אין לך דרך לבודד את העובדות הרלוונטיות.

חשבו על ניוטון בבואו לנסח את חוק הגרביטציה. למה שיתייחס לגאות ושפל, נפילת עצמים לכדור הארץ ומסלולי הכוכבים כאוסף של עובדות ששייכות לאותו תחום ונשלטות על ידי אותם חוקים? למה לא צבע הציפור שחלפה כאן בבוקר, או תדר קולה? רק אחרי שאתה יודע שיש כוח משיכה, אתה יכול להבין שאולי כל העובדות הללו יכולות להיות רלוונטיות. אז איך החליט ניוטון להתמקד באוסף העובדות הללו דווקא? נראה שהייתה לו אינטואיציה ראשונית, עוד לפני שידע את התיאוריה שימצא, שכיוונה אותו מה יכולות להיות העובדות הרלוונטיות ומה בטוח לא כלול בהן. בלי זה הוא היה משוטט עד אין קץ בין אינספור העובדות ולא היה מצליח לבודד את הרלוונטיות שבהן.

אגב, בסדרת שיעוריי הנ"ל הסברתי שעצם החלוקה של המדע לדיסציפלינות ותחומי מחקר שונים (פיזיקה, כימיה, ביולוגיה, פסיכולוגיה וכמובן כל הענפים של כל אחד מכל אלו) בעצמו אינו ניתן להבנה פשוטה מאותו טעם עצמו. יש כאן הנחה שאוסף עובדות מסוים שייך לחוקי הפיזיקה ואוסף אחר לחוקי הכימיה וכן הלאה. אבל למה קיבצנו את מכלול העובדות דווקא תחת הקטגוריות הללו ולא בחרנו חלוקה אחרת? זה עצמו הליך יצירתי-אינטואיטיבי.

אם אסכם, איסוף העובדות דורש היכרות כלשהי עם התיאוריה. אבל התיאוריה נבנית על בסיס העובדות. זהו מעגל שקשה מאד לראות דרך 'חישובית' לצאת ממנו. זה דורש אינטואיציה ראשונית שתהיה בנו עוד בטרם ניסחנו את התיאוריה ואספנו את העובדות. לאחר מכן אנחנו אוספים עובדות שנראות לנו אינטואיטיבית רלוונטיות, בונים תיאוריה (אינדוקציה ואבדוקציה), ואז חוזרים לתיאוריה ומתקנים אותה וכן הלאה. לפעמים זה עובד ולפעמים לא, אבל אין דרך אחרת.

היכולת הזאת שכיניתי כאן 'אינטואיציה' נראית על פניה כמו יכולת לא חישובית. זוהי השראה שיש בה ממד מהותי של יצירתיות. יהיו כאלה שיטענו שזוהי אשליה, ובעצם מדובר בחישוב, גם אם הוא סמוי. בעצם האינטואיציה שלנו מבצעת חישוב גיגנטי בדרך מהירה מאד, אבל עקרונית ניתן לחקות זאת על ידי תוכנה ואלגוריתמים. קשה מאד להאמין בזה. יש כל כך הרבה אפשרויות, ואנחנו עצמנו בבירור לא עוברים על כולן. רק חשבו על מספר העובדות הכולל במקרה של זמלווייס. יש מיליוני או מיליארדי עובדות כאלה. קבוצת העובדות הרלוונטיות היא אוסף כל תת הקבוצות של העובדות הללו, שזה 2 בחזקת מספר העובדות. מדובר במספרים דמיוניים של אפשרויות, כשבכל אפשרות יש לנסות ולבנות הכללה ותיאוריה ואז לחזור לעובדות וחוזר חלילה. לא נראה מעשי. אנחנו בוודאי לא עושים זאת כך, אבל גם חיקוי מכני שמגיע באופן שיטתי לאותן תוצאות נראה קצת לא הגיוני.

ב. היצירתיות בברירת האינדוקציה הנכונה

נניח כעת, רק לצורך הדיון, שהצלחנו לבודד ולאסוף את העובדות הרלוונטיות, ויש לנו את הנתונים לגביהן. כעת אנחנו מחפשים את ההכללה הנכונה עבורן. בטור 426 עמדתי על הבעייתיות ביצירת הכללה מתוך כל אוסף של עובדות. מתברר שכל אוסף של עובדות מאפשר אינספור תיאוריות ולכן גם כאן יש ממד לא חישובי. אמנם כאן הבעיה מעט קלה יותר, שכן אנחנו משתמשים בעקרון התער של אוקהאם, כלומר בוחרים את ההכללה הפשוטה ביותר. גם זה אמנם לא הליך חד משמעי, שכן ייתכנו כמה הכללות באותה רמת פשטות, ובעצם יש עוד קריטריונים (למשל שלא יהיה אובר פיטינג ואנדר פיטינג. ראו על כך בטורים 243, 426 ועוד), ולכן גם זה לא הליך 'חישובי' לגמרי, אבל בסך הכל ניתן כך לברור כמה הכללות שתהיינה מועמדות מתוך רבות אחרות. בעצם זהו הבסיס לרוב האלגוריתמים הבסיסיים של חשיבת מכונה, כלומר אפשר ללמד את המכונה לעשות זאת.

אבל כדאי לשים לב שגם כאן יש בסך הכל חיקוי של הליך שאנחנו עושים. כלומר לולא היה לנו המוח שלנו שבנוי כפי שהוא בנוי, ספק עד כמה ניתן היה ליצור מכונות שיעשו זאת. אם אנחנו מחקים הליך יצירתי של אדם, האם פירוש הדבר שיש למכונה עצמה יצירתיות? לא בטוח. ייתכן שאצלנו יש יצירתיות, ואחרי שמצאנו את דרך החשיבה היצירתית ניתן לבנות מכונות שיחקו אותה. כך למשל עלינו על כך שכדאי לחפש את ההכללה הפשוטה ביותר (התער של אוקהאם), וכעת אנחנו מאמנים את המכונה לחפש את הפתרון הפשוט וגם מגדירים לה מהי פשטות (למשל קו ישר הוא הגרף הפשוט ביותר מבין הגרפים, ולכן נוקטים באלגוריתם של ריבועים מינימליים כדי לחפש את הקו הישר המתאים ביותר לנתונים). אבל עדיין, גם אם מכונה יכולה רק לחקות אותנו בזה, נראה שבכל זאת בשורה התחתונה מדובר בהליך 'חישובי'. לכן לפחות במובן הפרקטי נראה שיש כאן תחליף מכני לחשיבה של בני אדם.

ג. בין אינדוקציה לאבדוקציה

ישנה טעות נפוצה שלפיה המעבר מאוסף העובדות באמפיריות לתיאוריה הוא הליך של אינדוקציה. אך זוהי טעות. האינדוקציה יוצרת כלל טכני כללי שהעובדות הן מקרים פרטיים שלו. הדרך לתיאוריה זוקקת עוד הליך, שמכונה אבדוקציה (ראו עליו בטור 537). כך למשל חוק הגרביטציה נותן לנו נוסחה שמתארת את התאוצה של כל גוף תחת השפעתו של גוף אחר. אבל התיאור הזה אינו הסבר. ההסבר לעובדות ניתן באמצעות תיאוריה. אנחנו מציעים תיאוריה שכל שני גופים בעלי מסה מפעילים זה על זה כוח שמתואר בנוסחה הזאת, והכוח יוצר את התאוצה שלהם. כך גם לגבי כל תיאוריה מדעית אחרת. התיאוריה בדרך כלל כוללת גם יישים תיאורטיים שאיננו יכולים לצפות בהם ישירות (שדות כוח, ופונקציית גל בתורת הקוונטים, האלקטרון ושאר חלקיקים אלמנטריים), אבל התיאוריה מצביעה על כך שהם משתתפים ביצירת התופעות שאותן ברצוננו להסביר.

הדרך מהנוסחה שהתקבלה באינדוקציה על התיאוריה היא ממש יצירה צרופה. אין לנו שום דרך לתאר את המעבר מאלו אליה. עד כדי כך שכפי שהזכרתי למעלה בפילוסופיה של המדע מדברים על 'הקשר הגילוי', שהוא עניין כמעט מיסטי שאין לנו דרך לעקוב אחריו ולבקר אותו, מול 'הקשר הצידוק', שהוא בחינה אמפירית במעבדה של התיאוריה המוצעת. האם מכונה תוכל לבצע הליך של אבדוקציה, כלומר להגיע מאוסף של עובדות לתיאוריה? האם מכונה שתעמוד במצב הידע של תחילת המאה העשרים תוכל להציע לנו את תורת הקוונטים או תורת היחסות כפתרון או הסבר אפשרי? קשה לי מאד להאמין, אם כי זה לא בלתי אפשרי. שוב, העניין תלוי בשאלה האם זה הליך 'חישובי', גם אם מאד מסובך, או משהו יצירתי באופן מהותי שלא ניתן למכן אותו.

בעצם השאלה היא האם ראשו של איינשטיין הוא מחשב משוכלל או שיש שם משהו מעבר ליכולת חישוב פנומנלית. די ברור שאיינשטיין עצמו ודאי לא עבר על כל האפשרויות התיאורטיות ובחר אחת מתוכן. האינטואיציה שלנו סייעה לו לברור את ההגיוניות שמתוכן ולהתמקד בהן עד שהגיע לניסוח של התיאוריה ה'נכונה'. אבל אם זה כך, עדיין יש כאן הליך 'חישובי', שניתן לחקותו על ידי מכונה של בינה מלאכותית, גם אם היא תיזקק לעבור על כל האפשרויות. לחלופין, אולי ניתן ללמד אותה לחקות את היצירתיות של איינשטיין ולדלג על הצורך במעבר על כל האפשרויות (זה מה שעושים היום בתוכנות למשחק שחמט, שכבר מנצחות את כל השחקנים האנושיים). עדיין יש משהו ביצירת תיאוריה  מדעית שנראה הרבה יותר יצירתי מאשר טקטיקה גאונית במשחק שחמט. בסופו של דבר בשחמט נראה די ברור שלמכונה בעלת יכולת עצומה יש תמיד אפשרות לעבור על כל האפשרויות ולנצח בלי טיפת חשיבה יצירתית או גאונות. לכן שם גם אם בפועל זה לא נעשה כך, ייתכן שמדובר בקיצור דרך. השאלה האם לכל חשיבה אנושית יש מקבילה אלגוריתמית חישובית או לא.[3]

חשוב להבין שגם אם מחשב יכול לחקות את איינשטיין, אין הכרח להסיק מכאן שהוא יוכל לעשות כל מהלך אנושי אחר. עדיין ייתכן שיש מהלכים אנושיים עוד יותר גאוניים שידרשו ממנו משאבים וזמן גדולים ממה שיש ברשותו ולעולם הוא לא יכול להחליף לגמרי את האדם, לפחות במובן הטכני של זמן ומשאבי חישוב (כלומר ייתכן שיש בעיות שהן 'חישוביות' עקרונית, אלא שדורשות משאבים אדירים, ורק האדם יידע לקצר את הדרך והמחשב לא).

מהי אינטואיציה: בין חשיבה להכרה

בכמה מקומות טענתי שבבסיס היכולות האנושיות הללו עומד כושר שמכונה אצלנו 'אינטואיציה'. במינוח הזה ניתן לנסח את השאלה בה עוסק הטור הזה כך: האם מכונה חושבת תוכל לפתח אינטואיציה? זה כמובן תלוי בשאלה מהי אינטואיציה, וכיצד היא מתפתחת אצלנו?

מקובל לחשוב שהאינטואיציה שלנו אינה אלא פרי ניסיון מצטבר. אחרי שנתקלנו בהרבה עובדות ופתרנו הרבה בעיות, התפתחה אצלנו רשת נוירונים כזאת שמסוגלת לפתור בעיות חדשות. בראייה הזאת, התפתחות האינטואיציה שלנו אינה אלא אימון של רשת נוירונים. אם זהו המצב, כי אז ברור שהצפי שמכונות חושבות יוכלו להחליף אותנו בכל היא סביר ומתבקש. גם אנחנו איננו אלא מכונה חושבת שכזאת.

לפי התפיסה הזאת, אינטואיציה אינה אלא כלי לניתוח נתונים. התצפית מביאה אלינו נתונים, והשכל שלנו מעבד אותם ויוצר מהם הבנה, או תיאוריה. האינטואיציה היא חלק מאותו כושר ניתוח ועיבוד. חשוב להבין שבמובן הזה האינטואיציה שייכת לקטגוריה של חשיבה ולא לקטגוריה של תצפית. אבהיר זאת מעט יותר. הכרה או תצפית אלו כשרים אנושיים שיסודם באינטראקציה שלנו עם העולם. אנחנו צופים בעולם ושואבים ממנו נתונים באמצעות חושינו, וזה מה שמכונה תצפית או הכרה. לעומת זאת, החשיבה היא עיבוד שנעשה כולו בתוכנו פנימה (ללא אינטראקציה עם העולם). האדם מקבל נתונים מהתצפית (ההכרה), ואז החשיבה שלו מעבדת אותם ומסיקה מהם מסקנות. האינטואיציה כפי שמקובל לתאר אותה היא חלק מהחשיבה. היא  מאומנת על ידי התצפיות והסקת מסקנות קודמות, דרך משובים שונים שהיא מקבלת מכל מיני כיוונים, אבל בסופו של דבר נבנה כושר קוגניטיבי שכל כולו שייך לחשיבה.

אני לא מקבל את התזה הזאת. בכמה מקומות טענתי שאינטואיציה היא חשיבה-מכירה, סוג של תצפית שלא נעשית בחושים אלא בשכל. טענתי היא שההבנה של חוק הטבע הכללי מתוך העובדות שצפינו בהן היא הליך שלא יכול להיות מוסבר על ידי חשיבה גרידא, שהרי החשיבה כשלעצמה יכולה לקחת אותנו לאינספור כיוונים ואין שום סבירות שנגיע לכיוון הנכון. המוצא המתבקש הוא שהאינטואיציה היא סוג של התבוננות או תצפית על העולם. אנחנו כביכול 'רואים' את התיאוריה הנכונה דרך העובדות שבהן צפינו בחושים. בטורים 494496 ובטור 502 שממשיך אותם, עמדתי על כך שזו הפתרון הסביר היחיד לבעיית הסינתטי-אפריורי של קאנט, ובטורים 155160 הראיתי שזוהי הנחה הכרחית לכך שתחום הפילוסופיה בכלל קיים במובחן ממדע.[4]

חשוב להבין שה'ראייה' השכלית הזאת יש בה ממד יצירתי. היא אינה תצפית פסיבית (עוד חוש), שכן יש בה גם ממד כעין חשיבתי, אבל יש בה גם ממד הכרתי. בלעדיו אין אינטואיציה. מעצם הגדרתה זו לא יכולה להיות יכולת חישובית, שכן אם היא הייתה כזאת אזי הדרך מהנתונים האמפיריים לתיאוריה או להבנה האינטואיטיבית שלהם, הייתה חשיבתית בלבד. די היה בנתונים בלבד כדי להסיק בצורה מכנית את המסקנה. האינטואיציה עושה משהו מעבר לחישוב שמבוסס על אוסף הנתונים, אחרת באמת היא הייתה חשיבה טהורה. כאמור, יש בה ממד מכיר.

לאור זאת, העלה טירגיץ בטוקבקים לטורים הקודמים (ראו כאן וכאן) שאלה חשובה מאד. אם אכן, יש ממד תצפיתי באינטואיציה, לא נראה שמכונה חושבת תוכל לחקות זאת. מכונה יכולה לעבד את הנתונים שהיא מקבלת ולהגיע למסקנה כלשהי, אבל אין לה יכולת להתבונן באידאות. גם אם נבנה לה חושים כמו אלו שלנו, היא תוכל לצבור עוד נתונים, אבל לא לעבד אותם ולשייך אותם לרעיונות ומושגים מופשטים. תיאורטית אולי ניתן היה לחקות גם את החוש הזה שיש לנו, אבל אם הוא אינו חוש שישי רגיל אלא משהו שכולל גם ממד חשיבתי-יצירתי זה לא יכול לקרות. אם תהיה מכונה שיש לה גם את היכולת הזאת, אזי אנחנו נצטרך לטעת אותה בתוכה. זו לא תתקבל כתוצאה מאימונים של רשת נוירונים על דוגמאות שונות, שכן האימונים רק מעצבים את רשת הנוירונים ויוצרים מכונה חישובית טובה יותר. צעד לא חישובי לא יכול להיעשות על ידי מכונה.

במילים אחרות ניתן אולי לומר שמכונה חושבת לא תוכל ליצור פילוסופיה, שכן אין לה את היכולת לצפות באידאות. היא תוכל כמובן להיות פרופסור לפילוסופיה, וכך באמת נראים המאמרים שנוצרים על ידה (ראו בטורים הקודמים את הגנריות והשבלוניות של התשובות שלה).

דברים אלו נקשרים גם לשאלת העקיבה אחרי כלל (following a rule) של ויטגנשטיין שמוצגת במאמרו של רייס שנדון בטור 591. גם שם הטענה היא שעקיבה אחרי כלל תמיד מניחה סוג של אינטואיציה שלא ניתן להעביר אותה בצורה אלגוריתמית. אמנם אנחנו יכולים ללמד תוכנה לעקוב אחרי כללים, אבל זה נעשה בדרך של אימון שמביא אותה להיות בנויה כמונו בהבנת הכללים. זה לא באמת להעביר ולהנהיר לה את משמעותו של הכלל עצמו. לא ברור האם ניתן להבהיר לה כלל חדש, כלומר כלל שלא הוכנס אליה דרך המבנה שלה או שלא בנוי על בסיס צירוף פשוט של כללים שהוכנסו אליה.

סיכום

אתם יכולים לראות שאין לי טיעון חד משמעי בעד או נגד הניבוי שמכונות יוכלו להחליף אותנו לחלוטין. הראיתי במה תלויה השאלה הזאת ומהן השלכותיה, אבל מהי התשובה איני יודע. השאלה המהותית תלויה בשאלה כיצד אנחנו מבינים את הכושר האנושי שמכונה 'אינטואיציה'. כך, למשל, מי שמאמין שתחום הפילוסופיה מוגדר במובחן מתחומי המדע (זהו תחום של תצפיות שכליות באידאות), בעצם מניח שמכונות לא יוכלו להחליף אותנו כי הן לא יודעות לעשות פילוסופיה אלא רק לאסוף נתונים ולנתח אותם. מי שחושב שבקפיצת הפרדיגמה המדעית מהעובדות לתיאוריה (ובפרט בקפיצות מחשבתיות כמו שרואים בתורות הקוונטים והיחסות) יש ממד יצירתי, גם הוא כנראה יסבור שמכונות לא יוכלו לעשות זאת ברוב המקרים.

ככלל, ראינו שעקרונית תוכנה תוכל אולי לחקות כל הליך חישובי (אף שאין לנו הגדרה ברורה מהו בדיוק הליך כזה). אבל הליכים לא חישוביים, אם בכלל ישנם כאלו, הם ייחודיים לאדם. מעבר לזה, ראינו שגם בהליכים חישוביים האדם לא תמיד פועל בצורה חישובית. לפעמים הוא מקצר את הדרך באמצעות האינטואיציה שלו. אבל זה רק קיצור דרך ולא יצירתיות מהותית. אם כי הערתי שאפילו בזה לא ברור שמכונות יוכלו תמיד להחליף אותנו, שכן הקיצור הזה עצמו הוא פרי יצירתיות כלשהי, ולא ברור האם מכונה תוכל לעשות זאת. נכון שאם מדובר בהליך חישובי המכונה תמיד תוכל לערוך את החישוב על ידי מעבר על כל האפשרויות, אבל זה תלוי במשאבים של חישוב וזמן ולא ברור האם מכונות עתידיות יוכלו לטפל בכל בעיה ללא תלות בכמות של משאבים שדרושים לפתרונה. אבל זהו הבדל לא מאד מעניין ברמה הפילוסופית (אם כי מאד מעניין פרקטית). השאלה הפילוסופית היא האם ישנו הבדל עקרוני ואיכותי בין אדם למכונה, מעבר להבדלים כמותיים לכאן או לכאן.

[1] כבר הזכרתי שתוכנות בינה מלאכותית שפותחו בעמק הסיליקון הן בעלות נטייה שמאלה, שכן הסביבה שמזינה אותן היא בעלת השקפות שנוטות שמאלה. ראיתי לפני כמה חודשים מישהו ששאל את ChatGPT לדעתה על הרפורמה המשפטית, וקיבל את התשובות המצופות מתוכנה שמאומנת בסביבה 'שמאלנית'.

[2] אגב, יש מקום לטענה שאם התוכנה היא שהורגת את האדם האחד אין בזה בעיה מוסרית כי היא מכונה ולא אדם (על מכונה אין איסור רצח), ולכן לגבי מכונות יש להתחשב רק בשיקולי תוחלת הרווח במונחים כמותיים של חיי בני אדם. אמנם יש גם מקום לראות את המתכנת או המשתמש במכונית כאחראי (ראו בטור הנ"ל את ההבדל בין כטב"מ לכטמ"מ בז'רגון הצבאי).

[3] זו אינה בעיה ממשפחת ה-NP-Complete  הידועה, שכן שם בבירור מדובר בבעיות חישוביות, אלא שכוח וזמן החישוב הדרושים לפתור אותן הם עצומים (אקספוננציאליים ומעלה). זה מה שקרוי בעיות לא חישוביות במדעי המחשב. ככל שאני מבין, חוקרים במדעי המחשב אינם יודעים להגדיר חישוביות במובן המהותי שעליו אני מדבר כאן (זהו אחד האתגרים בטיפול שיטתי בתזה של צ'ירץ'-טיורינג שהוזכרה בטור הקודם). אני מדבר על משהו שלא ניתן בכלל 'לחשב' אותו (ייתכן שאפילו לא בזמן אינסופי ממש, עד כמה שניתן בכלל להגדיר קטגוריה כזאת).

[4] ראו גם בטור 268 הערה 10, שם הערתי שאינטואיציה אינה תוצר של ניסיון.

23 תגובות

  1. יש קריקטורה ישנה ומפורסמת בה נראה איינשטיין כותב על לוח את המשוואה A=Mc בריבוע ואז מסמן ליד זה איקס.
    שוב כותב את המשוואה B=Mc בריבוע, ומסמן לידה איקס.
    ממשיך לC ואחר כך לD ומוחק.

    ואז מגיעה המשוואה הנכונה.

    והן הן הדברים. נראה שהצייר ניסה להמחיש את הדרך בה "מצא" איינשטיין את המשוואה. כמובן שהמחשה מגושמת שכזו רק מרימה להנחתה למסקנות [טנטטיביות] של הרב בטור מעלה.

  2. המבחן שלי.
    כאשר הומצאו מכונות השחמט הראשונות כתב אפרים קישון :
    "איזו המצאה גאונית.אני קונה לי שתי מכונות כאלו , מושיב אותם לשחק – והולך לקולנוע".
    אני מציע מבחן דומה. מכונה אחת תטען בעד אפשרות להחליף בני אדם – והשניה נגד.
    debate נוסח אוניברסיטה בריטית.
    מענין איך המכונות יגיבו.
    מענין אם אחת מהן תטען שזה משחק טפשי והיא לא מוכנה להשתתף בו.

  3. לדעתי מה שכתבת לגבי תוכנות למשחק שחמט אינו מדויק. לפחות היום, אין לתוכנות האלה יכולת לבדוק את כל האופציות – שחמט רחוק מלהיות פטיר (הוא פטיר באמצעות tablebase רק אם נשארו 7 חלקים או פחות). לכן קשה לומר שמחשב רק עושה 'קיצור דרך', וזה כנראה ניסיון מצטבר (מסכים שכנראה זה לא חשיבה אינטואיטיבית).

      1. כתבת "שלמכונה בעלת יכולת עצומה יש תמיד אפשרות לעבור על כל האפשרויות" – זה לא נכון.

  4. את השאלה על ההכרה העלית שם אתה ואני רק ביקשתי הרחבה. עוד לא הספקתי לעיין את כל הטור ולחשוב. לגבי המעגל השוטה, אנסה לתת דוגמה שפגשתי בעצמי לפני כמה חודשים ומחכה שאגיע אליה בעוד כמה חודשים כדי לפתח ולבדוק, ואולי היא קשורה לנושא. חברות שמחזיקות במאגרי מידע (רלציוניים) ענקיים צריכים לדעת מה יש להם בכל עמודה בדאטאבייס, כדי לשלוף מידע וכדי להפעיל רגולציות שונות. דרך נפוצה היא (1) ליצור מאגר גדול ומקיף של מונחים עסקיים שנראים רלוונטיים (2) לנסות למפות כל עמודה לאחד או יותר מהמונחים, כאשר כל אחד מהמונחים מוכר וידוע וגם יודעים איזה חלקים ברגולציה חלים עליו. יצירת מאגר מקיף היא בעיה לא פשוטה בכלל וסכומים רציניים הושקעו בה, תוך שילוב כוחות של אנשי נתונים מתחומים שונים ועורכי דין של רגולציות (שיודעים לתאר מה מעניין את הרגולציה ולאיזו קטגוריה דברים שונים מתאימים). הם סיפקו (לי) כל מיני מאגרים, וכולם סובלים מכל מיני בעיות. התברר לי שאם מסבירים לאדון ג'יפיטי (ודומיו) בדיוק את הבעיה: רוצים לעמוד ברגולציה פלונית, לצורך כך רוצים להרכיב מאגר של מונחים בגודל משוער כך וכך ולמפות כל עמודה לאחד או יותר מהמונחים, הנה עשרות אלפי עמודות לדוגמה, בנה לי בטובך מאגר וגם תמפה. אז נראה שהוא עושה את זה די טוב. אני בזמנו השתמשתי במאגרים שהוכנו מראש (שהושקעו בהם לפחות מאות אלפי דולרים במשכורות, ולהערכתי פי כמה) ומסתמן שכשאחזור לנושא אני אעבור לייצר מאגרים לעצמי בעזרת ג'יפיטי. בדיקות על מדגמים לא כל כך קטנים הביאו תוצאות יפות ומפתיעות. אף שעדיין יש מעקשים שונים ומשונים. אגב גם מתאפשר לכוונן את רמת ההכללה של המונחים וסוגי המיפויים. הנוגע לענייננו הוא שהוא עושה עבודה של סינון מיון והמשגה, אולי זה דומה לסינון עובדות רלוונטיות וניסוח חוק מתימטי שהן נגזרות ממנו. כלומר אולי בחירת קבוצת העמודות שעבורן הוא מחליט לייצר מונח כללי מתאים והתעלמות משאר העמודות דומה לבחירת קבוצת עובדות שעבורן הוא מנסה לייצר חוק כללי מתאים והתעלמות מהשאר. האם לדעתך בעבודה כזאת (או אחרת) של סינון מיון והמשגה יש דמיון ליצירה של תיאוריה מדעית?

      1. אם האיברים הם מיטה שולחן כסא סדין מגבת שמפו ואני רוצה למצוא מאגר של מונחים שיאפשר לקטלג את האיברים אז מאגרים אפשריים למשל הם {רהיטים, בגדים}, {ישיבה, שינה, מקלחת}. אם בוחרים את {רהיטים ובגדים} אז שמפו נשאר ללא קיטלוג. וכאן למשל הבחירה תלויה עד כמה חשוב להקטין את גודל המאגר והאם עוסקים בתיאור הדבר (כגון רהיט) או השימושים שלו (כגון ישיבה) וכדומה. עד כאן פשיטא. אבל כדי לייצר כל מונח כזה (כמו רהיטים) צריך לסנן חלק מהאיברים ועבור הקבוצה הנבחרת צריך למצוא מונח מתאים כך שהאיברים יתמפו אליו, וכך עבור כל מונח ומונח במאגר.

        הנה חלקים מהשיחה שניהלתי איתו. יש איזו מגבלה לפרט כאן יותר. בתא 3 הכנסתי חלק קטן מאד מאלפי העמודות שנתתי לו בשיחה המסוימת הזאת וגם שיניתי את הסדר כך שיהיה קל להשוות לתשובה. ועריכות קלות נוספות. (הטקסט באנגלית בנפרד בהודעה הבאה)

      2. [1] I have a list of database columns. To comply with GDPR regulations, I plan to create a glossary of business terms. My goal is to assign each column to a specific business term and then outline the compliance requirements for each term. My first step is to build this glossary and allocate each column to one or more business terms. I'd like you to help me create a concise glossary containing terms to which multiple columns can be assigned. Could you assist with that?

        [2] Of course! I'll do my best to help you build the glossary and assign columns to business terms based on the list you provide. Please go ahead and provide me with the list of columns, and I'll assist you in organizing them into a glossary and assigning appropriate business terms

        [3] here are my columns: [… taxable amount, feature no discount, redeem quantity, total surcharge, report cost unit amount, globalance voice activations count, call duration, call answer time, general ledger voice oth amount, customer last name, customer identifier, customer email address, purchase amount, qualifying subs, representative discount amount …]

        [4] Based on the list of columns you provided, here's a suggested glossary of business terms and the assignment of columns to those terms: […, Billing and Payments, Performance Metrics, Call Management, Customer Information, Revenue Analysis, …].

        Please note that these terms are general and can be assigned to multiple columns based on their broader interpretations. Feel free to provide any additional instructions or specifications if you have any specific requirements.

        […] here is the assignment of each column to one or more business terms from the provided list: Billing and Payments – taxable amount, feature no discount, redeem quantity, total surcharge. Performance Metrics – report cost unit amount, globalance voice activations count. Call Management – call duration, call answer time, general ledger voice oth amount. Customer Information – customer last name, customer identifier, customer email address. Revenue Analysis – purchase amount, qualifying subs, representative discount amount.

        Please note that the assignment of columns to business terms is based on their general meanings, and there may be variations or specific interpretations based on your specific context and requirements.

      3. אולי דוגמה קטנה כזאת נראית טריוויאלית. אבל אפילו כאן מספר האפשרויות התיאורטיות הוא לא מבוטל (כל תת קבוצת עמודות, בכל מיני רמות וסוגים של הכללה). ההרהור הוא שמא יש שקילות מסוימת בין התהליך הזה לבין תהליך של יצירת תיאוריה מדעית מתוך מרק גועש של עובדות: צריך לבחור חלק קטן מהעובדות (קבוצת עמודות), וליצור חוק (מונח) כך שהעובדות נגזרות ממנו (מתמפות אליו). כרגע המודלים חזקים במיוחד בהבנת שפה ולכן מובן שאם יש שקילות מספקת אז נוח יותר לנסות להעמיד אותם במבחן בתחומים שמשיקים לשפה מאשר לחישובים מתמטיים.

        1. אני לא בטוח שמיון כזה הוא כמו הכללה של תורת הקוונטים. שם יש אבדוקציה שבמסגרתה אנחנו יוצרים מושגים ויישים תיאורטיים ולא רק משתמשים במושגים קיימים כמו כאן.

  5. שלום, דיברנו לפני שנים, לפני כל ה-ChatGPT ויתר ההתפתחויות, שאין חולק על כך שמקרבות את המחשב לעמוד היטב במבחן טיורינג. קראתי את רשימותך האחרונות בנושא, ואני רואה שאנחנו עדיין חלוקים באותם הנושאים.

    אני אחד מאותם אנשים שבהחלט רואה מערכת מחשב כגון ChatGPT כ״אינטיליגנטית״ (אם כי עדיין לא ״מודעת״). אני חושב שעקרונית אין כל מניעה שמחשב יכול להגיע ל״הבנה״ של מושג, גם מושג שאנחנו נקרא לו אבסטקרטי. ויתרה מכך, אני גם מאמין באותם רעיונות שבעינך הם ״הזויים״, שלפיהם מחשבים יוכלו לחוות תחושות, רגשות, ורצונות.

    אחד הדברים שחוזרים אצלך שאני לא מצליח לרדת לעומקם, הוא השימוש באנלוגית החדר הסיני של סירל כדי לטעון שהאיש שבחדר אינו באמת מבין סינית. אבל הנקודה היא שאין איש קטן בחדר של המחשב, בדיוק כמו שאין איש קטן שיושב בתוך המוח שלנו ומעלה או מוריד את הפוטנציאל החשמלי בכל ניורון. ההבנה היא של המערכת בכללותה, ואני לא רואה כאן הבדל עקרוני בין פעולות חשמליות שקורות בתוך מחשב או בתוך מוח אנושי. לכן אני לא מצליח להבין מדוע אתה חוזר שוב ושוב לחדר הסיני של סירל ברשימותך.

    אני מבין שתיאורטית יכול להיות שיש שתי תופעות שיש להן את אותם מאפיינים בדיוק אבל הן אינן זהות. אחת היא לכאורה ״חיקוי״ של השנייה. אבל בהינתן שבמקרה של בני אדם, למרות שאינך יכול לדעת אם אדם מתנהג רק כבעל הבנה או שבאמת יש לו הבנה, אתה עדיין מניח שלאדם יש הבנה, רצונות ורגשות, מדוע אינך נותן אותה ההנחה גם למכונה?

    ואגב, כשמדברים על הבנה, שכפי שתיארת היא מושג חמקמק למדי, בהחלט יש מבחנים מעשיים שלכל עניין היו מספקים את רובנו. במיוחד כשמדובר במשהו שניתן לחוות אותו – לראות אותו, ליצור אותו, למשש אותו. האם במקרה שהמחשב יהיה מסוגל ממש לבנות את אותו מושג (נגיד ״כיסא״), או אפילו לסמלץ אותו בצורה שהיא איזומורפית לעולם האמיתי, בתלת מימד, לפי דרישותיך, לא הייתי אומר שזה מראה על הבנה?

    מקריאה של רשימותך אני רואה שאתה דוחה את פרשנותו של ויטגנשטיין, שלפיה כל קיומה של השפה הוא השימוש שעושים בה, ואין למילים שאנחנו מוציאים מהפה משמעות מהותית בפני עצמם. אני חייב לומר שאני דווקא כן מזדהה עם האפיון הזה (זה מזכיר לי את הבדיחה על הילד ששתק עד גיל 5, ולפתע פתאום פצה את פיו במהלך סעודה ושאל אם ״אפשר להעביר את המלח״. שאלו אותו ״למה שתקת עד עכשיו״? והוא ענה ״עד עכשיו היה בסדר״).

    לגבי מהי ״אינטואיציה״ – אני מגדיר את זה בתור ״מה שאנחנו יודעים אבל לא יכולים לתקשר״. כשרשת ניורונים לומדת להכליל איזה כלל מסויים, המידע נמצא בערכי הפרמטרים שלה. מעבר להעברת של רשימת הערכים המספריים האלו, אין לי את היכולת לכווץ את האינפורמציה הזו למשהו שאפשר לתמלל. האינטואיציה אינה ״קיצור דרך חישובי״. להיפך, היא החישוב הכבד, שפשוט אנחנו לא יכולים לתמלל אותו.

    נראה לי שההבדל ביננו הוא שככל שעובר הזמן, אני משתכנע שאנחנו יצורים שטחיים ופשוטים הרבה יותר ממה שנדמה לנו. כל אותן סיבות שבגללן אתה אומר על מה שמחשב עושה שהוא לא באמת ״חושב״ ולא באמת ״מבין״ – אני מאמין שהן תקפות גם לגבינו. ולכן המסקנה היא אחת משתיים – או שגם בני האדם אינם חושבים או מבינים, או שגם מה שהמכונות עושות נחשב כ״מחשבה״ ו״הבנה״.

    ועוד כמה נקודות:
    המערכת של ChatGPT היום באמת עונה בצורה בנאלית וחסרת מעוף, אבל זה בגלל שכובלים אותה במכוון. היכולת של המערכת להיות יותר ״רועשת״ וגם יותר יצירתית ניתנת לכיוונון, ויש דיווחים על ביצועי המערכת בזמן האימון שלה, לפני שכל מנגוני הרגולציה נכנסו, והם הרבה יותר מרשימים. ראה, למשל פה: https://www.microsoft.com/en-us/research/publication/sparks-of-artificial-general-intelligence-early-experiments-with-gpt-4/

    כשמדברים על זה שהמערכת מעלה השערות ואז בודקת אותן בסימולציה, הכוונה היא למשהו כמו בדוגמה הבאה – הנדסה של חלבונים. למשל, יש מיליון דרכים להנדס חלבון שאמור להיקשר לפתוגן כלשהוא. אי אפשר לסמלץ את כולם, אז המערכת תצמצם את זה ל-1000 חלבונים באמצעות ה״אינטואיציה״ (רשת הניורונים) שלה. אותם נכניס לסימולציה. חלק מהם ייקשרו לפתוגן, וחלק לא. את ה-10 הכי מבטיחים נבדוק גם במעבדה. זה אנלוגי לתהליך המדעי שבו בני אדם צריכים איזו שהיא פריצת דרך כדי לצמצם את מרחב החיפוש של מה שיעשו עליו ניסויים.

    1. פגשתי לא מעט אנשים שמחזיקים בעמדה כזאת והיא נראית לי ממש הזויה. אני אפילו לא מצליח להבין מה עליי להסביר, בפרט מעבר למה שכתבתי בטורים עצמם. אנסה בכל זאת למקד בקצרה.
      1. איני מבין מדוע חשיבה היא אינדיקציה למודעות ורגשות. האם כשתהיה מכונה הולכת כמו בן אדם ("הליכה מלאכותית") תניח שהיא מרגישה ומודעת? למה חשיבה שונה מהליכה בעניין הזה?
      2. מה עוד שהמכונה כזאת באמת הייתה מכונה הולכת, אבל בינה מלאכותית ממש לא חושבת אלא רק מניעה אלקטרונים.
      3. החדר הסיני בא לחדד את ההבדל בין פנומנולוגיה של חשיבה או דיבור לבין הבנה/חשיבה, והוא עושה זאת היטב.
      4. הבעיה של other selves הוזכרה אצלי. ההבדל בינה לבין מכונות 'חושבות' הוא שלגבי עצמי אני יודע שיש מודעות ויש רגשות ויש חשיבה, ומכאן אני מניח שגם האנשים האחרים שבנויים כמוני ונראים כמוני ומדווחים לי על קיומם של כל אלו אצלם מתארים את המציאות נכון. אבל לגבי מכונות אין שום סיבה להניח שיש להם רגשות או מודעות יותר מאשר עציץ, אבן, או כיסא בגינה שלי.
      5. אין קשר לשטחיות. יש אנשים שטחיים יותר ופחות, ויכולים להיות תוצרים של בינה מלאכותית שיהיו עמוקים להפליא. אני לא מדבר על שטחיות או עומק, אלא על המהות של העניין (האם יש משהו מעבר לפנומנולוגיה).

      1. 1. חשיבה אינה אינדקציה למודעות ולרגשות, לא טענתי כך.
        2. לפי אותו הגיון גם בינה אנושית לא חושבת אלא רק מניעה יונים דרך תעלות נתרן ואשלגן.
        3. אולי, אבל לא מדגים הבדל בין חשיבה אנושית לחשיבה מכאנית.
        4. זה קריטריון מפתיע, לחשוב שמשהו חושב כמוך רק בגלל שהוא נראה כמוך (כי ״לדווח על קיומם של כל אלה״ גם המכונה תעשה, בניגוד לעציץ או לאבן).
        5. אולי לא בהכרח שטחיות, אולי המהות היא במכאניות. יש לך איזו אמירה ערכית כאילו מה שקורה בחדר הסיני הוא לא חשיבה, אבל אתה מסרב לקבל את האפשרות שמה שקורה במוח שלנו יכול להיות מוצג באופן מכאני בדיוק כמו בחדר הסיני.

        1. סימולטור הגיב:
          1. חשיבה אינה אינדיקציה למודעות ולרגשות, לא טענתי כך.
          2. לפי אותו הגיון גם בינה אנושית לא חושבת אלא רק מניעה יונים דרך תעלות נתרן ואשלגן.
          3. אולי, אבל לא מדגים הבדל בין חשיבה אנושית לחשיבה מכאנית.
          4. זה קריטריון מפתיע, לחשוב שמשהו חושב כמוך רק בגלל שהוא נראה כמוך (כי ״לדווח על קיומם של כל אלה״ גם המכונה תעשה, בניגוד לעציץ או לאבן).
          5. אולי לא בהכרח שטחיות, אולי המהות היא במכאניות. יש לך איזו אמירה ערכית כאילו מה שקורה בחדר הסיני הוא לא חשיבה, אבל אתה מסרב לקבל את האפשרות שמה שקורה במוח שלנו יכול להיות מוצג באופן מכאני בדיוק כמו בחדר הסיני.

          1. 1. זה בדיוק מה שטענת. אחרת על סמך מה אתה חושב שלכינה מלאכותית יש רגשות ומודעות? מה אתה יודע עליה מעבר לזה שהיא 'חושבת' (שגם זה לא נכון לדעתי)?
            2. אולי בינתך האנושית היא כזאת. אני בתוכי רואה דברים אחרים. לא יודע מה איתך, אבל אצלי יש גם תהליכים מנטליים.
            3. זה בא להדגים את מה שכתבתי שהוא מדגים. מתוך כך אני טוען שזה גם ההבדל בין בינה מלאכותית לאנושית. ברור שהדוגמה של סרל לא עוסקת בבינה מלאכותית. אני לא מבין על מה בדיוק אתה מתווכח.
            4. המכונה עושה מה שתוכנתה לעשות. אני יכול להשמיע לך טייפ שאומר לך "יש לי רגשות", אז לדעתך יש לו רגשות? או מודעות?
            אם אנלוגיות מפתיעות אותך, אז איני יודע כיצד ניתן לדבר ולדון איתך. אתה יכול לזרוק גם את כל המדע לפח. מי אמר ששתי אבנים שדומות בעינינו גם יתנהגו אותו דבר? דמיון הוא קריטריון מפתח בחשיבה המדעית ובחשיבה שלנו בכלל. אגב, גם בבינה המלאכותית.
            5. אני מסרב לקבל זאת מפני שזה הבל. ראה בסעיף 2. אתה לא יכול לתאר את מה שקורה אצלי כפיזיקלי לגמרי. יש אצלי תהליכים מנטליים (אולי אצלך לא).

    1. מעניין מאד. דומה למה שכתבתי. אמנם השאלה האם התוכנה דומה לנו נראית לי פחות מעניינת וחשובה. השאלה האם יש לנו יכולות שלה אין היא המעניינת.

השאר תגובה

קרא גם את הטור הזה
Close
Back to top button