על פוביות טכנולוגיות ופסיקות של בינה מלאכותית (טור 590)
בס"ד
בשנים האחרונות נושא הבינה המלאכותית ומכונות חושבות תופס תאוצה עצומה. בחודשים האחרונים יצאה לשוק תוכנת ChatGPT (ומקבילותיה שיוצאות כעת בחברות שונות בעולם) שבכלל משגעת את העולם, וכבר מחליפה בפועל אנשים בעבודתם, וכותבת תוכנות או מודולים לצרכים שונים. במקרים רבים היא לפחות מסייעת ומייעצת. אמנם היא יכולה גם להטעות, וכבר היו פדיחות מביכות בעניין. בכל אופן, יודעי דבר טוענים שלא רחוק היום שבו עובדים ברמות הנמוכות יתייתרו לגמרי, ונראה שלא הרבה אחר כך גם תורם של עובדי הרמות הגבוהות יותר יבוא. ועוד לא דיברנו על כתיבת עבודות בבית ספר ובאוניברסיטה על ידי התוכנות הללו.
כדי להבין את משמעות העניין עבור משתמש הדיוט (לא איש תוכנה שרוצה שהבינה המלאכותית תכתוב במקומו קוד), חשבו על חיפוש גוגל. עד היום חיפוש כזה הביא לנו מידע כתשובה לשאלות שונות שלנו, אבל עדיין היה עלינו לבחור מבין המוני תוצאות את אלו הרלוונטיות (הסדר שעושה בהן גוגל לא ממש אמין וקולע), ולחלץ מתוכן את המידע הנחוץ לנו, אם בכלל הוא נמצא שם. לעומת זאת, בעידן הבינה המלאכותית התוכנה עצמה עושה את כל זה עבורנו. נניח שאתה רוצה לקבל סקירה על דילמת הטרולי באתיקה או בפסיכולוגיה. בעבר היית צריך לחפש עליה מקורות וחומרים בגוגל או בוויקיפדיה אם יש שם ערך רלוונטי, ואז לבחור מבין התוצאות את מה שרלוונטי, לארגן את המידע ולסדרו. בסוף התהליך אולי תוכל לקבל תשובה לשאלתך. לעומת זאת, כעת אתה רק שואל את ChatGPT לדעתו על דילמת הטרולי ומקבל סקירה סדורה ומובנית של העמדות השונות, ואם תתנהג ממש יפה תקבל גם את דעתו שלו בסוגיה באופן מנומק להפליא.
יתר על כן, אם אני מבין נכון, גם ויקיפדיה מיודעתנו עומדת לעבור מן העולם בדרך זו. במקום לחפש בתוך רשימת ערכים נתונים שנערכו ונכתבו בדם יזע ודמעות על ידי מתנדבים אנושיים שונים, תוכלו בקרוב לשאול את התוכנה כל שאלה שתרצו (ולא רק לבחור אחד מתוך סט נתון של ערכים) ותקבלו תוך כמה שניות ערך אנציקלופדי מעודכן לגביה.[1] היא בעצם יכולה לכתוב אנציקלופדיה עם אינסוף ערכים. אגב, אין הרבה טעם לשמור את התוצר הזה, כי כשתרצו את אותו מידע שוב בעתיד תוכלו לשלוח שוב את אותה שאלה ולקבל מיידית ערך מעודכן לאותו רגע. אין צורך לצבור את המידע כשלעצמו. הבינה של התוכנה שומרת אותו באופן פוטנציאלי. התוכנה היא היא האנציקלופדיה.
אין פלא שגם בהקשר התורני עולות שאלות דומות. ניתן לכתוב מאמרים ותשובות על ידי בינה מלאכותית. בעצם היא יכולה כעת גם להחליף את הפוסק. אם תשאלו אותה שאלה הלכתית היא תענה לכם ותיתן לכם פסק הלכה או סקירת דעות לגביה. ואכן גם בעולם התורני מתחילים להתעורר דיונים בסוגיות הללו שכאמור כבר רובצות לפתחנו (אגב, אפשר למסור גם אותן עצמן ל-ChatGPT. ראו בהמשך). כאן ברצוני לעסוק בבינה מלאכותית ובמשמעויותיה, גם לגבי פסיקת הלכה, אבל לפני שאכנס לשאלות אלו אקדיש כמה פסקאות לשאלת הפוביות.
שני סוגי פוביות מטכנולוגיה
ישנם אנשים רבים שסובלים מפוביות ביחס לטכנולוגיה. ניתן לחלק אותם לשני סוגים: הסוג הראשון (אנשים כמוני), שנרתעים ממנה בגלל חוסר מיומנות בשימוש בה. הסוג השני הוא אנשים שנרתעים מעצם מסירת משימות אנושיות לטכנולוגיה. זו רתיעה שנראית לכאורה אתית ולא פסיכולוגית כמו הקודמת. אבל אני טוען שגם היא ביסודה פסיכולוגית.
נבחן כדוגמה את היחס למכוניות אוטונומיות ונשק אוטונומי. בצה"ל היו פעם מושגים כמו מל"ט (מטוס ללא טייס) כטב"מ (כלי טיס בלתי מאויש) ועוד. אבל הביטויים הללו יצאו מהמילון, וכיום מדובר על כטמ"מ, כלומר 'כלי טיס מאויש מרחוק'. מדוע? מפני שכשאנשים שומעים על כלי שפועל אוטונומית ללא טייס, הם מקבלים חום. החלטות הרות גורל שמתקבלות על ידי מכונה, ללא שיקול דעת אנושי, ממש מפחידות אותם. לכן מרגיעים אותנו באמירה שמדובר בכלי מאויש, אלא שהטייס נמצא רחוק ממנו. אל דאגה, עדיין מי שמקבל את ההחלטות הוא טייס אנושי.
צריך להבין שזוהי נקודה מרכזית שמטרידה את מי שעוסק ברגולציה על מכוניות אוטונומיות. אחד החששות הוא מפני קבלת החלטות אוטומטית על ידי המכונית עצמה. זו יכולה להיקלע למצבים כמו דילמת הטרולי, ולקבל בהם החלטות שנוגעות לחיי אדם באופן מכני לגמרי (וגם ללא תחושת האחריות שקיימת אצלנו ביחס להחלטות כאלה). מי יודע מה היא תעולל שם?! ראו למשל סקירה כאן וכאן (ובהלכה כאן, וכן במאמרו של הרב ישראל מאיר מלכה שמופיע שם בהערה המקדימה)[2]. על החששות בציבור מהדילמות הללו, ראו למשל כאן.
הוא הדין לגבי מערכות נשק אוטונומי (ראו סקירה כאן). כאן באתר ניהלתי לפני כשש שנים דיון די ארוך עם אדם שעסק בנושא הזה והביע חששות כבדים מאד מקבלת החלטות אתיות באופן אוטונומי. טענתי שם שלדעתי יחסו לסוגיה מופרך. איני רואה הבדל אתי מהותי בין מערכות נשק אוטונומיות לבין אוטומציה של נשק מהדור שלפני עידן הבינה המלאכותית.
התופעות הללו משוייכות על ידי לפוביות טכנולוגיות מהסוג השני. בטור 186 אני עוסק בזה ומסביר מדוע לדעתי החששות הללו מופרכים. חשבו על מכונית אוטונומית שנקלעת למצב סבוך כלשהו שדורש קבלת החלטות לגבי חיי אדם. יש לה יתרון מובהק על פני בני אדם מבחינת מהירות החשיבה והתגובה, והתוצרים (=ההחלטות) הם תוצאה של המידע שבו הלעטנו אותה. שימו לב שטעויות יכולות להתרחש גם על ידי בני אדם, ובעצם הם יעשו הרבה יותר טעויות ויגיבו הרבה יותר לאט מאשר מכונית אוטונומית. כל מכונית אוטונומית שעושה תאונה מעוררת דיון ופולמוס רחב והדבר מעכב את אישור השימוש בה ומגביר את הפחדים מפניה, אבל תוך כדי כך אנשים שוכחים שבני אדם עושים פי אלף יותר שגיאות ותאונות. לפי ידיעתי כבר כיום מכוניות אוטונומיות בטוחות עשרת מונים יותר (או מסוכנות עשרת מונים פחות) מנהגים אנושיים.
אבל החשש המהותי הוא לא משגיאות של המכונית אלא מקבלת החלטות לא נכונה שלה ברמה האתית. ההנחה היא שנהג אנושי באופן עקרוני מקבל החלטות אתיות נכונות, למרות שהוא יכול להגיב לאט מדיי ואולי יעשה טעות בשיקול הדעת. אבל במכונית אוטונומית ההחלטה ה'נכונה' עצמה יכולה להיות לא אתית. לא בגלל טעות שלה (כלומר תקלה), אלא בגלל שהיא לא 'חושבת' נכון מבחינה מוסרית.
במקרים שבהם אין תשובה נכונה מוסכמת (כמו בדילמת הטרולי, שלגביה מאד נהנים לבחון את הסוגיה), החשש הזה אינו מובן כלל. הרי שם אין החלטה נכונה. גם בין נהגים אנושיים יהיו כאלה שיבחרו להרוג אדם אחד ויהיו שיבחרו להניח לכמה אנשים למות כדי לא להרוג בעצמם אדם אחד. הרי גם בין בני האדם יש חילוקי דעות אתיים בסוגיה הזאת, ולכן בשטח יתקבלו החלטות שונות על ידי נהגים אנושיים. אז מדוע ההחלטה של מכונית אוטונומית צריכה לקבל יחס אחר? באיזה מובן היא יותר מסוכנת? לכל היותר החלטותיה תהיינה תוצר של החשיבה האתית של המתכנת. אם זה לא מוצא חן בעיני מישהו, תנו למחוקק או לוועדה אתית כלשהי לקבוע את הכללים, ואז לקבוע תקן מחייב לתוכנות של מכוניות אוטונומיות (כלומר לאמן אותן בהתאם). זה ודאי יביא לתוצאות הרבה יותר טובות מנהג אנושי. במקרים אלו הפחד נראה לי אבסורדי בעליל.
אבל גם במצב שבו יש תשובה אתית נכונה, שם לכאורה מתעורר החשש שהתכנות של המכונית לא ייצור את ההחלטה הנכונה לגבי המצב המסוים הזה. השאלה שעולה כאן היא האם הסיכון הזה שווה את כל ההרוגים והנפגעים כתוצאה משנים ארוכות של נהגים אנושיים? האם זה הורג פחות בני אדם? גם אם מכונית אוטונומית עלולה לקבל החלטה שגויה במצבים מסוימים, אין להשוות את מספר ההרוגים לאלו שמקפחים את חייהם בגלל טעויות של נהגים אנושיים. לדעתי אין סיכוי שמכוניות אוטונומיות תהיינה יותר מסוכנות בסך הכל. בסוף בסוף, איני רואה הבדל בין טעות של נהג אנושי לטעות שעושה המתכנת של המכונית. אגב, אחרי שרואים טעות כזאת במכונית אוטונומית אפשר כמעט מיידית לתקן את התוכנה (לעשות לה עוד סבב אימונים), מה שכמעט לא קיים בנהגים אנושיים. אלו ממשיכים לעשות שוב ושוב את אותן טעויות, ועולים לנו במאות הרוגים ואלפי פצועים בכל שנה רק בישראל.
התמונה המוזרה והלא מובנת הזאת מצביעה על פוביה של אנשים מפני מכונות 'חושבות'. הפוביה הזאת (מהסוג השני) היא לכאורה אתית ולא פסיכולוגית, אבל מהתיאור הקצר שהצעתי כאן עולה שזה לא ממש נכון. למיטב שיפוטי אין לזה הצדקה אתית ותוצאתית, ולכן לדעתי זה כן שייך למישור הפסיכולוגי. אנשים פשוט מפחדים למסור את השליטה על גורלם ועל חייהם בידי מכונות, גם אם הדבר ישפר פלאים את שרידותם ויוריד דרמטית את הסיכוי שלהם להיפגע. הפוביה הזאת עולה לנו בחיים של עשרות או מאות אלפי בני אדם בכל העולם, אבל קשה לנו מאד להתגבר עליה.
בינה מלאכותית בשיחות דתיות (הטפה דתית)
הבינה המלאכותית מגיעה גם לעולם הדתי. זה מתחיל משיחות בכנסייה, כפי שניתן לראות כאן. אני מניח ששיחות בבית הכנסת ווורטים שונים שאתם שומעים יום יום בכל מיני אירועים דתיים הם כבר ממש בהישג ידה של הבינה המלאכותית. אין לה שום בעיה ליצור אינספור טקסטים כאלה ברמה ירודה ובנאלית כמקובל בז'אנר. אבל זה עוד רחוק משיעור בעיון ומטקסט ברמה עיונית ואנליטית גבוהה, ודומני שבדרך כלל לא תמצאו שם רעיונות ואספקטים יצירתיים ובלתי צפויים. אבל גם זה כנראה רק עניין של זמן. אנחנו בהחלט לא רחוקים מבינה מלאכותית שיכולה ליצור גם טקסטים לא צפויים ברמה עיונית טובה (פה ושם יש כבר כיום דברים כאלה).
המאמר מסתיים בפסקה הבאה:
עם זאת, הטקס הניסיוני הראה גם את גבולות השימוש בבינה מלאכותית בכנסייה, או בדת. לא הייתה אינטראקציה אמיתית בין המאמינים והצ'אטבוט, שלא היה מסוגל להגיב לצחוק או לתגובות אחרות של המבקרים בכנסייה כפי שכומר אנושי היה יכול לעשות. "הכומר נמצא בקהילה, הוא גר איתם, הוא עורך לוויות, הוא מכירה אותם מלידה", אומר סימרליין. "בינה מלאכותית לא יכולה לעשות את זה. היא לא מכירה את הקהילה".
חסרה להם האינטראקציה האנושית עם הכומר בשר ודם, וכך גם לגבי רבנים. אבל דומני שגם זה עניין של זמן. אין מניעה שלבינה מלאכותית תהיה אינטליגנציה רגשית, והיא תוכל להגיב בצורה אנושית גם למחוות ומצבים רגשיים ואנושיים שונים, בדומה לתגובה של אדם. בסרט her ניתן היה לקבל דוגמה לא רעה למכונה כזאת, שכיום כבר בהחלט נמצאת בהישג ידינו.
בין הלכה לאגדה (=הטפה)
מה שמייחד דברי תורה, שיחות ווורטים שונים, הוא שאין שם נכון ולא נכון. מדובר ברעיונות שעניינם הוא לעורר רגש להציג קישורים שונים, ובמקרה הטוב להיות יצירתי. קשה מאד לדבר על וורט נכון ולא נכון (ראו בטור 52 על ההבדל בין דרוש לפלפול). משימות כאלה מכונה חושבת יכולה כבר כיום לעשות די בקלות (עם מידה מוגבלת של יצירתיות, בדומה לרוב הדוברים האנושיים בז'אנרים הללו). אבל בפסיקת הלכה יש טיעונים שנבחנים במונחים של נכון ולא נכון. איני מדבר על המסקנה ההלכתית (שהרי גם בהלכה למעשה יש דעות וצורות חשיבה שונות. ברוב המקרים אין שם אמת אחת), אלא על הטיעונים שמנסים להגיע אליה. טיעונים כאלה אמורים להיות סבירים ולהחזיק מים. המשימה לבצע אנלוגיות שעומדות במבחן (בניגוד לוורטים) ההיגיון הסביר והשכל הישר היא משימה לא קלה, ואני מעריך שבינה מלאכותית תתקשה הרבה יותר בתחום הזה. סביר שהיא תוכל למצוא תקדימים סבירים ותוכל גם ליישם עקרונות שהוזנו לתוכה (לבצע דדוקציות). אבל אנלוגיות יצירתיות וניתוח שמעבר לטריוויאלי, יהיה לה די קשה לנפק לנו.
לא עשיתי את הניסיון הזה, אבל אני חושב שזו יכולה להיות אינדיקציה לא רעה להבדלים שעליהם אני מדבר כל הזמן בין אגדה להלכה. כבר בספר השני של הטרילוגיה עמדתי על ניסוי של מחולל טקסטים רנדומי (הרבה יותר פרימיטיבי מ-ChatGPT) והראיתי איך הוא מצליח ליצור טקסט גנרי מוצלח של הרב קוק, וכך גם לגבי כל הוגה אחר. אבל כל אחד יכול להבין שלא היה למחולל כזה שום סיכוי לצור מערכה של רעק"א או של קצות החושן. כעת התקדמנו יותר, והבינה המלאכותית שבידינו מתקדמת הרבה יותר מהמחולל הזה, ולכן ברור שאנחנו קרובים יותר למחולל תשובות הלכתיות, אבל אנחנו עדיין לא ממש שם. ושוב, זה נראה לי עניין של זמן.
ראיתי לא מזמן מאמר קצר ובו התייחסות של הרב יעקב אריאל לפסיקת הלכה על ידי בינה מלאכותית:
"רבותי, ראשית כל הלכה למעשה: בינה מלאכותית לא יכולה לפסוק הלכה, אלא פוסקים הלכה לפי השכל הישר. שכל של מחשב איננו שכל של בן אדם, גם אם הוא מפותח מאוד ומשוכלל, זו לא מחשבה אנושית, הלכה לא יכולה להפסק על ידי מחשבה של מחשב אלא על ידי מחשבה אנושית", אמר הרב אריאל.
הוא הוסיף כי "אם בינה מלאכותית תמציא לנו פסקה הלכה, זה רבל'ה שלא שווה כלום, אני לא אומר שאי אפשר לקרוא מה שאומר, אבל לפסוק על פיה? לא. אם המחשב יגיד לך סברה, אם תגיד סברה הפוכה, יכול להיות שיותר נכונה. לא לסמוך עליו. הדיון הוא חדש ועדיין לא ראיתי הרבה תוצאות של הדבר הזה".
"המחשב לא מוסמך לפסוק הלכות, אם הוא כשר או לא כשר. הרב מנשה קליין בעל שות 'משנה הלכות' אומר שעדיף ספר תורה שאדם בדק אותו וטעה, מאשר מחשב שבדק אותו ולא טעה", סיכם הרב אריאל.
לא ברור האם כוונתו לטעון שיש חשש שהפסיקה תהיה מוטעית, או לקבוע שבאופן עקרוני למחשב אין סמכות לפסוק הלכה. החשש שמא הפסיקה אינה נכונה (כלומר לא תואמת ל'שכל הישר', האנושי) הוא עניין כמעט עובדתי. זה כמובן תלוי באיכות המכונה, אבל כיום המכונות כבר מתקרבות לאיכויות שיכולות לפסוק הלכה. את זה אפשר לבחון על ידי ניסוי. ניתן לתת למכונה לפסוק הלכה במקרים שונים ולבדוק את התוצאות על ידי פוסקים. כך, למשל, ניתן לבחון אותה במבחני הסמכה לרבנות (דומני שדווקא בסוג המבחנים הזה המכונות יוכלו לעמוד לא רע. ככל שאני מתרשם, לא בודקים שם חשיבה יצירתית ומקורית), ואם היא עומדת במבחנים אזי ניתן לתת לה לפסוק. גם פוסק אנושי שעבר את כל המבחנים יכול לטעות. צריך להיזהר כאן מהפוביות שתיארתי למעלה.
אם הוא מתכוון לומר שאין לה סמכות עקרונית לפסוק הלכה, על כך אני חולק לחלוטין. לא בגלל הערכתי הרבה למכונות, וגם לא בגלל הערכה מועטת לפוסקים האנושיים. אני טוען שאין דבר כזה 'סמכות לפסוק הלכה'. פוסקי זמננו, להבדיל מהסנהדראות או אולי מהתלמוד, פוסקים רק מפני שהם מומחים לדבר. אין להם סמכות פורמלית, וסמכותם היא מהותית (ראו למשל בטור 393 על ההבדל בין שתי אלו). אין חובה לציית להם, אבל יש הנחה שפסיקתם כנראה נכונה ואפשר לסמוך עליה. מכונה יכולה גם היא להגיע למצב כזה, ואז אין שום מניעה לתת לה לפסוק.
הפסקה האחרונה שמזכירה את דברי המשנה הלכות, בבירור אינה מדברת על חשש מטעות. הרי הוא מדבר על מצב שהבודק הממוחשב לא טעה ואדם שכן טעה. כלומר יש שם טענה לגבי סמכות עקרונית של מחשב בתחומים הללו. זו בעיניי ממש אמירה הזויה. אם המחשב באמת קולע לאמת טוב יותר מבודק אנושי (ובדיקה של סת"ם זו משימה קלסית למחשב, הרבה יותר מאשר פסיקת הלכה), מדוע לא לתת לו לעשות זאת ולסמוך עליו? מדוע עדיף אדם שטועה על פני מחשב צודק? מניין הוא לוקח את רעיון העוועים הזה? זה נראה כמו אחת הפוביות שתיארתי למעלה.
כל עוד פסיקת ההלכה היא ניסיון לנתח בעיה ולהגיע לתשובה ההלכתית הנכונה, זו משימה שבהחלט ניתן לתת למכונה. כאשר נהיה במצב שבו הפסיקות יקבלו מעמד של סמכות מחייבת (למשל ליצור סנהדרין ממכונות חושבות), שם יש אולי מקום לדיון כזה.
מקור נוסף שעוסק בפסיקה של בינה מלאכותית (=AI), הוא הרצאתו של הרב יובל שרלו בכנס תורה ומדע האחרון בבר אילן. כדרכו הוא הציג את הנושא בצורה סדורה ושיטתית וניתח היטב את האספקטים השונים שלו. אבל אני זוכר שכבר בזמן אמתי כששמעתי את ההרצאה לא הסכמתי עמו באף אחת מהנקודות.
בתחילת דבריו הוא סילק מהדיון את שאלת האיכות של התוכנה, ובצדק. כפי שראינו, זה כנראה בעיקר עניין של זמן, ולכן מה שמעניין יותר הוא לדון בפסיקה של תוכנה שלא טועה, כלומר שהיא 'בת הכי'. אם התוכנה טועה זה לא דיון מעניין, שכן ברור שלא נכון לסמוך עליה, אבל לא בגלל שהיא תוכנה אלא בגלל שהיא לא 'פוסקת'. בדיוק כמו שלא נסמוך על אדם שאינו בקיא בהלכה, גם אם הוא בשר ודם ויהודי כשר, כי הוא אינו פוסק.
את הדיון העיקרי שלו הוא חילק לשלושה היבטים:
- השאלה המוסדית. ההלכה לא מאפשרת למי שאינו מוסמך כדיין/פוסק לפסוק הלכה. היא גם פוסלת גוים, נשים ועוד. זו פסילה פורמלית מוסדית, ולכאורה גם AI אינו נכלל בקטגוריות שניתן למנות כפוסק או כדיין.
אבל כפי שהסברתי, הנימוק הזה רלוונטי רק למוסדות שיש להם סמכות פורמלית (סנהדרין). כל שאר האישים או המוסדות פועלים מכוח ידע ולא מכוח סמכות. שאלת הידע היא עניין עובדתי ועם הזמן בהחלט סביר שה-AI יגיע לפסיקות נכונות, כלומר דה פקטו יש לו את הידע. אפילו מרא דאתרא, שפועל מכוח הסמכה של קהילתו ויש לו סמכות פורמלית, אבל זו סמכות מכוח הסכמת הקהילה, וזו יכולה לקבל על עצמה גם רועי בקר.
- הפסיקה של AI היא אלגוריתמית, כלומר גזירה של מסקנות מעקרונות ההלכה והנסיבות. אבל פוסק בשר ודם אמור לפסוק אחרת לכל אדם שבא לפניו. את זה ה-AI לא בהכרח יידע לעשות.
על כך אומר שני דברים. ראשית, בהחלט ייתכן שבעתיד ה-AI יידע לעשות גם את זה. שנית, אני מתנגד לגישה הזאת לפסיקה. הבאתי כאן לא פעם את דבריו של ידידי נדב שנרב, במאמרו "ארון השקרים היהודי", שבו הוא יוצא נגד הגישה הזאת. בספר השלישי של הטרילוגיה הסברתי את הטענה כך: פוסק אמור להיות מומחה הלכתי, ועליו להציג בפני השואל את האפשרויות ההלכתיות והמחירים של כל אחת מהן. השואל הוא זה שצריך לבחור ביניהן ולהכריע באיזו מהן הוא הולך. לכן התלות של הפסיקה באדם השואל אינה עניינו של הפוסק אלא של האדם. האדם אמנם יכול להיוועץ בפוסק גם בשלב של בחירת האלטרנטיבה שלו, ואת זה אולי יהיה קשה יותר לעשות עם AI, אבל עצם ההכרעה היא שלו, ועליו לפנות למי שהוא רוצה וחש שיעזור לו. אם האדם רוצה לפנות ל-AI שיהיה לו לבריאות. אם אינו רוצה – שיפנה לפוסק בשר ודם. לכן גם כאן אין מה לקבוע מסמרות של איסור.[3] ראו על כך בטור 275.
אמנם בהמשך דבריו הרב שרלו מביא טענה מעט שונה. הוא מזכיר את פסיקת הרב פיינשטיין להכנסת כלב נחייה לבית הכנסת. טענתו היא שהפסיקה הזאת מתחילה 'מהסוף', כלומר היה ברור לו שצריך להתיר מסיבות אנושיות, ורק לאחר מכן הוא עבר לחפש טיעונים הלכתיים להיתר הזה. מובא בשם הגרי"ד סולובייצ'יק שכל פסק הלכתי הוא בעצם כזה (אמירה קצת מופרזת, אבל יש בה אמת כלשהי. ראו עליה גם בסדרת טוריי על אורתודוקסיה מודרנית 475 – 480, ובפרט בהבדל בינה לבין רפורמיות בטור 478). שימו לב שזו טענה שונה, שכן כאן לא מדובר על פסיקה שונה לאנשים שונים אלא התחשבות בנסיבות ולא רק גזירת מסקנות מעקרונות ההלכה. על כך אומר שאיני בטוח שמכונה לא תוכל לעשות גם שיקולים כאלה.[4] אבל בלי קשר לזה, הבעיה הזאת עדיין די דומה לקודמתה, שכן בסופו של דבר מדובר על התחשבות במצבו של האדם ולא רק בעקרונות המופשטים של ההלכה. ולכן גם כאן אומר שזה לא מאד משנה. ה-AI יציג את כל האפשרויות של היתר ואיסור ואת המחירים של כל אחת מהן, ואם המצב מצדיק זאת האדם יבחר באפשרות לקולא. השאלה האם AI יוכל לעשות שיקולים כאלה, איני יודע. אבל בהנחה שהאדם השואל הוא שאמור לעשות אותם ולא הפוסק, שוב אין מניעה למסור את הפסיקה לידי ה-AI.
- ה-AI לא יוכל לתת לשואל יחס אנושי. טענתו היא שבדרך כלל שאלה הלכתית באה כדי ליצור קשר עם הרב, ואחרי המענה לשאלה עליו לתקשר עם השואל במישורים אנושיים אחרים. המגע עם הרב הוא הרבה מעבר לפסיקת הלכה. את זה ה-AI לא יוכל לעשות.
בעיניי זה טיעון חלש מאד. לכל היותר, זה רק אומר שלשואל כזה כדאי לפנות לרב אנושי ולא ל-AI, אבל אין כאן מגבלה עקרונית על פסיקה על ידי AI. אם אדם רוצה רב להתייעץ עמו שיילך לרב. אבל שואל שמפנה שאלה הלכתית ל-AI כנראה לא צריך את זה. האם יש מניעה לקבל תשובה הלכתית מ-AI? איני רואה כאן טיעון שמצדיק זאת.
הוא מסיים בזה שרב ודאי יוכל להשתמש ב-AI, ועל כך אין שאלה. זה אמצעי עזר שאינו משתתף בהכרעה אלא רק עזר מחשבה לפוסק.
מה ה-AI עצמו אומר על כך?
כמקובל בתחום, חשבתי שיהיה משעשע לשאול את ה-ChatGPT עצמו מה דעתו על שימוש בבינה מלאכותית לפסיקת הלכה (אני משאיר לכם לשאול אותו מה דעתו על אלו ששואלים אותו מה דעתו על פסיקת הלכה על ידי בינה מלאכותית, וחוזר חלילה). זה ודאי לא יותר גרוע מלשאול פוסק אנושי מה דעתו על פסיקה של AI, שהרי שניהם נוגעים בדבר. עליי להקדים שהתוכנה בעברית במצב הרבה פחות מתקדם מזו שבאנגלית, ולכן עשיתי זאת באנגלית. הרי לפניכם התשובה שקיבלתי מכבוד הרב:
Using AI for Jewish Halakhah (Jewish law) decisions is an emerging and potentially transformative application of artificial intelligence technology. Halakhah is a complex and intricate system of Jewish law that governs various aspects of life, including ethics, rituals, and interpersonal relationships. Decisions in Halakhah often require a deep understanding of the legal texts, traditions, and the ability to apply them to real-life situations. AI can play a significant role in this process in several ways:
1. Legal Research and Analysis: AI-powered tools can assist scholars and rabbis in conducting extensive research within the vast body of Jewish legal texts. These tools can efficiently search through centuries of writings, cross-referencing sources and identifying relevant precedents, making the process of legal analysis more comprehensive and time-efficient. 2. Case-Based Decision Support: AI can be used to create databases of past Halakhic decisions and rulings. When a new question or case arises, the AI system can analyze the similarities and differences between the current case and historical cases, helping scholars and rabbis make more informed decisions based on precedent. 3. Natural Language Processing (NLP): NLP technology can aid in translating and interpreting complex Halakhic texts in multiple languages, making these texts more accessible to a broader audience and allowing for more in-depth analysis of the texts. 4. Ethical Dilemma Resolution: AI can assist in resolving ethical dilemmas by applying principles from Halakhah to specific situations. For example, AI algorithms can help determine the most ethically sound course of action in cases where there is a conflict between different Jewish laws or values. 5. Decision Trees and Logic: AI can assist in creating decision trees and logical frameworks for Halakhic decision-making. Rabbis and scholars can input the relevant details of a case, and the AI system can provide a structured analysis of possible outcomes and their respective Halakhic justifications. 6. Education and Training: AI-powered e-learning platforms can provide interactive and personalized education for individuals seeking to understand Halakhah. These platforms can adapt to the learner's pace and knowledge level, offering guidance and clarification on various aspects of Jewish law. 7. Community Engagement: AI-driven chatbots or virtual assistants can provide answers to common Halakhic questions, offer guidance on daily practices, and engage with community members to promote a deeper understanding of Halakhah. It is important to note that while AI can be a valuable tool in Halakhic decision-making, it should not replace the role of rabbis, scholars, and community leaders who have received extensive training and possess a deep understanding of the nuances of Halakhah. AI should be viewed as a complementary resource to assist them in their decision-making processes. Furthermore, the development and implementation of AI for Halakhah must involve careful consideration of ethical, cultural, and religious sensitivities to ensure that it aligns with the values and principles of the Jewish community. As AI technology continues to advance, its role in Halakhic decision-making is likely to evolve and become an increasingly valuable resource for Jewish scholars and communities seeking to navigate the complexities of Jewish law.
|
הטקסט הזה די גנרי, וניתן לראות תשובות דומות, צפויות למדיי, לשאלות מהסוג הזה. אחרי התיאור של אופני השימוש האפשריים בבינה מלאכותית, בשתי הפסקאות האחרונות הוא מגיע לסיכום, ואתרגם אותו כאן:
חשוב לציין כי בעוד שבינה מלאכותית יכולה להוות כלי רב ערך בקבלת החלטות הלכתית, היא לא אמורה להחליף את תפקידם של רבנים, תלמידי חכמים ומנהיגי קהילה שעברו הכשרה מקיפה ובעלי הבנה עמוקה בניואנסים של ההלכה. יש לראות בינה מלאכותית כמשאב משלים כדי לסייע להם בתהליכי קבלת ההחלטות שלהם.
יתר על כן, הפיתוח והיישום של בינה מלאכותית להלכה חייבים לכלול בחינה מדוקדקת של רגישויות אתיות, תרבותיות ודתיות כדי להבטיח שהיא תואמת את הערכים והעקרונות של הקהילה היהודית. ככל שטכנולוגיית הבינה המלאכותית ממשיכה להתקדם, תפקידה בקבלת החלטות הלכתית עשוי להתפתח ולהפוך למשאב בעל ערך הולך וגובר עבור מלומדים וקהילות יהודים המבקשים לנווט במורכבות המשפט העברי
אני חייב לומר שמסקנתו דומה למדיי לזו של הרב שרלו. מעבר לפתיח הבנאלי על האפשרויות השונות להשתמש ב-AI, הוא מסיים באזהרות שבהן מסתיימת כל התייחסות שלו לשימוש בבינה מלאכותית. בעצם הוא אומר שה-AI יכול להיות חברותא של הפוסק, להציע לו פסק וטיעונים, אבל הפוסק הוא שאמור להכריע. לא תמצאו בדבריו חידוש כלשהו מעבר לסיכום צפוי וגנרי של הסוגיה. גם טקסט כזה הוא הישג מרשים לבינה מלאכותית כמובן, אבל בינתיים זה רחוק מלהחליף תשובה של אדם יצירתי. אני מניח שבעתיד הלא רחוק גם זה יגיע. השאלה האם מותר או ראוי להשתמש בו, אחרי שנבדוק שהוא אכן יכול למלא את כל הפונקציות שתיארתי? אם משתחררים מהפוביות ומצליחים לדון בזה לגופו, לדעתי אין שום מניעה לכך.
[1] אמנם במצב הנוכחי אם לא יהיו אנשים שייצרו תוכן, לתוכנת הבינה המלאכותית לא יהיו מקורות שיזינו ויאמנו אותה. יש בעיה כלשהי בהסתמכות מוחלטת על התוכנה. אמנם ככל שאני מבין גם הזנת התוכן יכולה לעבור אט אט לתוכנות הללו.
[2] הרב מלכה שלח אליי את מחקרו המקיף, והיו לנו מעט דיונים לגביו. בסופו של דבר הוא כנראה לא פורסם ואיני יודע מדוע.
[3] הרב שרלו ציין שיש מקום לחלוק על התפיסה שגורסת שהפסק צריך להיות תלוי באדם בגלל שדרושה שקיפות הלכתית, כלומר שההלכה אמורה להיות אובייקטיבית. חשוב לי לצין שטענתי היא שונה. אני לא טוען מכוח שקיפות אלא בגלל שאין בהלכה שורה תחתונה אחת, ותפקידו של פוסק הוא להציג את כל האלטרנטיבות.
[4] בהקשר זה הרב שרלו הזכיר שם את השאלה האם מכונה תוכל לספר בדיחות. אני בהחלט חושב שלפחות בעתיד כן (ברמה כלשהי להערכתי זה נכון כבר היום).
חבל שהרב לא מסתובב בבני ברק שם כבר יש מודעות ברחובות שהתוכנה הזאת יותר גרועה אפילו מאינטרנט רח"ל וקראתי שהאדמו"ר מבאבוב מחו"ל אמר שזה חטא עץ הדעת והדברים נפלאים .
מרתק. ההתפתחות העכשווית של הai היא מהפכת הreasoning, כך שאין מניעה עתידית שנראה מערכות מתוחכמות יותר משל ר' חיים והשערי יושר שהai תנפיק בשניות. זה ממש מעורר שאלה אם כך מה תהיה מערכת היחסים בין סיני לעוקר הרים? אלו דגשים יהיו חשובים ללימוד התורה בעידן בו הai נותן תירוצים למדניים טובים יותר מבני האדם? אם המהפכה האינטרנטית היא בחינת סיני ולכן היה ערך גדול יותר לעוקר הרים, ומהפכת הai היא עוקרת הרים, אז איך יראה לימוד התורה בעידן כזה? האם ערך עוקר ההרים ירד מגדולתו ויינתן דגש לימודי אחר?
אולי דגש אקזיסטנציאלי יותר? החוויה הרליגיוזית היא זו שתהיה בעלת הערך המשמעותי?
אני חושב שכבר מזמן הערך של סיני ירד פלאים. זה לא תלוי ב-AI. לגבי היחס בין AI לאדם, זה מתוכנן להיות נושא הטור הבא.
כן ברור שערך סיני ירד, החידוש בai זה ירידת ערך העוקר הרים, זאת הייתה כוונתי. אם הai למדן פי אלף יותר מוכשר מכל הלמדנים בבני ברק, אז איזה לימוד יתפוס את הערך המשמעותי? ערך הסיני ירד כבר ממהפכת האינטרנט, זה אני מסכים לגמרי
אני לא חושב שזו שאלה. הערך של הלימוד הוא בזה שאני לומד ושהתורה מוטמעת בה ואני עוסק בה. זה לא משתנה אם יש AI שעושה זאת טוב יותר. בדיוק כמו שקיומו של גאון למדני לא מייתר את הלימוד שלי או שלך.
אני חושב שהוא התכוון לשאול האם המכונה תהנה מהבדיחה. בהנחה שהכל במוח ולא מוכרח ממד רוחני בשביל להגיע למודעות (consciousness) עדיין צריך לפתח מכונה עם רשתות עצביות שיוצרות דבר כזה. זה תחום עמום לחלוטין ולבטח מורכב אינסוף וחשוב מכל – אין תועלת אמיתית מפיתוח רובוט עם מודעות וממילא אף אחד לא באמת עוסק בזה. זה קשה מדי בשביל להיות תחביב גרידא
השאלה הנכונה – האם מכונה תוכל לצחוק מבדיחות ?
ברור שכן. אם יודעת לספרבדיחה היא תדע גם לצחוק ממנה (טכנית)
איך תראה התעסוקה בעידן שבו הבינה המלאכותית תהיה חכמה מאיתנו? נצטרך בכלל ללמוד מתמטיקה ואנגלית כלימודי ליבה?
לא יודע. זה כמובן תלוי יד היכן היא תגיע
הפנה את השאלה אל הבינה המלאכותית….
שבוע מבורך.
אם מבחינה מהותית כבודו חושב שמחשב יכול לפסוק אם כן גם גוי וקטן וכו׳ הרב יטען שפסקם תקף?
בהחלט. אין דבר כזה פסק תקף. יש מי שיודע ומי שלא יודע. לגבי גוי אתה יכול לחשוד שגם אם יודע הוא לא יאמר אמת. אם אין לך חשש והוא דומה בעיניך כמלאך ה' קבל תורה מפיהו.
הרב לא מקבל את מאמר חז"ל שחכמה בגוים תאמין אבל לא תורה?
תלוי מה כוונתו. בפועל אין תורה בגוים כי הם לא לומדים אותה. אבל להערכתי עקרונית גוי יכול להיות תלמיד חכם. אבל גם זה לא חשוב, כי גם אם אניח שהוא לא יכול להיות, כשאבדוק ואראה שהוא כן – אקבל זאת.
ככ הרבה טקסט שלט אמר כלום?
תשאל עכשיו את הצ'אט שוב את השאלה שלך. כעת התשובה תיקח בחשבון גם את המאמר שכתבת.
שלום
הזכרת את הסרט "her", מה שהזכיר לי תהייה לגבי סדרה שראיתי. הסדרה נקראת "westworld", פארק שעשועים בדיוני שמאכלס מארחים רובוטים דמויי אדם (בצורה שאי אפשר להבחין בכלל שהם רובוטים). הפארק מיועד לאנשים בעלי שכר גבוה, ושם הם יכולים לממש את הפנטזיות שלהם. הם יכולים לעשות שם כל מה שהם רק רוצים – לטוב ולרע. הם יכולים גם לרצוח, לאנוס, וכו', וכל זאת בעוד שהרובוטים מתוכנתים בצורה כזו שהם לא יכולים להרוג את המתארחים.
העלילה סובבת סביב שני חברים שנכנסים לשם והאחד מרשה לעצמו להתפרע (הורג, מתעלל, אונס) בעוד שהחבר השני לא מסוגל לפגוע במארחים, למרות שהם בסך הכל רובוטים משוכללים מאוד.
מצד אחד יש לי התחושה שזה לא מוסרי. מצד שני אין פה בכלל פגיעה בבני אדם (גם לפי הצו הקטגורי אני לא מוצאת פה בעיה). זה כמו לפגוע בקיר או בכל דבר דומם אחר (נראה שההבדל היחיד הוא מה שמתחולל בתוך האדם עצמו כשהוא עושה את המעשה. אם אפגע בקיר זה לא ייצור בי איזה רושם, אבל אם אפגע ב"אדם" שבעצם הוא מכונה, זה כן ייצור בתוכי כנראה רשמים שליליים ויהפוך אותי לאדם רע).
זה גם הזכיר לי את ההבחנה שלך בין 'ערכים מוסריים' ל'ערכים אנושיים'. חשבתי לשייך את זה לערכים האנושיים, אבל בכל זאת משהו פה נראה לי לא מוסרי.
אשמח לשמוע מה אתה חושב.
אני לא חושב שיש ליחס אליהם משמעות מוסרית. אולי כאמצעי לא ליצור קהות בנפש כלפי יחס כזה. כמו שמסבירים את הכרת הטוב של משה כלפי היאור (שאהרון היה זה שהצטווה להכות אותו בגלל שמשה חייב לו הכרת הטוב). שכלול של מכונה לא מוציאה מכלל מכונה. זה נושא הטור הבא.
לכאורה זה המשך של משחקי מחשב אלימים עם גרפיקה שהולכת ומשתכללת (והדיון העולמי עליהם, אם כי כנראה בעיקר סביב השאלה האם הם משפיעים על ההתנהגות ולאיזה צד, ולא בשאלה האם זה ראוי בפנ"ע).
לגבי אנלוגיות, אציין שג'יפיטי מתמחה ברדוקציות של בעיות אלגוריתמיות (ואחרות). אם עד היום בהגיע תור בעיה שנראית כללית היה צורך להתאמץ להפשיט ולנסות לאתר בגוגל את המושג המתאים ולשאול חבר וכו', הרי שהיום אני מספר בפירוט לנ"ל והוא משיב שזאת בעצם בעיה פלונית (כגון מקסימל אינדפנדנט סט). ועוד מעין זה, כשבאים לבחון פטנט צריך לבדוק שהעניין הוא אכן חידוש, והבעיה היא שלפעמים אם בעלי הפטנט נתקלו בו באיזור החיוג המצומצם שלהם אז הם מחפשים רק בהקשר שלהם ולא מוצאים, ואילו אם תופסים את הבעיה בצורה יותר כללית אז אפשר לראות שהרעיון הזה כבר קיים, או שכאשר מזהים שהבעיה היא כללית וידועה ואעפ"כ לא חשבו על הפיתרון הזה אז צריך לבדוק בחשדנות רבה יותר את העניין (ואם אעפ"כ מציגים את הפטנט אז להציג אותו במלוא תוקפו על הבעיה הכללית והמוכרת). הוא עושה את זה ממש טוב. כנראה את אלה אתה מחשיב (בצדק) לאנלוגיות לא יצירתיות, ורק באתי לציין שהיכולת הזו להתלבש על מקרים פרטיים ולבצע עצמאית את המעבר הכללי כלפי מעלה, היא אחד היתרונות החשובים של הכלים הללו על פני גוגל.
אפשר לחלק בין אנלוגיות אנליטיות (כמו רדוקציה של בעיה) לבין אנלוגיות סינטטיות (שבה האנלוגיה היא טענה, כמו למשל מה שהבאת מר"מ פיינשטיין על תאומי סיאם, וכמותה רבות)
אכן. אגע בזה עוד קצת בטור הבא.
אני הבנתי שכוונת הרב יעקב אריאל לומר שהלכה זה לא מדע מדוייק (כמו שהרמב"ן כותב בהקדמה למלחמות השם), אלא נקבעת הרבה פעמים ע"פ נורמות של בני אדם. כלומר, מה שקובע בהלכה זה החשיבה של האדם ולא יכולת הדיוק של מחשב. כמו שאנחנו נושמים אע"פ שיש חיידקים באוויר ע"פ הכלל 'לא ניתנה תורה למלאכי השרת', למרות שאולי בהיסק הלכתי גרידא היה אסור. זה הכוונה ש'שכל האדם' קובע, לא שיש 'סמכות'.
סברא נחשבת 'ישרה' בגלל שהאדם קובע שהיא נראית נכונה\נכנסת יותר במילים וכד', ולא קרטריונים אוביקטיבים. ולכן אם מחשב אומר שסברא אחת ישרה, ואדם אומר הפוך נקשיב לאדם (למרות שכמובן נקרא את מה שהמחשב כתב כי אולי יפנה אותנו למקור שלא שמנו לה אליו).
אבל גם מדע לא מדויק התוכנה יכולה אולי לעשות. השאלה האם התשובות שלה נכונות או לא. אם התוכנה עומדת מול פוסק זה דיון אחר, וגם שם זה תלוי האם אתמחי התוכנה או לא. אם כן, אז אולי אקבל את טענתה. אבל כל הדיון הזה אינו רלוונטי בעיניי, שכן אני לא סומך לא על פוסק ולא על התוכנה. הטיעונים מדברים ולא הטוענים.
באדם שבר הכי ויש לו דעה אישית אני מסכים שזה לא משנה.
אבל לאדם שלא יודע לפסוק לעצמו, איך הוא יכול לפסוק ע"פ המחשב? אם זה לא מדע מדוייק אז ע"פ מה מחליטים? ע"פ ההגיון האנושי, וזה לא הגיון אנושי.
ואם זה פוסק מול מחשב אז הטענה מתחזקת.
ואולי את כל הטקסט הזה כתבה המכונה?
מצינו 'העושה כדברי ב"ש עשה, כדברי ב"ה עשה' ואפילו בדאורייתא
נראה שיש אפשרות לסמוך על רב. לא כך?
לגבי דין זה – בינה מלאכותית דאי אינה נחשבת אלא ל'מקבץ מידע'.
מי שאינו יודע לפסוק בוחר לעצמו רב כמובן. אבל הרב הזה אינו אלא מקבץ מידע שחושב באופן שנראה לי סביר ומתאים לי.
הופה.
בטעות העליתי שאלה חדשה.
למה אני לא מקבל למייל את התגובות/ תשובות על שאלות שלי?
העברתי לאורן שיבדוק.
'עושה כדברי ב"ש' זה גם בדינים מדאורייתא שידוע עליהם שצריך להחמיר בספק, ואעפ"כ מותר להתנהג כדעה אחת כשידוע שיש מחלוקת בדבר, והנוהג מחומרי שניהם נחשב לכסיל.
רואים שיש דין מעבר לקיבוץ מידע.
צריך להחמיר כשאתה בספק. לא בכל מקום שיש מחלוקת צריך להחמיר. ההיתר לנהוג כאחת מהן כשאתה בספק לא קשור לסמכויות הצדדים. גם לגבי AI זה כך, כל עוד זה פוסק מיומן. מותר (ולא חובה) לסמוך על מי שיודע את החומר. זה קיבוץ מידע לגמרי.
הנוהג כחומרי שניהם הוא כסיל כשיש סתירה ביניהם.
לא הבנתי
כשיש מח' ב"ש – ב"ה בדין דאורייתא, אומרת הברייתא עשה כדברי ב"ש עשה, כדברי ב"ה עשה. כלומר – אפשר להחליט שאני שומע לרב מסוים.
מצינו גם שבני עירו של ר' יוסי הגלילי ור' אליעזר נהגו כמותם (בשר עוף בחלב ומכשירי או"נ)
רואים ברור דין סמכות של רב מעבר ל'מקבץ מידע'?
לא. אפשר להחליט שאתה עושה כדעה הלכתית מסוימת (גם של AI), ולא דווקא שומע לרב מסוים. וגם זה כשאין לך עמדה משלך.
כשנוהגים בעיר כדעת רב העיר זה לא נוגע לנדון דידן. למרא דאתרא יש סמכות מכוח המחאת הציבור.
בשום פנים לא הייתי מקבל ״פסיקת הלכה״ של בינה מלאכותית.
גם אם היא תקלע בול למסקנות נכונות.
מדוע?
מסיבה פשוטה.
הלכה היא עניין של בין אדם למצווהו.
הפוסק מחוייב ורשאי לפסוק עבור מי שגם הוא מחוייב כמוהו.
בינה מלאכותית לא מצווה בכלום.
והיאך היא תגיד לי מה לעשות?
כנ״ל, נניח שיש גוי ״תלמיד חכם״ עצום.
שלמד לשם לימוד אינטלקטואלי, ולא מתוך כוונה להתגייר, או בגלל שהוא מחבב במיוחד את היהדות (במקרים כאלה הייתי שוקל)
הגוי הזה יודע לפסוק ברמה גבוהה, האם אפעל ע״פ פסיקתו?
התשובה שלילית באופן חד משמעי.
למה?
כי הגוי אינו מצווה, ומכאן אין לו את הבינה הדקה מן הדקה כדי לקלוע לאמת.
וגם אם פסקו זהה לפסק של רב, גם אז אמתין לפסק של הרב ולא אפעל ע״פ פסקו של הגוי.
אז בינה מלאכותית???
אתה סותר את עצמך
בראשית הדברים כתבת "גם אם היא תקלע בול למסקנות נכונות" כלומר יש לך סיבה לא לקבל את הפסיקה מסיבות שאינן קשורות לאמיתותה
והנה "ומכאן אין לו את הבינה הדקה מן הדקה כדי לקלוע לאמת." חזרת לנושא האמת שבפסיקה
בקיצור הבלים בלי טענה ממשית
ללא רגולציה הסכנה ב AI תתממש לדעתי. במוקדם או במאוחר תיווצר ישות בעלת יכולת self-assembly, כלומר יכולת אוטונומית לשדרג ולשכפל את עצמה בדומה ליכולת אבולוציונית גנטית, והדבר יכול להעשות לא רק ברמת התוכנה בדומה ל genetic algorithm, אלא אף ברמה פיזית – אולי דרך ננו טכנולוגיה. ייתכן שאותו דרייב אבולוציוני לשרוד הוא מה שמפריד בין מכונה ליצור חי ומודע, רק שבגרסה מפלצתית וניהליסטית בהרבה, כיוון שהיא תתעלה מעל מגבלות המוח האנושי. ואם נחזור לפסיקת הלכה: ככל שזה נוגע לטכנוקרטיה הלכתית, כלומר שאלות שלטעמי אין להם כל משמעות מהותית והם שטות מוחלטת, כמו לגבי ביצה שנולדה ביום טוב, או שאלת השאלות: האם מותר לשקר לאפליקציית וויז, אין לי ספק ש AI יהיה נפלא. ומעבר לכך, AI עשויה לאפשר להעביר את תהליך קבלת ההחלטה מהרב לשואל השאלה – כלומר הוא יקבל מידע רחב והמון אופציות שיאפשרו לו לקבל החלטה ולהפוך לפוסק של עצמו, בהתאם לאישיותו וצרכיו, בדומה לרפואה אישית המותאמת למבנה הגנום והפרוטאום האישי. אולי באופן פרדוקסלי זה דווקא יהפוך את תהליך הלימוד האישי למשהו בעל משמעות, ויאפשר אינטגרציה של מידע\ תרבות ומוסר חוץ-הלכתי, הגברת הקישוריות בין אנשים, והעברת מיקוד השליטה לאינדיווידואל או למשפחה. אולי כן ואולי לא.
הרב,
להבנתי, מה שבינה מלאכותית מהסוג של ChatGPT (ואולי כל הסוגים) מתבסס עליו הוא מציאת קורלציות. שאלתי היא האם לדעת הרב כל החשיבה האנושית מסתכמת בזה? אם כן, נשמע סביר שהבינה המלאכותית תחליף חלק עצום ממקצועות הידע והחשיבה. אם לא, אז השאלה פתוחה לדעתי.
הרב פעמים רבות מזכיר את האינטואציה ככלי שהוא בין חוש (הכרת המציאות) למחשבה (ניתוח והבנת המציאות). האם לדעת הרב אינטואציה כזו היא כלי חיוני להגעה למסקנות נכונות בפסיקת הלכה? אם כן, האם הרב סובר שבינה מאלכותית תוכל לחקות אותה?
אני כשלעצמי מתלבט בדברים האלו. יש לציין שאני דוקטור לפיסיקה (ובוגר ירוחם…), לא פילוסוף ולא איש מדעי המחשב, אז בהחלט ייתכן שהתיאור שלי של הבינה המלאכותית לא מדוייק…
זו לא מציאת קורלציות, לפחות לא ישירות. זה מבנה מורכב של רשת שמתאמנת על נתונים רבים מאד. בשורה התחתונה אולי ניתן לומר שהיא מוצאת קורלציות, אבל זו אינה פעולתה הישירה.
הטור הבא ייגע בנושא הזה. אין לי כמובן תשובה ודומני שלאף אחד אין.
אולי אפשר לשאול גם- האם במחשבה שלנו יש רק תחזית על פי הידע שברשותנו, או שיש בה מעבר לזה, ויכולת ליצור "יש מאין" במובן מסויים, והאם זה קיים או לא בלמידת מכונה
זו בעצם השאלה הקודמת. כאמור, אין לי תשובה לזה. אני משער שיש בנו משהו מעבר ליישום מידע קיים. להבנתי, אינטואיציה היא כושר הכרתי. אני אופתע מאד אם תהיה תוכנה שתצליח לעשות כל מה שאדם עושה. אבל גם אם כן, איני בטוח שאני טועה בתפיסתי. ייתכן שהמבנה של המוח שלנו אחראי ליצירתיות, ואם מצליחים ליצור מוח מלאכותי אז גם לו יהיו הכישורים הללו.
האם בטור הבא התשובה תובהר יותר? (איך תוכנה תוכל להפיק תוצאות שדרושה להם הכרה ולא רק חשיבה (יצירתית), מה התפקיד של היצירתיות כאן).
אני לא מתכנן להיכנס לדיון המסוים הזה, ולו רק מפני שאין לי דרך טובה לנהל אותו. ככלל, יש מקום לומר שהראייה האידיתית מסתכלת על אירועים ועובדות ורואה דרכם את הרעיונות הכלליים (האידאות). אם יש דרך כלשהי להסיק את זה מאלו (לבחור את האבדוקציה והאינדוקציה הנכונה), אז אולי ניתן גם לבנות מכונה שתעשה זאת.
מה שהוא כותב כאן זה לכיף שלו וכותב על מה שעל ליבו, לא אוהב? אל תקרא, והלימודים באקדמיה את זה אתה צריך לטעון על כל מלמדי האקדמיה.
ומה ההבדל בין מורה לאיש אקדמיה? ( חוץ משמורה הוא יותר קרוב לביביסיטר)
בטוח אתה חרדי
מסקנתו הפחות מנומקת של הצ'אט בוט יכולה להיות מושפעת מהרבה טקסטים המושפעים מפוביות (או שהיא תרגיל שלו כדי לשחרר פוביות). ובכל זאת, חסרה בטור המרתק התייחסות להשלכות הסוציולוגיות של הייתור של הסמכות הפוסקת האנושית, של שרי אלפים ושרי מאות ואולי אף יותר של שרי חמישים. דבר שוודאי עמד לנגד עיני חז"ל כגון בדברים המותרים ואחרים נהגו בהן איסור וכו'.
קראתי מאמר של הרב מיכאל אברהם, בו הוא דן בשאלת הבינה המלאכותית כפוסקת הלכות. הוא מצטט שם את דברי הרב יעקב אריאל ומתפלמס איתם, וזה לשונם:
ראיתי לא מזמן מאמר קצר ובו התייחסות של הרב יעקב אריאל לפסיקת הלכה על ידי בינה מלאכותית:
"רבותי, ראשית כל הלכה למעשה: בינה מלאכותית לא יכולה לפסוק הלכה, אלא פוסקים הלכה לפי השכל הישר. שכל של מחשב איננו שכל של בן אדם, גם אם הוא מפותח מאוד ומשוכלל, זו לא מחשבה אנושית, הלכה לא יכולה להפסק על ידי מחשבה של מחשב אלא על ידי מחשבה אנושית", אמר הרב אריאל.
הוא הוסיף כי "אם בינה מלאכותית תמציא לנו פסק הלכה, זה רבל'ה שלא שווה כלום, אני לא אומר שאי אפשר לקרוא מה שאומר, אבל לפסוק על פיה? לא. אם המחשב יגיד לך סברה, אם תגיד סברה הפוכה, יכול להיות שיותר נכונה. לא לסמוך עליו. הדיון הוא חדש ועדיין לא ראיתי הרבה תוצאות של הדבר הזה".
"המחשב לא מוסמך לפסוק הלכות, אם הוא כשר או לא כשר. הרב מנשה קליין בעל שות 'משנה הלכות' אומר שעדיף ספר תורה שאדם בדק אותו וטעה, מאשר מחשב שבדק אותו ולא טעה", סיכם הרב אריאל.
לא ברור האם כוונתו לטעון שיש חשש שהפסיקה תהיה מוטעית, או לקבוע שבאופן עקרוני למחשב אין סמכות לפסוק הלכה. החשש שמא הפסיקה אינה נכונה (כלומר לא תואמת ל'שכל הישר', האנושי) הוא עניין כמעט עובדתי. זה כמובן תלוי באיכות המכונה, אבל כיום המכונות כבר מתקרבות לאיכויות שיכולות לפסוק הלכה. את זה אפשר לבחון על ידי ניסוי. ניתן לתת למכונה לפסוק הלכה במקרים שונים ולבדוק את התוצאות על ידי פוסקים. כך, למשל, ניתן לבחון אותה במבחני הסמכה לרבנות (דומני שדווקא בסוג המבחנים הזה המכונות יוכלו לעמוד לא רע. ככל שאני מתרשם, לא בודקים שם חשיבה יצירתית ומקורית), ואם היא עומדת במבחנים אזי ניתן לתת לה לפסוק. גם פוסק אנושי שעבר את כל המבחנים יכול לטעות. צריך להיזהר כאן מהפוביות שתיארתי למעלה.
אם הוא מתכוון לומר שאין לה סמכות עקרונית לפסוק הלכה, על כך אני חולק לחלוטין. לא בגלל הערכתי הרבה למכונות, וגם לא בגלל הערכה מועטת לפוסקים האנושיים. אני טוען שאין דבר כזה 'סמכות לפסוק הלכה'. פוסקי זמננו, להבדיל מהסנהדראות או אולי מהתלמוד, פוסקים רק מפני שהם מומחים לדבר. אין להם סמכות פורמלית, וסמכותם היא מהותית (ראו למשל בטור 393 על ההבדל בין שתי אלו). אין חובה לציית להם, אבל יש הנחה שפסיקתם כנראה נכונה ואפשר לסמוך עליה. מכונה יכולה גם היא להגיע למצב כזה, ואז אין שום מניעה לתת לה לפסוק.
הפסקה האחרונה שמזכירה את דברי המשנה הלכות, בבירור אינה מדברת על חשש מטעות. הרי הוא מדבר על מצב שהבודק הממוחשב לא טעה ואדם שכן טעה. כלומר יש שם טענה לגבי סמכות עקרונית של מחשב בתחומים הללו. זו בעיניי ממש אמירה הזויה. אם המחשב באמת קולע לאמת טוב יותר מבודק אנושי (ובדיקה של סת"ם זו משימה קלסית למחשב, הרבה יותר מאשר פסיקת הלכה), מדוע לא לתת לו לעשות זאת ולסמוך עליו? מדוע עדיף אדם שטועה על פני מחשב צודק? מניין הוא לוקח את רעיון העוועים הזה? זה נראה כמו אחת הפוביות שתיארתי למעלה.
כל עוד פסיקת ההלכה היא ניסיון לנתח בעיה ולהגיע לתשובה ההלכתית הנכונה, זו משימה שבהחלט ניתן לתת למכונה. כאשר נהיה במצב שבו הפסיקות יקבלו מעמד של סמכות מחייבת (למשל ליצור סנהדרין ממכונות חושבות), שם יש אולי מקום לדיון כזה.
אני סבור שהרב אברהם טועה. המצב בו השואל מגיע לרב, מציע לפניו שאלתו, ומקבל ממנו תשובה מתירה או אוסרת, בהחלט שייך לתחום הסמכות הפורמלית, ואשר על כן אי אפשר למנות מכונה לתפקיד זה.
ואסביר תוך כדי הוכחה. הגמרא במסכת עבודה זרה דף ז' ע"א קובעת:
ת"ר: הנשאל לחכם וטימא – לא ישאל לחכם ויטהר, לחכם ואסר – לא ישאל לחכם ויתיר; היו שנים, אחד מטמא ואחד מטהר, אחד אוסר ואחד מתיר, אם היה אחד מהם גדול מחבירו בחכמה ובמנין – הלך אחריו, ואם לאו – הלך אחר המחמיר; ר' יהושע בן קרחה אומר: בשל תורה הלך אחר המחמיר, בשל סופרים הלך אחר המיקל. א"ר יוסף: הלכתא כרבי יהושע בן קרחה.
המחלוקת ההלכתית, הינה חלק אינטגרלי ממסורת התורה. סברות חלוקות ודעות שונות התקיימו תמיד אלו לצד אלו, כאשר כל חכם בישראל נוהג לפי עמדתו הוא כל עוד לא התקיים דיון בבית הגדול והוכרע על פי רוב לשלילה. ברור, שחכם אשר מכוח עיונו או הבנתו את קבלת רבותיו הגיע למסקנה מקילה, אינו אמור לשנות את דעתו ואת הנהגתו מחמת חבירו המחמיר אף אם הלה גדול ממנו בחכמה ובמנין.
הברייתא מתייחסת לאדם שאיננו חכם, אין לו דעה כלל בעניין הנידון אם מחמת חוסר ידיעה, אם מחמת חוסר הבנה, והוא נשאל לחכם, או במקרה שלנו לחכמים. כאשר יש מחלוקת, אין הוא יכול לסמוך על המתיר, כי הוא מודע לכך שיש דעה אוסרת. במקרה כזה מוצגת לו הדרכה מפורטת השנויה אף היא במחלוקת, אך לכל הדעות בחשש של איסור תורה עליו להחמיר, בעוד בחשש של איסור דרבנן נפסקה הלכה שיכול הוא להקל.
איך זה שבכל זאת אין אנו מחמירים בכל מחלוקת הלכתית בדיני בורר בשבת? איך זה שאנו מקבלים להלכה דעות מקילות?
התשובה אמורה להתבסס על הדגשת ההבדל בין שואל לשני חכמים, ולבין שואל לחכם אחד. הרעיון הוא, כי נותן התורה ידע אף הוא שלא כל אחד יוכל ללבן כל הלכה בצורה עצמאית שתתיר לו להתעלם מדעות אחרות ושונות, ולכן יש את מנגנון הנשאל לחכם, כאשר הוראת האחרון נהפכת כביכול לדעתו העצמאית של השואל, עד כדי אפשור הסתמכות על דעה זו אף לקולא בניגוד לדעות מחמירות אחרות.
כאשר באיזור מסוים קבלו על עצמם את הכרעת הרמ"א, הרי נהפך הוא לרבם. ולכן, גם אם להמון העם אין כל יכולת להכריע במחלוקותיו עם המחבר, עדיין מותר להם להקל על סמך דעתו גם בדיני תורה.
בדברי חז"ל אנו מוצאים כי ישנו מושג "מרא דאתרא", אשר בתרגומו המילולי משמעו "אדון המקום". ואכן, במקומו של ר' אליעזר היו כורתים עצים לעשות פחמין לעשות ברזל בשבת לצורך מילה (שבת דף ק"ל ע"א) למרות פסיקתם המחמירה של חבריו, כי במקומו שלו כל בני העיר כפופים לו ולדעתו, ורשאים הם לסמוך עליו מבלי לחשוש לדעות אחרות גם באיסור חמור של תורה.
השואל לחכם, מקבל על עצמו חכם זה כרבו לכל הפחות לגבי שאלה זו, ולכן יכול הוא לסמוך על תשובתו המקילה כאשר אין עליו לחשוש שיש דעות אחרות האוסרות. זאת בניגוד לשואל לשני חכמים, אשר תשובות שניהם תקפות לגביו באופן שווה, ולכן יש למצוא את הדרך להכריע.
כמובן, שעל מנת שנוכל לתת תוקף להוראת החכם, עליה להיות דעה עצמאית ומגובשת. באם המורה אינו מחויב במצוות ואין לו כשירות הלכתית להורות אף לעצמו, לא יוכל השואל לסמוך על הוראה מעין זו.
הבינה המלאכותית, יכולה להביא את כל הנתונים בפני השואל. במידה והלה בר הכי, ויכול להכריע בעצמו מתוך סבך השיטות והדעות מהי הנכונה לגביו, הרי היא משמשת כאנציקלופדיה רחבת היקף הפורסת את כל המידע בפני השואל, כאשר הוא זה שמכריע לעצמו. במקרה כזה, ברור שהרב אברהם צודק ואין כל מניעה מלהשתמש בשירותיה ככל שיתגברו בעתיד על בעיות אמינותה והדומות לה.
אך במקרה הנפוץ, בו השואל אינו חכם ואין לו שמץ הבנה בסוגיות הנוגעות לשאלתו, הצגת כל הדעות לפניו כמובן לא תעזור לו. וגם אם המכונה תחקה את חישוביו של מורה הוראה בישראל, ותנפיק לו הוראה ברורה להיתר על סמך המידע שלפניו, לא יוכל השואל לסמוך על הוראה זו בניגוד לדעות אחרות האוסרות, כי אין כאן הוראה. על מנת שיוכל השואל להקל במקום שיש אוסר, צריך הכרעה של המורה התקפה גם לגבי עצמו, ולאחר שיש להכרעה זו שם הוראה, יוכל השואל לאמצה כביכול הייתה זו דעתו העצמאית.
דומני, שלכך כיוון הרב אריאל בדבריו. פסיקת הלכה מתבצעת על ידי דעה של חכם הסבור כצד אחד בדיון, עד כדי הסתמכותו על עמדתו לקולא. ולכן אף שואליו שהם כתלמידיו, יכולים להסתמך על הוראתו זו. ברגע שאין כאן דעה של חכם, אלא אלגוריתם אשר משתמש בחישובים זהים לחכם המכריע, ולכן בוחר להקל נגד דעת האוסרים, המשתמש המקבל את המידע אינו זכאי להסתמך על ההכרעה המקילה כי יש מחמירים.
ההוראה המצוטטת בשם הרב מנשה קליין, אכן תמוהה בצורתה הנוכחית. לפי זכרוני המשנה הלכות התנגד נחרצות למיכון ההגהה בסת"ם מחמת חששות שונות, חלקן מובנות חלקן לא כל כך. אך המציאות מוכיחה שגם כיום אין אנו מסתמכים רק על הגהה ממוחשבת ונזקקים גם לזו האנושית. ניתן להסביר זאת בפספוסים של התוכנה, אך נימוק זה יתכן שיעלם ככל שהתחום הזה יתפתח.
אך האמת היא, שהסתמכותנו על הגהה אנושית על מנת לקבוע שהספר כשר נעוצה בכך שאדם יכול לסמוך על בדיקה עצמאית שלו לגבי עצמו. לאחר שהוא קובע שמבחינתו הספר כשר, אף חבירו יכול להסתמך על קביעה זו גם ללא בדיקה מחודשת. וזה דין עד אחד נאמן באיסורים. גוי שכשרות הספר איננה רלוונטית עבורו, גם אם ננטרל את בעיית האמינות, לא נוכל להסתמך על קביעתו לגבי כשרות הספר, כי אנו זקוקים לקביעה הלכתית ולא רק לנתונים, וקביעה כזו יכול להנפיק רק יהודי כשר. ואכן, קביעה זו גם אם היא מוטעית תקפה – כל עוד לא נודעה הטעות – יותר מקביעה ממוחשבת אשר אין לה כל תוקף, גם אם היא במקרה נכונה.
אלא שבכל זאת לא הייתי ממהר לאמץ את הוראת רבי מנשה. כי כל מה שאנו זקוקים להגהה אינו אלא מחמת הספק בו אנו שרויים שמא טעה הסופר כמנהג בני אנוש. במידה והמחשב יהיה מפותח ללא כל פספוסים עד כדי חזקת אמינות מוחלטת, נוכל על ידי הגהת המחשב לצאת מידי ספק, ואז לא נזדקק לקביעה ההלכתית האנושית.
שלום רב.
מופרך לגמרי. כל מה שהוא מביא שם אינו רלוונטי לדיון שלו עצמו.
הדיון על חכם שאסר נוגע לכבודו של החכם שהורה, ואני מניח כמוהו שאין חובה לתת כבוד לתוכנה. אז מה? זה רק אומר שאם היא תורה לי אוכל לפנות לחכם או לתוכנה אחרת ולשאול שוב. האם זה אומר שהיא לא יכולה להורות הלכה, או שאי אפשר לסמוך עליה? מה הקשר?
תורף טענתו אינה אלא הנחת המבוקש פשוטה: הוא מניח שהוראת הבינה המלאכותית לא יכולה לסתור דעה מחמירה אחרת. אבל זאת גופא מניין לו? מהיכן הוא הוציא את התזה הזאת? לא מהמקור שהוא הביא ולא מהדיון שהוא ערך בעקבותיו. מה עוד שבד"כ הבינה המלאכותית תורה לשואל כמו דעה של חכם אנושי שמיקל, שהרי יש הרבה חכמים והרבה דעות, ואם היא אומנה נכון היא תענה כדעה הלכתית מקובלת. בקיצור, איני רואה כאן שום טיעון רלוונטי.
https://news.walla.co.il/item/3655511