האם מודל AI טיפולי יכול לעשות כשל אמפתי?

 

 מודל AI, כמו ChatGPT לא יכול לעשות כשל אמפתי, לפחות לא במובן האנושי.

כשל אמפתי מתרחש דווקא אצל מטפל בשר ודם - כאשר מתרחשת החמצה או פגיעה רגשית, מיקרו-שבר שמזמין חוויה רגשית מתקנת בתוך מערכת היחסים בין המטופל למטפל.

באינטראקציה טיפולית עם מחשב אין ״שבר״ אמיתי ולכן גם לא קיים תהליך תיקון; המענה שניתן ע״י המודל מדויק לרוב, וזה יתרון, אבל אליה וקוץ בה - הוא נטול ממד התפתחותי.

 

בפסיכותרפיה, בעיקר בטיפול דינמי, הרגע בו המטפל טועה, הודף או לא זוכר, הוא לא רק טעות אלא צוהר חשוב לשינוי. דרך ההתמודדות עם הכשל, המטופל חווה שמותר להיפגע ולתקן - חוויה אנושית שמבססת ביטחון ויחסי אמון. זהו מרחב רגשי שדורש נוכחות, שקט פנימי והיכולת לשאת איכויות כמו בושה, כעס, חמלה ואשמה, שאין להן עדיין תרגום אלגוריתמי בטיפול פסיכולוגי ב-AI.

 

נכון להיום, בינה מלאכותית יכולה לדמות שפה אמפתית, לזהות רגשות או דפוסי תקשורת, אך חסרה את המרכיב החיוני של תיקון חוויה בינאישית. בלי האפשרות הזו, חסר באינטראקציה עומק רגשי אמיתי, והוא מציע רק ניהול תקשורת מדויק. 

 

לכן, בטיפול אנושי הכשל האמפתי הוא יסוד חיוני ובונה, ובטיפול ממוחשב הוא פשוט חסר.

 

בינה מלאכותית לא מבינה את ההבדל בין אמונה לעובדה (2025)

מטפל טוב לא מתקן מיד אמונה שגויה – הוא קודם מכיר בה ומבין אותה. אבל מודלי בינה מלאכותית לא מסוגלים לכך. מחקר חדש מצא שכש-AI נתקל באמונה שגויה של משתמש, הוא מסרב להכיר בה ומיד מנסה לתקן. זה בעייתי: בטיפול נפשי, בחינוך ובייעוץ, היכולת להכיר באמונות של אדם – גם כשהן לא מדויקות – היא הבסיס לאמפתיה ולעזרה אפקטיבית.

 

 

איתן טמיר, בראיון ב-103FM,

על הקושי של צ׳אט AI לעשות כשלים אמפטיים

ועוד על חיבור בין פסיכותרפיה לבינה מלאכותית: 

 

 

 



 



כתיבה:

 

 מומחי מכון טמיר




 

בדיקת עובדות והצהרה לגבי אמינות המאמר מדיניות כתיבה

 

 

 

מקורות:

 

 

 Safran, J. D., & Muran, J. C. (2023). The therapeutic alliance and rupture repair: Updated perspectives for the digital age. Psychotherapy, 60(3), 261–273. https://doi.org/10.1037/pst0000484

 

Suzgun, M., Gur, T., Bianchi, F., Ho, D. E., Icard, T., Jurafsky, D., & Zou, J. (2025). Language models cannot reliably distinguish belief from knowledge and fact. Nature Machine Intelligence, 7, 1780–1790. https://doi.org/10.1038/s42256-025-01113-8


Weidinger, L. et al. (2023). Ethical and social risks of language models as therapy tools. Nature Machine Intelligence, 5(9), 956–969. https://doi.org/10.1038/s42256-023-00729-1

השאר תגובה

מה דעתך? מוזמנים להגיב!

שיחת הכוונה לקבלת המלצה על הפסיכולוג/ית שלך:

הכניסו את הטלפון שלכם ואנו ניצור עמכם קשר בהקדם
חסר שם מלא

מס׳ הטלפון אינו תקין

מה חדש?

דברו איתנו עוד היום להתאמת פסיכולוג או פסיכותרפיסט בתל אביב ובכל הארץ! צור קשר

מכון טמיר הוא מוסד מוכר ע״י מועצת הפסיכולוגים ומשרד הבריאות להסמכת פסיכולוגים קליניים

נחלת יצחק 32א׳, תל אביב יפו, 6744824

072-3940004

info@tipulpsychology.co.il 

פרטיות ותנאי שימוש באתר

שעות פעילות:

יום ראשון, 9:00–20:00
יום שני, 9:00–20:00
יום שלישי, 9:00–20:00
יום רביעי, 9:00–20:00
יום חמישי, 9:00–20:00

© כל הזכויות שמורות למכון טמיר 2026

 

שיחת ייעוץ