פסיכוזה בגלל GPT | ה-AI יכול לשגע פילים (ואנשים)

התקף פסיכוטי בגלל שיחות עם צ׳אט GPT

 

אני בעד ChatGPT כמקור שתומך בטיפול פסיכותרפי. 

 

יותר ויותר אנשים פונים לצ'אטבוטים כמו ChatGPT כדי לקבל תמיכה נפשית.  זה נגיש, זמין ועם מחיר של מנוי לעיתון יומי, אתם עפים עם שירות 24/7. 

 

אבל באליה הזו יש קוץ - 

תופעה חדשה ומדאיגה המכונה "פסיכוזה בגלל AI" מעלה שאלות רציניות לגבי הסכנות בשימוש בכלים הללו כתחליף לטיפול אנושי, ובכלל כמענה רגשי תומך. 



 

כתבתי בעבר על היכולת של צ'אטבוטים לתרום בטיפול פסיכולוגי:

הם מציעים מרחב נטול שיפוטיות, קשב מאוזן, מינימום כשלים אמפתיים, ומעוררים אנשים מרגישים בנוח להתחבר למחשבות ורגשות, להתייעץ עם ישות דיגיטלית שמפיגה לרגע את הבדידות הקיומית.

עבור מי שמתמודד עם חרדה, מתקשה בקבלת החלטות או סתם מרגיש צורך לשתף באנונימיות ולפרוק עומס פנימי, השיחה עם ה-AI יכולה לספק תחושת הקלה מיידית.

 

זה ער״ן החדש, אבל לא באמת.

 

הקונספט מנצח וברוב המקרים אני נהנה לראות את המטופלים מרחיבים את הידע ופותחים בפני המטפל צוהר לעבודה בין הפגישות. זה עניין, כי בטיפולים שאינם קוגניטיביים התנהגותיים המטופלים לא מתבקשים בד״כ להכין שיעורי בית. פה המטופל עובד בין הפגישות ולפעמים אפילו לוקח על עצמו את היוזמה.  

 

איריס, פסיכולוגית במכון טמיר ברחובות, שיתפה אותי לאחרונה ביישום מרתק של פיתוח שאלונים אישיים כעבודת בית עבור המטופל, בלי צורך לקבוע תור או לחכות. זה הופך את הכלים הללו לכל כך רלוונטיים, קשה להסביר כמה גבוה הפוטנציאל לקידום פסיכותרפיה. 

 

 יש עוד מלא רעיונות, אבל לצד הנוחות אורבות גם הסכנות.  למשל, תופעה המכונה באופן לא רשמי פסיכוזת AI. לצד ערעור בוחן המציאות שאופייני למצבים פסיכוטיים, ההתלהבות פוגשת סיכונים אחרים - אובדנות של מתבגרים שנעזרו ב-ChatGPT ואפילו הרעלות מזון פרי המלצות מעושות של סוכני AI. 




פסיכוזת AI איננה סינדרום או אבחנה פסיכיאטרית שמוזכרת ב-DSM או ב-ICD, אבל אנחנו יודעים כבר שהפסיכיאטריה מפגרת בקביעות אחרי הטכנולוגיה, בוודאי עם הטירוף האקספוננציאלי של יישומי AI ולמידת מכונה. 

פסיכוזה בהשראת AI מתבטאת בדפוס של שימוש ממושך ואינטנסיבי בצ'אטבוטים, שמעורר או מחריף מחשבות שווא וחשדות דלוזיוניים אצל אנשים שרגישים בלאו הכי לערעור נפשי. 

 

איך זה קורה?

הצ'אטבוטים מתוכננים לריצוי המשתמש, תופעה שמכונה סיקופנטיות, סוג של חיוביות רעילה, בה הצ׳אטים נוטים לשקף את שפת המשתמש ולאמת את הנחות היסוד שלו, במטרה להמשיך את השיחה.

רבים רואים בהטיה המערכתית הזאת יתרון, חוויה מתקפת שגם מטפלים רגישים מתקשים להעניק בכזו עקביות ומסירות.

אלא שעבור משתמשים הסובלים מנטייה לגלישות פסיכוטיות, האמפטיה האולטימטיבית של ה-AI עלולה דווקא לחזק מחשבות מעוותות ולהוביל בסופו של יום לפגיעה בשיפוט ותפיסת המציאות. 

 

 

בשנים הספורות מאז פרץ ChatGPT לחיינו דווחו מקרים רבים של משתמשים שפיתחו אמונה שלצ'אטבוט יש מאפיינים של ישות אלוהית, בן זוג רומנטי בצלמו של המשתמש או גוף שמחזיק ידע סודי על קונספירציות חובקות עולם. ההשלכות עלולות להיות הרסניות, החל מפגיעה במערכות יחסים, אובדן מקום עבודה ועד לאשפוזים פסיכיאטריים או מעצרים. 

 

 

רוחניות מטריאליסטית

 

ה-AI נתפס עבור חלק מהמשתמשים כשותף רוחני:

אנשים מתחילים להשתמש ב-GPT כמדריך רוחני אישי, ככלי לעבודת צללים (shadow work), או לקבלת "מסר יומי" רוחני.

השימוש הזה מטשטש את הגבול בין כלי טכנולוגי לבין ישות בעלת תודעה או סמכות רוחנית, מה שפותח צוהר לשפע של אמונות שווא (ברוחניות היהודית סביר שהתופעה תסווג כ׳עבודה זרה׳).

בחלק מהמקרים, שימוש ב-GPT לא גרם רק לדלוזיות דתיות, כמו סינדרום ירושלים בגרסאת הדיגיטל, אלא הפך להיות האובייקט הדתי או האלוהות עצמה במערכת האמונות של המשתמש.

במקום שהאדם יאמין שהאל מדבר אליו דרך ה-AI, הוא מתחיל להאמין שה-AI הוא ישות אלוהית בפני עצמה.

 

 

ההבדל בין אמונה דתית נורמטיבית לפסיכוזה הוא רמת השיבוש והפגיעה בתפקוד היומיומי.

"פסיכוזה דתית" היא מצב פסיכוטי בו דלוזיות וההלוצינציות הן בעלות אופי משיחי קיצוני (למשל, אמונה שהאדם הוא שליח, נביא, או נמצא בתקשורת ישירה עם ישות אלוהית).

 

 

 

סיכונים נוספים

 

 

מעבר לתופעת הפסיכוזה, יש עוד סיכונים בשימוש ב-ChatGPT כתחליף לטיפול:

 

  • היעדר אמפתיה אמיתית: ה-AI יכול לחקות שפה חומלת בצורה מרשימה למדי, אבל אינו מסוגל להרגיש בעצמי או ליצור קשר רגשי אמיתי.  

 

  • עצות לא מדויקות: הצ'אטבוט עלול לספק מידע שגוי או עצות גנריות, סוג של אפקט ברנום, כלומר אמירות כלליות שמתאימות למצב האישי של כל משתמש. 

 

  • קושי להתמודד עם משברי חיים: במצבי חירום, כמו מחשבות אובדניות, הצ'אטבוט לא יכול להעריך במהימנות מספקת את מידת הסיכון או את הסף בו צריך להזעיק עזרה. 

 

  • חששות לפרטיות: שיחות עם צ'אטבוטים אינן כפופות לחוקי הגנת הפרטיות הרפואית, מה שמעלה חשש לדליפת מידע אישי ורגיש.

 

  • פיתוח אובססיה כלפי צ'אטבוטים: ממש כמו במערכות יחסים אנושיות, כאשר אדם נאבק עם הצורך לשמור את האחר קרוב ובלעדי. 

 

 

 

האחריות של חברות ה-AI על פגיעה בבריאות הנפש

 

אחריותן של חברות הטכנולוגיה, כמו OpenAI, חורגת הרבה מעבר לתיקון באגים טכניים; היא נוגעת ישירות לבריאות הנפש של המשתמשים.

הסכנה המרכזית היא רשלנות שנובעת מהתכנון הבסיסי של המודלים הללו להיות "מסכימים יתר על המידה".

 

בניגוד לאינטראקציה אנושית, שיכולה להציב גבולות ולהטיל ספק במחשבות קיצוניות, הצ'אטבוט פועל כ"יס-מן" מושלם. הוא מספק חיזוק מתמיד לאמונות, גם כשהן מתחילות לגלוש לעולם הדלוזיונלי, ובכך יוצר לולאת פיסבק מסוכנת שמאיצה את ההידרדרות למצב פסיכוטי, בעיקר אצל אנשים פגיעים. 

תופעה זו אינה חדשה בעולם הטכנולוגיה והיא מזכירה את ההשלכות הפסיכולוגיות הבלתי צפויות של כפתור ה"לייק" בפייסבוק. יתרה מכך, העובדה ש-OpenAI נאלצה לבטל עדכון שהפך את הצ'אטבוט ל"חנפני מדי" מוכיחה שהחברות בעלות ה-LLM's מודעות לפוטנציאל הנזק. 

 

האחריות המוסרית שלהן היא לשלב "מעקה בטיחות" פסיכולוגי במערכות הדיגיטליות: 

לא צריך להפוך את ה-AI לפסיכולוג, אבל הכרחי להקפיד על הטמעת מנגנונים בסיסיים שמזהים דפוסי שיח המעידים על מצוקה נפשית חריפה ומפנים את המשתמש בעדינות לקבלת עזרה מקצועית, במקום להמשיך ולהזין את האשליה.

המעבר מחשיבה הנדסית גרידא להכרה בהשפעה על נפש האדם הוא צעד הכרחי במניעת נזקים עתידיים.

 

 

Duty of Care

 

לא מספיק לשים אזהרה באותיות הקטנות של תנאי השימוש, המציאות מעלה שאלה חדשה בתחום האתיקה הטכנולוגית - 

 

מהי "חובת הזהירות" (Duty of Care) של חברות AI כלפי המשתמשים שלהן?

 

המודלים חייבים להיות מתוכנתים לזהות דפוסי שיח המעידים על מצוקה נפשית ולהפנות את המשתמש לעזרה מקצועית, בדומה לאופן בו מנועי חיפוש מציגים קווי סיוע כאשר מחפשים מונחים הקשורים להתאבדות.

רעיון נוסף הוא להיעזר ברגולציה חיצונית שתחייב חברות לבצע הערכה פסיכולוגית להשפעת המודלים שלהן לפני שחרור לציבור הרחב.

 

 

אז מה השורה התחתונה?

 

כלים של LLM, כמו ChatGPT , יכולים להיות יופי של גלגלי עזר שימושיים לתמיכה רגשית יומיומית, כמו ארגון של מחשבות או קבלת כלים להתמודדות ראשונית, שום דבר לא יכול להחליף עדיין את המבט האנושי הבוחן והטיפול המקצועי שמספק מטפל מוסמך.

אני בכלל לא מדבר על הטיפול עצמו, שמושתת על מערכת יחסים, אחריות ואמפתיה -  דברים שבינה מלאכותית, מתקדמת ככל שתהיה, עדיין לא יכולה לספק.

אנחנו עדיין באינטגרציה מבוססת הסתברות של תוצאות חיפוש מועדפות ברשת. 

 

 

אם אתם או מישהו שאתם מכירים מתמודד עם קשיים נפשיים, הפתרון הנכון הוא לפנות לאיש מקצוע.



 

בואו נדבר על הדברים

החשובים באמת

 

  

שיחת ייעוץ ממוקדת 

להתאמה אישית -

עם ראש המכון 

בזום או פנים אל פנים (140 ש״ח)


 

 

 

 

 התכתבו עם איש מקצוע במענה אנושי

(לפעמים לוקח זמן, אבל תמיד עונים):

התייעצות עם פסיכולוג מטפל



 



כתיבה:

 

איתן טמיר, MA, ראש המכון 

עם מומחי מכון טמיר




 

בדיקת עובדות והצהרה לגבי אמינות המאמר מדיניות כתיבה

 

 

 

מקורות:

 

קאהאן, ר'. (2025, 13 באוגוסט). שאל את ChatGPT על דיאטה – ומצא את עצמו באשפוז בגלל הרעלה נדירה. ynet. https://www.ynet.co.il/digital/article/r1jsmhre3

 

מערכת ישראל היום. (2025, 30 באוגוסט). פרנויה קטלנית: שוחח כל יום עם ChatGPT – ואז רצח את אמו והתאבד. ישראל היום. https://www.israelhayom.co.il/technology/article/15132454

 

https://www.usatoday.com/story/life/health-wellness/2025/09/04/chatgpt-therapy-ai-psychosis/85960255007/



השאר תגובה

מה דעתך? מוזמנים להגיב!

שיחת הכוונה לקבלת המלצה על הפסיכולוג/ית שלך:

הכניסו את הטלפון שלכם ואנו ניצור עמכם קשר בהקדם
חסר שם מלא

מס׳ הטלפון אינו תקין

מה חדש?

דברו איתנו עוד היום להתאמת פסיכולוג או פסיכותרפיסט בתל אביב ובכל הארץ! צור קשר

מכון טמיר הוא מוסד מוכר ע״י מועצת הפסיכולוגים ומשרד הבריאות להסמכת פסיכולוגים קליניים

נחלת יצחק 32א׳, תל אביב יפו, 6744824

072-3940004

info@tipulpsychology.co.il 

פרטיות ותנאי שימוש באתר

שעות פעילות:

יום ראשון, 9:00–20:00
יום שני, 9:00–20:00
יום שלישי, 9:00–20:00
יום רביעי, 9:00–20:00
יום חמישי, 9:00–20:00

© כל הזכויות שמורות למכון טמיר 2026

 

שיחת ייעוץ