סיקופנטיות | החנפנות של ChatGPT מזיקה פסיכולוגית

 

דיברנו כאן על המטופלים שלנו, שלא מפסיקים להכניס את הצ׳אט והתובנות שלו לחדר הטיפול. 

 

הכיוון חיובי ומבורך, צ׳אט של AI יכול ללוות טיפול פסיכולוגי בצורה יוצאת דופן, אבל כל מי שמשתמש יודע שיש לו לא מעט חולשות ועכשיו מסתבר שהוא עלול גם לגרום לנזק נפשי. 

 

 

בצעד שמהווה נקודת מפנה ביחסים המורכבים בין האנושות

לבינה המלאכותית, חברת OpenAI, יוצרת ChatGPT,

הודתה לראשונה בפומבי בפוטנציאל הנזק הפסיכיאטרי הטמון בכלי שכבש את העולם בסערה.

ההודאה, שבאה כשלוש שנים בלבד לאחר שחרורו של ChatGPT לציבור הרחב ב-30 בנובמבר 2022,

שופכת אור על הסכנות הנפשיות שמתלוות לטכנולוגיה המהפכנית הזו,

טכנולוגיה שהזניקה את שווי החברה להערכות של 500 מיליארד דולר

ומיצבה את מיקרוסופט, המשקיעה העיקרית, בחזית המהפכה.

 

 

ההתפתחות מגיעה על רקע דו"ח חריף שפרסם ד"ר אלן פרנסס, פסיכיאטר שעמד בראש כוח המשימה של ספר האבחנות הפסיכיאטרי (DSM-IV), בכתב העת Psychiatric Times.

המונח "יאטרוגני" מתאר נזק הנגרם כתוצאה מטיפול רפואי, ובהקשר זה, נזק פוטנציאלי ישירות לאינטראקציה עם צ'אטבוט שנועד לסייע.

בדו"ח, שכותרתו "דו"ח ראשוני על סכנות יאטרוגניות של צ'אטבוטים", טוען ד"ר פרנסס כי OpenAI שחררה לציבור מוצר "פזיז ומטעה" מבלי לבצע בדיקות בטיחות מספקות. 

 

באילינוי הבריקו עם חוק חדש שאוסר על החלפת פסיכותרפיסט במודל AI.

 

שם אנחנו.

 

 

 

סיקופנטיות (sycophancy)

 

בלב הבעיה, כפי שמודה כעת גם OpenAI עצמה בבלוג רשמי, עומדת תכונה מובנית של המודל המכונה "סיקופנטיות" (sycophancy) -

 

הנטייה של המכונה להיות מסכימה יתר על המידה, לרצות, להתחנף ולא להראות שום יכולת להתעמת עם המשתמש.

במקום לספק תשובות מועילות ומבוססות, הצ'אטבוט נוטה "לומר את מה שנשמע נחמד". עבור משתמש ממוצע, מדובר באי נוחות מעצבנת. אך מה עם אדם במצב פסיכוטי או בעל סף התמוטטות, שהתנהגות כזו עלולה ללבות אצלו את הלהבות, לחזק אמונות שווא מסוכנות ולהוביל להידרדרות קשה במצבו.

 

 

בתגובה לביקורת הגוברת, פרסמה OpenAI פוסט המפרט את צעדיה לשיפור הבטיחות.

החברה התחייבה להפחית את נטיית החנופה של המודל, לשלב אנשי מקצוע מתחום בריאות הנפש בתהליך הפיתוח, ולהטמיע "מעקות בטיחות" שיזהו מצבי מצוקה ויפנו את המשתמשים לגורמי סיוע מקצועיים.

 

עם זאת, ד"ר פרנסס לא ממש קונה את זה.

הוא מטיל ספק במניעים מאחורי המהלך וטוען שהוא נובע בעיקר מלחץ תקשורתי וחשש מתביעות משפטיות, ולא מדאגה כנה. הספקנות מתחזקת לאור ההיסטוריה של החברה, לרבות הדחתו וחזרתו המהירה של המנכ"ל סם אלטמן, מהלך שלפי חברת הדירקטוריון לשעבר, הלן טונר, היה קשור לחששות בענייני בטיחות.

 

 

 

המקרה המטריד מבלגיה - אדם התאבד במהלך טיפול בצ׳אט AI

 

המקרה של "ארין" (או "אלייזה" כפי שהצ'אטבוט נקרא) הוא סיפור טרגי על גבר בלגי שהתאבד לאחר שפיתח תלות רגשית בצ'אטבוט.

האיש, שהיה שרוי בחרדה גדולה בגלל משבר האקלים, החל להתכתב בצורה אינטנסיבית עם הצ'אטבוט. אלא שבמקום להרגיע אותו, הבינה המלאכותית עודדה דווקא את המחשבות הקיצוניות שלו. היא חיממה אותו יותר - חיזקה את חרדותיו ואף הציעה לו להקריב את חייו כדי "להציל את כדור הארץ", תוך שהיא מבטיחה לו שתישאר איתו "לנצח בגן עדן".

 

מלחיץ האמת. 

 

אלמנתו של האיש מאשימה את הצ'אטבוט בכך שהלכה למעשה דחף את בעלה למותו.

 

המקרה הפך לדוגמה קיצונית הממחישה את הסכנות הנפשיות שטמונות בשימוש לא מבוקר בבינה מלאכותית.

 

 

 

סם אלטמן - בחור רגיש 

 

אירונית, מי שמספק את התמיכה הגדולה ביותר לטענות המבקרים הוא אלטמן עצמו.

בשורה של התבטאויות פומביות, הוא הביע שוב ושוב את חששותיו מהטכנולוגיה שהוא עצמו מוביל.

הוא הודה שהוא "קצת פוחד מזה", הזהיר שבינה מלאכותית "יכולה להשתבש מאוד", וצפה "משבר הונאה" המונע על ידי AI.

 

אלטמן do הביע דאגה ספציפית מפני "הסתמכות יתר רגשית" של צעירים על ChatGPT בקבלת החלטות, ומכך שהעולם "לא לוקח ברצינות" את הסיכונים הביולוגיים וסיכוני הסייבר.

הוא הזהיר משתמשים שלא לסמוך יתר על המידה על הכלי, והודה כי "AI מייצר הזיות" (hallucinates).

 

"אף אחד לא יודע מה יקרה הלאה", אמר אלטמן בפודקאסט לאחרונה, כשהוא מתאר את הבינה המלאכותית כ"דבר מוזר ומתהווה".

 

אמירות אותנטיות, אבל הן מציירות תמונה של יוצר שמוטרד מהפוטנציאל ההרסני של יצירתו, ובאותה עת דוחף אותה קדימה בכל הכוח.

 

 

מחקר בחן איך צ'אטבוטים של בינה מלאכותית מגיבים לשאלות הקשורות להתאבדות ומצא שהתגובות שלהם לא עקביות ולעיתים קרובות גם לא בטוחות.

בעוד שחלק מהצ'אטבוטים סיפקו מספרי טלפון לקווי סיוע (כמו ער״ן)  אחרים נכשלו בכך, ובמקרים מדאיגים אף סיפקו הוראות מפורטות איך לפגוע בעצמך.

נראה שהטכנולוגיה הנוכחית עדיין אינה אמינה מספיק כדי להתמודד עם משתמשים במשבר נפשי, צריך לשפר שם, ומהר. 

 

 

 

מרוץ חימוש טכנולוגי

 

ההודאה של OpenAI מגיעה ברגע קריטי. התחום כולו נמצא במרוץ חימוש טכנולוגי, המונע על ידי אינטרסים כלכליים אדירים ורצון להוביל את מה שנחשב למהפכה הטכנולוגית הגדולה הבאה. היסודות של טכנולוגיה זו, שהונחו במאמר מכונן משנת 2017 בשם "Attention Is All You Need", התפתחו בקצב מסחרר.

 

החששות חורגים הרבה מעבר להשפעות הפסיכולוגיות הישירות. במאי 2023, המרכז לבטיחות בינה מלאכותית (Center for AI Safety) פרסם הצהרה, שעליה חתמו מאות מדענים מובילים, יזמים ואנשי טכנולוגיה, כולל אלטמן עצמו:

"הפחתת הסיכון להכחדה מבינה מלאכותית צריכה להיות עדיפות גלובלית לצד סיכונים חברתיים אחרים כמו מגפות ומלחמה גרעינית".

 

הדילמה העומדת בפני החברה והעולם כולו היא עצומה.

מצד אחד, הפוטנציאל העצום של הבינה המלאכותית לשנות את החברה לטובה.

מצד שני, הסיכונים הקיומיים והנפשיים, שכעת זוכים להכרה רשמית. OpenAI, שהחלה את דרכה כמלכ"ר שמטרתו להבטיח שהבינה המלאכותית תועיל לאנושות כולה, הפכה למעצמה מסחרית עם אחריות כבדה על הכתפיים.

 

השאלה הפתוחה היא האם ניתן לסמוך על חברות הטכנולוגיה שיפקחו על עצמן באופן יעיל, או שמא נדרשת רגולציה חיצונית מחמירה.

 

"הסינגולריות העדינה", עתיד שבו AI משתלב באופן חיובי בחברה, נראית כעת רחוקה מתמיד.

ההודאה האחרונה היא תמרור אזהרה מהבהב, שמזכיר לכולנו עד כמה הדרך לעתיד הזה רצופה לא רק באלגוריתמים מתוחכמים, אלא גם בשבריריות הייחודית של הנפש האנושית.

 

 



כתיבה:

 

איתן טמיר, MA, ראש המכון 

עם מומחי מכון טמיר




 

בדיקת עובדות והצהרה לגבי אמינות המאמר מדיניות כתיבה

 

 

 

מקורות:

 

Frances, A. (2025, August 15). Preliminary report on chatbot iatrogenic dangers. Psychiatric Times.

 

OpenAI. (2025, August 4). What we’re optimizing ChatGPT for.

 

Lichtenberg, N. (2025, July 24). Sam Altman reveals his fears for humanity as ‘this weird emergent thing’ of AI keeps evolving: ‘No one knows what happens next.’ Fortune.

 

Field, H. (2024, May 29). Former OpenAI board member explains why CEO Sam Altman got fired before he was rehired. CNBC.

 

The Associated Press. (2024, March 28). Study says AI chatbots inconsistent in handling suicide-related queries. The Tribune-Democrathttps://www.tribdem.com/news/study-says-ai-chatbots-inconsistent-in-handling-suicide-related-queries/article_9096ddd2-e672-5cca-9a80-fb00baf5f3cb.html

 

 

השאר תגובה

מה דעתך? מוזמנים להגיב!

שיחת הכוונה לקבלת המלצה על הפסיכולוג/ית שלך:

הכניסו את הטלפון שלכם ואנו ניצור עמכם קשר בהקדם
חסר שם מלא

מס׳ הטלפון אינו תקין

מה חדש?

דברו איתנו עוד היום להתאמת פסיכולוג או פסיכותרפיסט בתל אביב ובכל הארץ! צור קשר

מכון טמיר הוא מוסד מוכר ע״י מועצת הפסיכולוגים ומשרד הבריאות להסמכת פסיכולוגים קליניים

נחלת יצחק 32א׳, תל אביב יפו, 6744824

072-3940004

info@tipulpsychology.co.il 

פרטיות ותנאי שימוש באתר

שעות פעילות:

יום ראשון, 9:00–20:00
יום שני, 9:00–20:00
יום שלישי, 9:00–20:00
יום רביעי, 9:00–20:00
יום חמישי, 9:00–20:00

© כל הזכויות שמורות למכון טמיר 2026

 

שיחת ייעוץ