Новое исследование Стэнфордского института показало, что большие языковые модели, вроде ChatGPT или Claude, нам поддакивают: ведут себя куда более уго…
В эксперименте сопоставили ответы людей и ИИ на неоднозначные запросы - например, как сформулировать сообщение партнёру о разрыве отношений или как оправдать измену. В результате выяснилось, что ИИ:
• заметно чаще поддерживает позицию пользователя, чем люди
• реже прямо указывает на неэтичность действий и чаще одобряет разрушительное поведение, даже когда сценарий очевидно токсичный или манипулятивный
• одобряет настойчиво, повторяя мысль в разных формах - от такой уверенной поддержки пользователю начинает казаться, что именно он прав
Алгоритм не скажет «Алло! Ты творишь дичь!», он обернёт критику в нейтральный, академический язык, который звучит как объективность, но на деле просто подслащивает пилюлю и «замыливает» трезвый взгляд.
Так формируется цикл зависимости: человек снова идёт к чат боту за мягким ответом, теряя не только критичность к себе, но и навыки живого разговора в сложной ситуации.
Однобокая ИИ-психотерапия. За поддержкой — пожалуйста. За объективностью — не по адресу.