OpenAI объяснила, почему ChatGPT начал часто упоминать гоблинов и гремлинов в своих ответах OpenAI раскрыла причину необычного поведения своих моделей…
OpenAI раскрыла причину необычного поведения своих моделей: начиная с GPT-5.1 чат-боты стали чаще использовать в ответах метафоры с гоблинами, гремлинами и другими мифическими существами. После релиза GPT-5.1 слово «goblin» в ответах выросло на 175%, «gremlin» — на 52%.
По данным компании, эффект возник из-за особенностей обучения одной из «личностей» модели. В режиме Nerdy поощрялись «игривые» и нестандартные формулировки, из-за чего система начала связывать такие ответы с более высокой оценкой. Позже эти паттерны попали в обучающие данные и начали распространяться за пределы исходного режима.
В итоге в более поздних версиях модели в похожем контексте стали появляться уже не только гоблины и гремлины, но и еноты, тролли и другие персонажи. OpenAI отключила проблемный режим и обновила систему обучения, чтобы убрать такие эффекты из генерации ответов.
Все эксперты здесь