DEV Community

Geka Cross
Geka Cross

Posted on • Originally published at telegra.ph

Я добавил chain of thought и GPT перестал врать

#ai

A laptop on a wooden table shows an AI chat interface, featuring the DeepSeek chatbot in action.

Когда я впервые столкнулся с тем, что GPT регулярно выдаёт откровенные глупости, это было, мягко говоря, разочарование. Подумайте, какой смысл в умной модели, если она постоянно врет? Но потом я открыл для себя chain of thought промпты и всё изменилось радикально. Теперь GPT не просто угадывает - он действительно думает.

Почему GPT галлюцинирует: он не думает, а угадывает

Всё дело в том, как устроены языковые модели. Они выдают ответы, основанные на статистической вероятности, а не на настоящем мышлении. Когда модель встречает сложную задачу - будь то математика или многоходовый вопрос - она полагается на интуитивно вероятный ответ. Это как играть в лотерею: иногда везёт, но часто - нет. Я как-то задал GPT вопрос и получил уверенный, но абсолютно неправильный ответ. С chain of thought всё иначе: те же вопросы, но уже с правильными результатами.

Я собрал chain of thought промпты-промпты в PDF. Забери бесплатно в Telegram (в закрепе): https://t.me/yevheniirozov

Что такое chain of thought и как это работает под капотом

Так что же это за магия такая - chain of thought? Это техника, заставляющая модель генерировать промежуточные рассуждения перед тем, как выдать финальный ответ. Каждый шаг становится основой для следующего, и модель начинает опираться на свои же размышления. Это как строить дом из кирпичей, где каждый кирпич - это мысль. Разница между zero-shot и few-shot CoT в том, что первый просит модель думать поэтапно без примеров, а второй - с примерами.

Три рабочих шаблона CoT-промптов, которые я использую каждый день

Я разработал три шаблона, которые мне постоянно помогают. Первый - «пошаговый разбор». Этот подход заставляет модель разложить задачу на части, прежде чем ответить. Второй - «адвокат дьявола», где я прошу модель находить ошибки в своих рассуждениях перед финальным решением. И третий - «сначала план», для текстов и кода: сначала структура, потом реализация. Например, я использовал второй шаблон и избежал ошибки в коде, которая могла бы стоить мне $340.

Остальные способы и примеры я разобрал подробно в Telegram с скриншотами: https://t.me/yevheniirozov

На каких задачах CoT реально спасает, а на каких - бесполезен

Chain of thought действительно спасает в задачах математики, логики, анализа данных и коде с бизнес-логикой. Но есть ситуации, где он бесполезен или даже вреден: простые вопросы, креативная генерация, задачи, требующие краткости. CoT жрёт токены в 2 - 5 раз больше, поэтому нужно понимать, когда это оправдано, а когда нет.

И вот мой главный инсайт: не бойтесь экспериментировать с промптами. Уделите 10 минут, чтобы попробовать один из шаблонов CoT на своих задачах, и вы удивитесь, как изменится ваш опыт работы с GPT. https://t.me/yevheniirozov


Подписывайся на мой Telegram:

  • Промпты, которые использую сам
  • Ошибки, которые стоили мне денег
  • Инструменты до того, как о них напишут все

https://t.me/yevheniirozov

Top comments (0)