Когда я впервые столкнулся с тем, что GPT регулярно выдаёт откровенные глупости, это было, мягко говоря, разочарование. Подумайте, какой смысл в умной модели, если она постоянно врет? Но потом я открыл для себя chain of thought промпты и всё изменилось радикально. Теперь GPT не просто угадывает - он действительно думает.
Почему GPT галлюцинирует: он не думает, а угадывает
Всё дело в том, как устроены языковые модели. Они выдают ответы, основанные на статистической вероятности, а не на настоящем мышлении. Когда модель встречает сложную задачу - будь то математика или многоходовый вопрос - она полагается на интуитивно вероятный ответ. Это как играть в лотерею: иногда везёт, но часто - нет. Я как-то задал GPT вопрос и получил уверенный, но абсолютно неправильный ответ. С chain of thought всё иначе: те же вопросы, но уже с правильными результатами.
Я собрал chain of thought промпты-промпты в PDF. Забери бесплатно в Telegram (в закрепе): https://t.me/yevheniirozov
Что такое chain of thought и как это работает под капотом
Так что же это за магия такая - chain of thought? Это техника, заставляющая модель генерировать промежуточные рассуждения перед тем, как выдать финальный ответ. Каждый шаг становится основой для следующего, и модель начинает опираться на свои же размышления. Это как строить дом из кирпичей, где каждый кирпич - это мысль. Разница между zero-shot и few-shot CoT в том, что первый просит модель думать поэтапно без примеров, а второй - с примерами.
Три рабочих шаблона CoT-промптов, которые я использую каждый день
Я разработал три шаблона, которые мне постоянно помогают. Первый - «пошаговый разбор». Этот подход заставляет модель разложить задачу на части, прежде чем ответить. Второй - «адвокат дьявола», где я прошу модель находить ошибки в своих рассуждениях перед финальным решением. И третий - «сначала план», для текстов и кода: сначала структура, потом реализация. Например, я использовал второй шаблон и избежал ошибки в коде, которая могла бы стоить мне $340.
Остальные способы и примеры я разобрал подробно в Telegram с скриншотами: https://t.me/yevheniirozov
На каких задачах CoT реально спасает, а на каких - бесполезен
Chain of thought действительно спасает в задачах математики, логики, анализа данных и коде с бизнес-логикой. Но есть ситуации, где он бесполезен или даже вреден: простые вопросы, креативная генерация, задачи, требующие краткости. CoT жрёт токены в 2 - 5 раз больше, поэтому нужно понимать, когда это оправдано, а когда нет.
И вот мой главный инсайт: не бойтесь экспериментировать с промптами. Уделите 10 минут, чтобы попробовать один из шаблонов CoT на своих задачах, и вы удивитесь, как изменится ваш опыт работы с GPT. https://t.me/yevheniirozov
Подписывайся на мой Telegram:
- Промпты, которые использую сам
- Ошибки, которые стоили мне денег
- Инструменты до того, как о них напишут все

Top comments (0)