Prompt Engineering
появился вместе с ростом способностей языковых моделей. Так называется процесс подбора текстовых запросов для более эффективного извлечения информации из языковых моделей. Хороший промпт может дать 10х результата по сравнению с плохим.
Многие говорят, что занимаются инженерией промптов, но на самом деле это скорее "blind prompting". "Blind prompting" — это подбор промпта в грубом и несистемном формате проб и ошибок + незнание того, как формулируются запросы. "Blind prompting" — это не промпт-инжиниринг.
Это страничка направлена на то, чтобы дать понимание системного подхода к промпт-инжинирингу.
Если отвечать просто, то писать промпты на английском всегда будет выигрышнее.
На русском языке прилично работает только GPT-4. При этом запросы туда стоят в 30 раз дороже, и если выбирать ее только ради языка, то оно того не стоит.
Другая проблема — архитектура больших языковых моделей на примере GPT. Любой запрос в модель в итоге внутри кодируется в специальный формат понятный для модели. На английском такая операция занимает 1x токенов, в токен влезает одно небольшое английское слово. На русском языке это занимает уже 4х токенов.
Получается если у модели контекст ограничен 4k токенами, то на русском в него влезет аналог 1k токенов на английском. И это мы даже не берем тот факт, что английский язык более лаконичный и короткий.
Не все и не всегда готовы писать длинный текст на английском языке. Для таких случаев я рекомендую писать промпт на русском и переводить его через переводчик Deepl. Так что все промпты в примерах мы будем писать на английском.
Большие языковые модели, как GPT натюнены, чтобы следовать инструкциям и заранее натренированы на большом количестве даных. Так что они могут решать многие задачи в формате «без примеров» (zero-shot).
GPT справится с запросов ниже несмотря на то, что мы не передаем заранее примеров «негативных» или «позитивных» текстов:
Classify the text into neutral, negative or positive.
Text: I think the vacation is okay.
Sentiment:
---
=> Neutral