ChatGPT. Мастер подсказок, или Как создавать сильные промты для нейросети
Қосымшада ыңғайлырақҚосымшаны жүктеуге арналған QRRuStore · Samsung Galaxy Store
Huawei AppGallery · Xiaomi GetApps

автордың кітабын онлайн тегін оқу  ChatGPT. Мастер подсказок, или Как создавать сильные промты для нейросети

 

Петр Панда, Арина Сычева
ChatGPT. Мастер подсказок, или Как создавать сильные промты для нейросети
2024


 

Петр Панда, Арина Сычева

ChatGPT. Мастер подсказок, или Как создавать сильные промты для нейросети. — СПб.: Питер, 2024.

 

ISBN 978-5-4461-2232-5

© ООО Издательство "Питер", 2024

 

Все права защищены. Никакая часть данной книги не может быть воспроизведена в какой бы то ни было форме без письменного разрешения владельцев авторских прав.

 

Введение

Даже если вы далеки от технологических трендов, все равно у вас мало шансов ни разу не услышать о нейросетях и прорывах в области искусственного интеллекта (ИИ).

Нейросети то, нейросети се… Нейросети массово лишают работы художников. Нейросети обучают управлению самолетом. Нейросети внедряют в чат-боты, чтобы вживую общаться с клиентами. Этих новостей сегодня так много и число их растет настолько быстро, что даже самый ленивый человек хотя бы мельком, но обра­тит внимание.

А уж тот, кто не ленив и готов увидеть перспективы применения ИИ в бизнесе, работе, образовании, развлечениях и многом другом, и вовсе смотрит в оба глаза.

В этой книге мы не станем замахиваться на понятие «нейросети вообще», давать сложные и долгие объяснения или делать другие заумные вещи, которые 95 % читателей просто не поймут и начнут зевать.

Наша цель куда проще: мы возьмем один вид нейромоделей (генерация контента) и постараемся подружить вас с ним, перевести ваше общение с ИИ из формата «Что ТЫ такое?» в формат «Привет, поработаем?». Благо у нас (авторов данной книги) для этого есть и наработки, и кое-какой опыт, и собственный инструментарий. Приступим.

LLM и GPT как часть ИИ

ChatGPT — лишь часть глобального явления под названием «искусственный интеллект». Думаем, будет правильно, если мы опишем структуру этого явления, пусть даже самую суть, — чтобы вы могли понять его.

Если же вам нужно еще больше информации, то вы всегда можете спросить ИИ или найти в поисковиках. Это очень просто. Итак, начнем.

Искусственный интеллект (ИИ; от англ. artificial intelligence, AI) — компьютерная технология, которая помогает выполнять задачи, требующие творческого подхода, логического мышления, аналитических способностей и прочих признаков, которыми обладает только человек.

ИИ отличается от обычных программ тем, что может обучаться на основе опыта, менять выводы в зависимости от контекста, анализировать сложные вводные и многое другое.

Архитектура ИИ отчасти похожа на строение человеческого мозга с его нейронными связями. Разница только в том, что в ИИ эти связи — искусственные. Чем сильнее развиваются технологии, чем больше опыта и возможностей накапливается у ИИ и его разработчиков, тем «умнее» становится ИИ, тем больше улучшается качество искусственных связей.

Нейросети — нечто вроде подкласса ИИ. Скажем, если ИИ вообще — это семейство кошачьих, то нейросети — это и гепарды, и львы, и пумы, и домашние рыжие Васьки.

Нейросети опираются на общие принципы работы ИИ, но при этом могут кардинально различаться по уровню задач. Есть разные подвиды нейросетей наподобие рекуррентных, многослойных и т.п., но в данной книге мы не будем о них говорить.

Мы будем рассматривать нейросети по уровню задач. Например, нейросети:

• для распознавания голоса;

• для создания изображений;

для работы с информацией (контентом) и т.п.

А вот уже внутри одного направления нейросетей (например, контентных) и находится то, с чем конкретно мы будем работать, — LLM.

LLM (от англ. Large Language Model, большие языковые модели) — это обученные модели для выполнения конкретных задач. LLM можно сравнить с ребенком: чем больше с ним общаются, чем больше фактов он узнает, тем больше учится и развивается, пытается анализировать, находить закономерности, работать с вводными данными и делать выводы.

Разные LLM можно обучать совершенно по-разному. Одни из них огромны и тратят колоссальное количество аппаратных ресурсов, для работы им нужны большие залы, наполненные самыми мощными и современными серверами. Другим же LLM хватит и самых простых «бытовых» мощностей.

Одни LLM узкоспециальны и обучаются под конкретную задачу: например, сводить оборот на основе документов одной компании. Другие готовы обслуживать население целых стран и выполнять тысячи разных задач.

Например, YandexGPT, Google Bard и версии GPT от OpenAI — «родственники». Это модели для работы с информацией (контент, написание кода, анализ текстов и т. п). Но чем больше мастерства, сил, средств, наконец, вложено в развитие конкретной LLM, тем радикальнее могут различаться результаты: по уровню знаний, внутренней архитектуре, объему контекста и т.д. При этом цели и задачи однотипных LLM примерно похожи.

А вот если вы хотите, например, рисовать, то нужны LLM наподобие Stable Diffusion, «Кандинский» или Midjourney. Для обработки видео вам понадобятся другие модели. И т.д.

Теперь, когда мы немного разобрались, поговорим о линейке конкретных LLM-моделей — GPT (ChatGPT).

GPT — передовая линейка генеративных нейромоделей для работы с информацией, которую разрабатывает компания OpenAI. Здесь есть небольшой нюанс: известный многим термин ChatGPT (если уж совсем дотошно) — не совсем верное название для всей серии LLM. Так называется лишь знакомый нам интерфейс для работы, похожий на обычный чат.

А вот GPT-3, 4, 5… — это номера конкретных версий моделей компании, где каждая следующая опережает предыдущую по целому ряду показателей.

В этой книге мы будем оперировать словами ChatGPT, «ИИ», «нейросеть», «модель» и т.п., имея в виду в первую очередь GPT от OpenAI. Просто потому, что на момент написания книги это явный лидер, который задает тон.

Но вообще мы создаем книгу универсального промтинга, не привязываясь к конкретному номеру модели и даже к конкретной LLM (что такое промтинг, мы расскажем чуть позже). Самый смак в том, что эти правила одинаковы для всех аналогичных LLM, поэтому подойдут и для других моделей. Почему — об этом еще поговорим, а пока продолжим.

Линейка моделей GPT сегодня опережает другие похожие решения. В OpenAI и начали раньше, и денег, видимо, хватало, и люди там талантливые. Словом, лидеры.

ChatGPT1 постоянно развивается, всегда на несколько шагов впереди. Пока другие LLM доходят до его вчерашнего уровня, он уже машет рукой из завтрашнего дня.

Общение человека с ChatGPT ведется с помощью текстовых запросов (prompts), которые мы далее будем называть промтами или подсказками.

В тексте они обозначаются вот таким шрифтом.

Суть работы модели выглядит так: человек вводит промт и получает ответ. Главное ее отличие от работы обычных программ в том, что GPT способна создавать ответы в таком виде, как если бы их давал человек.

Например, зададим ChatGPT задачу для пятого класса:

Реши задачу: из автобуса на остановке вышло 6 пассажиров, а вошло 11. На следующей остановке вышло 8, вошло 9. Сколько пассажиров стало в автобусе, если вначале в автобусе было 24 пассажира?

Ответ модели, по сути, идентичен ходу мыслей обычного школьника (скопировано дословно).

Для решения этой задачи нужно проследить изменение количества пассажиров в автобусе на каждой остановке.

Изначально в автобусе было 24 пассажира. После первой остановки вышло 6 пассажиров, а вошло 11. Таким образом, количество пассажиров увеличилось на 11 – 6 = 5.

24 + 5 = 29 пассажиров после первой остановки.

На следующей остановке вышло 8 пассажиров, а вошло 9. Снова посчитаем изменение количества пассажиров:

29 – 8 + 9 = 30 пассажиров после второй остановки.

Итак, после обеих остановок в автобусе стало 30 пассажиров.

Еще год-полтора назад GPT так не умела, а сегодня — запросто. Это происходит благодаря глубокому машинному обучению — непрерывному процессу, в который входит и обучение моделей новым закономерностям, и расширение нейронных связей за счет увеличения программных мощностей, и колоссальная обратная связь с пользователями.

Чем больше мы общаемся с ChatGPT и чем больше реагируем, давая модели обратную связь, тем больше информации она получает и тем быстрее учится. Возникает тот самый эффект снежного кома.

«Выходит, нейросеть действительно умнеет и становится похожей на человека?» — спросите вы.

Честно — не знаем. Мы изучили массу докладов и лекций как ведущих ученых, IT-специалистов и разработчиков ИИ, так и нейропсихологов, нейрофизиологов и даже социологов. Среди экспертов нет единого мнения, поэтому вопрос остается открытым.

Мы приведем парочку фактов, а вы поразмышляйте и попробуйте сами сделать выводы.

Факт первый. Мы имеем дело уже не с программой, а с чем-то обладающим основами логики и анализа. И дальше навыки ИИ будут только расти. Все это видно по уже существующему прогрессу.

Факт второй. В техническом смысле нейросеть и не должна ничего «понимать» как человек. То есть ей для этого не нужны какие-то личностные или эмоциональные черты.

Почему? Потому что при глубоком машинном обучении сеть и не должна «очеловечиваться», она лишь ищет закономерности, закрепляет успешно подтвержденные и тем самым изучает, как работает человеческий язык. Для выполнения своих задач ей этого хватает.

Предполагается, что она лишь изучает вероятности и старается делать максимально «очеловеченный» вывод на основе наших данных. Например, что в такой-то связке слов и смыслов стоит употребить такие-то слова и смыслы и это даст лучшие результаты. Когда такое подтверждается много-много раз, сеть закрепляет это для себя как факт и делает частью стратегии.

Чтобы понять еще лучше, возьмем простой пример.

Есть некий Сергей Сергеевич, преподаватель истории в вузе. Раньше, рассказывая о временах Ивана Грозного (о которых он знает очень много), Сергей Сергеевич начинал издалека: давал предпосылки, углублялся во второстепенное, долго подводил к сути и т.д.

Со временем он заметил, что такая стратегия не работает. Пока он «раскачивал тему», большинство студентов теряли интерес. Да, кое-кто слушал, но 95 % — зевали.

Тогда Сергей Сергеевич начал корректировать свои лекции. Он отмечал, какой материал студенты понимают, а какой — не очень, к чему они быстро проявляют интерес, а где начинают смотреть на часы. И вот так, шажками, он создал конструкцию лекции, которая и по объему, и по уровню знаний была интересна большинству.

И теперь, когда приходит время лекций об Иване Грозном, Сергей Сергеевич читает их в рамках этой конструкции. Она обкатана. Она работает и дает лучший результат.

Примерно то же самое происходит и с GPT, только таких Иванов Грозных у моделей миллиарды, и закономерности постоянно обновляются, оптимизируются, шлифуются.

А теперь вопрос: в разрезе повышения качества лекций так ли нам важно, какой Сергей Сергеевич человек? Дарит ли жене цветы, ворчит ли на молодежь и бьет ли котиков по лапкам? Пожалуй, не очень. В контексте преподавания он интересен нам только как некий носитель знаний и объект, который изучает закономерности конкретно для лекций. Всё.

Точно так же не обязательно, что GPT должна «очеловечиваться» или расти в каком-то личностном или эмоциональном плане. Главное, что модель умеет учиться и становиться технически сильнее.

А вот наступит ли такой этап, когда, дойдя до определенного уровня развития, ИИ вдруг осознает себя как личность, или нет — это доподлинно не известно. Кто-то считает, что такое вероятно, кто-то только смеется. Так что не будем углубляться в эти дебри и просто пойдем дальше.

Итак, ChatGPT не только решает математические задачи. Модель открывает огромный пласт возможностей. С помощью нейросети можно делать что угодно:

• создавать опросы и анализировать текст;

• отвечать на вопросы и помогать с выбором на основе данных;

• придумывать диалоги и писать целые книги;

• программировать и разрабатывать новые алгоритмы;

• учиться языкам и сочинять поздравления;

• создавать контент для соцсетей и сайтов;

• играть в квестовые игры и искать логические ошибки;

• разрабатывать полезные меню и списки для саморазвития;

• находить лучшие аргументы для споров и писать сценарии;

и многое, многое, многое другое…

Это очень сжатый перечень. А впереди нас ждут все те нюансы промтинга, которым посвящена книга. Мы вместе погрузимся в удивительный мир GPT и, что самое главное, научимся чувствовать себя там уверенно и комфортно.

Для какой версии GPT подходит эта книга

Повторимся: изначально мы создавали книгу, которая никак не привязана ни к одной модели. И даже если завтра сменятся тренды и на место GPT придет какой-то новый игрок, все равно ничего не изменится. Книга все так же будет актуальна.

Почему? По двум причинам.

Промтинг универсален. Наша книга не о возможностях какой-то конкретной версии GPT или другой модели. И в ней нет набора из тысячи простых промтов, которые, честно говоря, любой человек может штамповать сотнями в час, если имеет минимальные навыки промтинга.

Эта книга о создании запросов вообще, о промт-инжиниринге (промтинге) как явлении и системе. Мы пока вообще не касались промтинга, но именно ему и посвящена вся книга.

Да, в книге будут примеры промтов из разных ниш. Но не в качестве основного наполнителя и самоцели, а лишь как инструменты для развития креативности и понимания путей. В основном же мы будем давать не рыбу, а удочки, чтобы вы сами ловили свою рыбу. А рыба и сегодня, и завтра будет ловиться примерно по тем же законам.

Почему? Потому что…

ИИ развивается, но человек — статичен. Возможно, когда-то будет достаточно коснуться приложения, и GPT 70-й версии просканирует ваш мозг, поймет все желания, вашу целевую аудиторию, нужный стиль текста, а потом сразу выдаст идеальный контент, от которого все упадут в экстазе.

Но пока оптимальная модель взаимодействия конкретна:

• человек спрашивает — ИИ отвечает;

• человек задает рамки — ИИ подгоняет ответ под них;

человек уточняет — ИИ отвечает еще лучше (в идеале).

Всё. Иных путей взаимодействия человека и машины просто не существует. Да, ИИ может быть невероятно крутым и развиваться с бешеной скоростью, но все равно нейросеть должна ориентироваться на отстающего. На среднего человека. И никак иначе.

Всегда есть среднестатистический пользователь, который обладает определенным уровнем интеллекта. Если мы говорим о коммерческом продукте, то ИИ все равно придется подстраиваться под того самого обычного человека, который просто хочет спросить и получить классный ответ.

Значит, все процессы взаимодействия с ИИ так и останутся примерно на одном уровне. Да, еще обязательно усилится точность и качество ответов в новых версиях, но это опять же говорит только о том, что будут расти качественные показатели машины, а не человека. Сам процесс общения не может ни сильно усложниться, ни упроститься.

Почему не усложнится? Потому что тогда потеряется массовая привлекательность продукта. Что-то слишком сложное не работает на широкую аудиторию. Да и прогресс — всегда про упрощение задач. Чем быстрее и легче, тем лучше, но никак не наоборот.

Почему не упростится? А уже некуда упрощать, промты сегодня и так максимально простые. Да, можно упростить какие-то конкретные детали, например вариант ввода голосом, возможность выбора стиля или библиотеки усилителей (как это сделано у нас в сервисе NeuroPanda (о нем расскажем чуть позже)).

Можно сделать надстройку к LLM с помощью обычного промтинга (например, А-блоки в NeuroPanda) или программирования (IT-архитектура под нужды конкретной компании), благодаря которым модели сразу будут знать, что вам нужен, скажем, текст лендинга в убедительном стиле.

Но сам по себе формат промтинга уже и так максимально приближен к реальности. Даже если вы будете просить не ИИ, а вполне себе живого специалиста написать вам какой-то конкретный текст, вы как минимум хотя бы раз тоже должны дать ему некие требования и вводные. Все то же самое, что и с ИИ.

Повторимся: эта книга не о версиях, а о мастерстве промт-инжиниринга вообще — как навыка, профессии и в чем-то даже искусства. В книге много практики, примеров, фишек и только самая полезная информация.

Кто и почему написал эту книгу

Мы — сотрудники проекта «Панда-копирайтинг». Более десяти лет «ПК» создает тексты для бизнеса, рекламы, вирусного маркетинга, SMM, сайтов и т.д. Конкретно по контенту написали пять книг (это шестая). Создали стиль «убедительно-позитивный копирайтинг», в котором работают сегодня компании и профессиональные авторы.

Когда стало очевидно, что ChatGPT не очередной «халиф на час», а мощный инструмент, мы решили изучить ИИ пристальней. Начали с малого: стали пробовать первые стандартные промты, даже пытались создавать контент для наших второстепенных проектов.

К счастью, мы быстро увидели несостоятельность такого подхода. Стандартные подсказки работали кое-как, да и без четкой системы такая работа похожа скорее на лотерею. Когда-то повезет, а когда-то получается полная ерунда.

В итоге мы решили погружаться в тему полностью. Зимой 2023 года начали разработку сервиса NeuroPanda на базе GPT. Осенью того же года сервис начал работать и сейчас доступен по ссылке https://neuropanda.app/. Весь доступ к нейросети можно получить без VPN и прочих сложностей.

Кроме того, у него есть дополнительные сервисы наподобие библиотек графических и контентных подсказок, отдельная группа в соцсети для проектов «ПК» (https://pandeon.pro/), курсы (тоже бесплатные) и прочие интересные вещи.

«И при чем здесь книга?» — спросите вы.

Давайте зайдем чуть издалека, чтобы было понятнее.

Мы сразу решили, что точно не будем еще одним сервисом, просто транслирующим ChatGPT для конечного пользователя. Для подобной «легкотни» есть и оригинальный сайт OpenAI, и всевозможные боты в мессенджерах, например.

Конечно, и такой подход приносил бы деньги, однако на этом бы наше участие и заканчивалось. По сути, мы просто перепродавали бы доступ к оригиналу. Никакого творчества и романтики.

Мы сделали NeuroPanda другим. В основе его работы сейчас лежат два формата: А-блок и чаты.

А-блоки — разделы с блоками, преднастроенные определенными промтами для конкретных задач. Например, А-блоком является крупный раздел с блоками для написания большой экспертной статьи.

Мы разбили задачу на шаги, в ходе которых вы можете собрать все элементы (заголовки, темы, идеи вообще и разделов, списки, кластеры и т.п.) так, как вам удобно, а затем на основе всего этого сделать добротную статью.

Если делать так самому просто в режиме чат-подсказки (пусть и многоуровневой, мощной), то все куда более сложно и непредсказуемо: слишком много вводных, слишком многое нужно учитывать, слишком велика вероятность запутать ИИ и нарваться на галлюцинации (это явление рассмотрим позже).

Чаты представляют собой как «чистый» ChatGPT без преднастроек, так и специализированные чаты для разных задач. Один, например, «заточен» на обучение языкам, другой поможет лучше находить логические ошибки или готовиться по конкретной теме.

А вот теперь о том, при чем здесь книга.

Процессы такого уровня — колоссальный труд. Нам пришлось не просто изучить подсказки изнутри и потратить много-много миллионов токенов («валюта» и мера объема GPT) в процессе работы. Нам волей-неволей пришлось:

• открыть массу фишек и закономерностей;

• сделать тысячи ошибок и понять их причину;

• найти интересные стратегии промтинга;

• обкатать сотни вариантов структуры и запросов;

• разочароваться в поверхностных промтах;

• прокачать креативность и увидеть новые пути;

и т.д. и т.п.

В итоге мы стали сильными практиками промт-инжиниринга и накопили такой объем полезного практического багажа, который так и просился для отдельной книги. Именно поэтому она родилась.

P. S. Кстати, сейчас, поняв и освоив стандартный промтинг, мы уже вплотную подошли к более серьезному этапу, а именно — к созданию собственных LLM для точечных задач. Например, к написанию ИИ текста с определенной стилистикой.

Конечно, речь идет о надстройках на предобученные модели, а не о подготовке LLM c нуля, но в нашем случае такого и не требуется. Тонкое обучение — тоже не фунт изюма, но, надеемся, справимся и здесь.


1 Далее для единообразия мы будем обращатьcя к ИИ (GPT, ChatGPT) в мужском роде.

Далее для единообразия мы будем обращатьcя к ИИ (GPT, ChatGPT) в мужском роде.

ChatGPT1 постоянно развивается, всегда на несколько шагов впереди. Пока другие LLM доходят до его вчерашнего уровня, он уже машет рукой из завтрашнего дня.

Глава 1. Суть промтинга

В этой книге вы будете учиться правилам и приемам промт-инжи­ниринга. Им будут пропитаны все страницы, после чтения вы сможете совсем иначе взглянуть на потенциал ИИ. А теперь о само́м «главном герое».

Промт-инжиниринг (далее — промтинг) — это направление, изу­чающее навыки подготовки, создания и оптимизации подсказок (промтов) для нейросетей, где подсказка — это вводные данные, которые пользователь дает модели для получения нужного ответа.

Качество ответа может кардинально разниться в зависимости от того, насколько пользователь разбирается в правилах и тонкостях промтинга.

Посмотрим на две подсказки.

Дай мне рецепты трех вкусных блюд на ужин.

С точки зрения промтинга это ужасная подсказка. Во-первых, нет никаких переменных и условий. Во-вторых, мы совершили типичную ошибку, добавив оценочное суждение «вкусных».

Наша природа такова, что мы почему-то надеемся, что результат будет соответствовать именно нашему вкусу. Но ИИ так не думает, для него «вкусных» = «ничего» или «что угодно». Кому вкусных? По каким критериям? Из каких продуктов? В результате человек чувствует непонимание и грусть: «Я пробовал (-а) ChatGPT, результат не вдохновил. Как-то все слишком обычно или даже слабо, ничего этакого».

Это самая частая фраза людей, просящих рецепты трех вкусных блюд. Когда промты слабы, неконкретны, запутанны, включают в себя взаи­моисключающие условия или не устанавливают конкретные рамки подсказки, модель не сможет раскрыться. Вы будете пытаться выжать 100 км/ч на первой передаче, не умея переключаться до пятой.

Нейромодель GPT колоссально умна, она знает и умеет многое, но, чтобы вывести ее на нужный уровень, вы сами должны очертить ее рамки.

Теперь попробуем иначе.

Дай мне рецепты трех блюд на ужин.

У меня есть продукты: 2 кг картофеля, 1 кг курятины, морковь, свекла, томаты, чеснок, лук, перец.

В рецептах можно использовать часть или все продукты из списка. Нельзя добавлять продукты, которых нет в списке.

Способ приготовления — жарка или тушение.

Длительность приготовления — до 2 часов.

Блюда должны быть оценены как очень вкусные в большинстве источников.

Все, кроме одного ответа ИИ, точно соответствовали заданию. Но в одном ИИ «взбрыкнул» и по собственной воле добавил вот такой рецепт.

Рецепт 3: томатный суп с овощами и курятиной.

Ингредиенты:

• 500 г курятины;

• 2–3 картофелины;

• 1 морковь;

• 1 свекла;

• 2–3 помидора;

• 2 зубчика чеснока;

• 1 луковица;

• 1 литр куриного бульона;

• 2 столовые ложки растительного масла;

• соль и перец по вкусу;

• зелень (петрушка, укроп) для украшения.

Приготовление:

1. Курятину порежьте…

Модель использовала рецепт с растительным маслом и зеленью, которых не было в списке. Проблема? Нет, это все еще промтинг. Добавляем в диалог новую вводную:

Дай мне блюда без растительного масла и зелени, их нет в списке.

GPT уже помнит контекст, нейросети не нужно заново ставить условия. Мы лишь поправляем ИИ, вводя в нужные нам рамки. В итоге снова получаем три блюда, но уже с учетом прошлых ошибок. И теперь ни в одном нет «запрещенки». Вот один из примеров.

Тушеная картошка с курятиной в томатном соусе

Ингредиенты:

• 1 кг картофеля;

• 500 г курятины;

• 1 луковица;

• 2 моркови;

• 2–3 зубчика чеснока;

• 2–3 помидора;

• соль и перец по вкусу.

Приготовление:

1. Картофель…

Далее мы будем стараться не цитировать ответы GPT (только несколько раз в виде исключений). Все же не совсем правильно разбавлять авторский текст постоянными ответами ИИ.

Если бы мы пошли дальше, то могли бы попросить советы по сокращению времени готовки или, например, вытянули из ИИ какой-нибудь интересный соус из оставшихся продуктов. Повернуть можно куда угодно — этим промтинг и замечателен.

Конечно, картошка в томатном соусе — не высший пилотаж работы с подсказками, и все же пример отлично передает суть. Если мы умеем «управлять» ИИ, то GPT делает массу нужного и полезного. А если мы еще и креативны, опытны, знаем варианты «маневров», это лишь усиливает эффект.

Кому и где пригодятся навыки промтинга? Самое смешное, что практически всем и везде. Приведем буквально несколько примеров случайных ситуаций.

• Вы — менеджер. Вам нужно продумать варианты развития диалога со сложным клиентом. Или написать многоуровневое письмо с простой и четкой логикой.

• Вы — SMM-специалист. Вам нужны интересные идеи конкурсов, сценарии для историй и видео, контент-планы, посты и опросы. Или же вы хотите создать шаблоны и правила для экологичных ответов на агрессивные отзывы либо комментарии.

• Вы — папа. Вы хотите сочинять интересные сказки для младшей дочки, чтобы в них были обыграны известные ей места, события, упомянуты ваши домашние животные. Или продумать интересный сценарий для ее дня рождения, а старшему сыну — за десять минут сделать презентацию для школы.

• Вы — копирайтер. Вы тратите огромное количество времени на улучшение и редактуру текстов. Или же у вас писательский ступор, который не дает начать первый абзац, а то и вовсе сделать хотя бы черновик статьи.

• Вы — студент. Вы хотите написать классную курсовую, но креатива не хватает и со структурой проблемы. Или хотите блистать знаниями, используя малоизвестные факты, которых не было в лекциях.

• Вы — руководитель. Вам нужно проработать план и подобрать интересные сравнения для выступления. Или собрать релевантную информацию о предмете, который будете обсуждать с подрядчиком.

• Вы любознательны. Вам интересно пообщаться с умным собеседни­ком, который готов расширить ваш кругозор по любому вопросу. Или же вы хотите поспорить с ИИ «без поддавков», получая честные аргументы.

Промтинг — это не унылые и однообразные действия (хотя порой случаются и они), а полноценный творческий процесс, содержащий поиск путей, новые открытия и неожиданные решения. По сути, это огромная территория, где можно пойти куда угодно и как угодно.

Если бы можно было сделать какой-то емкий, но максимально описательный слоган для промтинга, мы бы предложили такой:

«Всегда можно спросить!»

О чем? А вот обо всем. Вообще обо всем. И это не дежурная фраза, а, скорее, совсем иной уровень вашего опыта.

Работа с подсказками — это не только рост качества ответов или закрепления интересных ходов, это всегда еще и «перенастройка» мозга.

Например, если мы уже более или менее привыкли, что есть поисковики, которые знают ответы на множество вопросов, то работа с подсказками — совсем иной, куда более глубокий уровень.

Объем и направление запросов — безграничны. Чем больше человек работает с нейросетью, тем больше он видит точек опоры и вариантов решений.

Поначалу мы не очень умеем опираться на GPT. Наш опыт «работы с машиной» все еще ограничивается максимум поисковиками: вводим запрос — получаем список статей, видео и т.д.

А вот то, что мы сами можем сконструировать схему получения ответов, наш мозг еще пока не понимает. Не привык. Не охватывает.

Пример мышления промтера

Скажем, вы хотите стать копирайтером. Что нам обычно подсказывает опыт?

Как выглядит обычное решение?

Посмотреть в поисковиках запросы типа «как стать копирайтером», «книги про копирайтинг», «что нужно уметь копирайтеру» и т.п. Найти по ним статьи, книги и прочие носители и изучить их.

Суть обычного решения выглядит так.

Мы берем подходящую информацию, оценивая ее как конечный набор знаний. Все, что можно было «вытянуть» из внешних источников, мы вытянули. Если мы не поняли какие-то данные, что-то было недостаточно раскрыто в статьях (книгах и т.п.) или у нас есть сомнения, то мы со всем этим так и останемся один на один.

Как вариант, еще можно оплатить услуги специалиста или задавать вопросы в каких-то сообществах, но это уже другие, побочные решения со своими минусами (дорого, долго, могут не ответить и т.п.).

Теперь посмотрим на решение промтера.

И сразу же есть варианты: либо опять же начать с книг или других конечных источников, чтобы составить общую картину, а затем идти к ИИ, либо сразу начать терзать GPT. Выберем более удобный и надежный вариант: «знания людей + ИИ».

Сначала мы изучаем общую информацию. Книги, статьи, видео и пр. Погружаемся. Вникаем. Затем, когда уже есть какое-то представление об объекте изучения и первые вопросы, можно приступать к промтингу.

Например, у нас есть вопросы по заголовкам:

Чем плохой заголовок отличается от хорошего? Дай примеры обоих случаев.

Объясни, чем каждый из них плох или хорош.

Я напишу пять заголовков, скажи, какие из них лучше и почему.

Терзаем GPT…

Немного разобрались. Идем дальше и снова собираем знания:

Какие малоизвестные формулы заголовков эффективно работают с информационными текстами и почему?

Какие ошибки допускают копирайтеры при создании заголовков?

Чем отличается заголовок по формуле AIDA* от заголовка по формуле PAS*: дай основные тезисы и примеры каждого вида. Объясни различия на примерах.

Я хочу знать все лучшие формулы заголовков, сначала дай мне основные данные о них, а затем создай тест для закрепления материала.

* Об этих и других формулах поговорим в главе 10.

Что-то не получается? Скажем, ИИ дает вам тесты из своих примеров, а вам нужны тесты с вариантами ответов? Или тестирование с вариантами «правильно-неправильно»? Или еще какое-то?

Не забываем, что с нами слоган «Всегда можно спросить!».

Если ИИ выдает вам тесты с вариантами ответов, а вы хотите чего-то другого, то все исправит простенький промт:

Ты дал мне тесты с вариантами ответов, а я хочу тестирование «правильно-неправильно» с 20 вопросами. Под каждым вариантом сам ответь — какой вариант верный и почему.

Вот так, шажками, проникая все глубже и постигая нюансы, мы можем саморазвиваться. Если встретился какой-то большой пласт знаний, то можно снова изучить книги и статьи (чтобы разобраться в теме), а затем опять перейти к общению с нейросетью.

Да, сегодня все еще не так радужно (о минусах промтинга мы скажем отдельно), но такая стратегия реально работает и дает очень хорошие результаты, особенно в тех нишах и областях знаний, где есть некие общепринятые международные стандарты (программирование, философия, физическая культура, психология, зоология и т.д. и т.п.).

И еще важный момент: слоган «Всегда можно спросить!» актуален, конечно, не только для самообразования. Это общий принцип, который работает при любых задачах. Ниже указана лишь часть глаголов-действий для подсказок, раскрывающих потенциал ИИ:

Обобщи

Замени

Сравни

Опиши

Усиль

Подбери

Найди

Создай

Напиши

Выбери

Разбей

Оцени

Придумай

Научи

Спроси

Представь

Улучши

Объясни

Проанализируй

Упрости

Помоги

Докажи

Реши

Измени

Посоветуй

Извлеки

Покажи

Проверь

Исправь

Переведи

Предложи

Продолжи

Задай

Расширь

И т.п.

Верно высказать невысказанное

Это еще один родственный навык, который со временем появляется у практиков промтинга. Но сначала обрисуем контекст.

Парень говорит: «Мам, хочу красивую обувь на лето». А красивая обувь на лето, по его мнению, — это, безусловно, ультрамодные тряпочные кеды, писк сезона. О них все знают! У него даже в голове не может уложиться, что кто-то думает иначе.

Но, к сожалению, мама думает иначе и покупает кожаные туфли, «ведь в них и на Первое сентября еще сходить сможешь, какая чудесная экономия». В итоге — непонимание и обиды.

Или, скажем, муж пишет жене: «Приготовь ужин, я жутко голодный».

Раньше он уже так писал и уже знает, что в таких случаях его обычно ждет любимая жареная рыба с картошкой. Муж так пропитался этой уверенностью, что, когда его встречают дымящиеся пельмени, он чувствует разочарование.

Но виновата ли в этом жена? Если между ними не было уговора, что «приготовь ужин, я жутко голодный» всегда и во все времена означает «жареная рыба + картошка», то вовсе нет.

Она могла решить, что пора бы и разнообразить меню.

Она могла устать и решила, что идти в магазин за рыбой не обязательно, ведь четкой конструкции «договора» не было.

Жареная картошка с рыбой и «я жутко голоден» вообще могли быть цепью случайностей, а не четко закрепленной конструкцией.

На ситуацию могут повлиять и многие другие факторы.

Как итог, муж не дал конкретные вводные, жена подстроила часть вводных под свои условия, и оба грустят. А пельмени стынут…

Да, со временем часть из нас учится на таких вот ошибках и понимает, что нужно уточнять, конкретизировать и вообще «строго по техзаданию», если хочешь, чтобы тебя поняли. Но…

Во-первых, далеко не все делают нужные выводы и ходят по таким граблям всю жизнь.

Во-вторых, пользуются таким опытом только для каких-то крупных и важных задач, а в мелочах — нет.

В-третьих, и на старуху бывает проруха. Нет-нет, ослабляем контроль — и снова грабли.

А теперь представьте: если даже в общении с близкими людьми мы бываем неправильно поняты или обманываемся в ожиданиях, то что говорить о нейромодели, которая изначально «заточена под всех»? Да, ее можно вывести на очень полезные уровни «под себя», но для этого нужно пропитаться одним очень важным пониманием.

Промтинг — это всегда умение найти, учесть и верно высказать невысказанное. Мы привыкли к тому, что обычно общаемся с себе подобными, до такой степени, что регулярно опускаем некоторые нюансы, которые в общении с ИИ опускать нельзя.

Мы спрашиваем коллегу: «Как лучше утеплить баню?»

Вроде бы простой вопрос, мы привыкли оперировать такими в обычной жизни. И даже не замечаем, что в нем по умолчанию уже скрыта масса смыслов.

Коллега знает, что у меня невысокий доход, поэтому предложит самые дешевые варианты.

Коллега знает, что я не профессионал в строительстве, поэтому предложит что-то попроще.

Коллега и я живем в Сургуте, где бывают сильные холода.

Я знаю, что коллега недавно утеплял баню и хвалился, что все быстро. Поэтому я жду какого-то легкого решения. И т.д.

Но поскольку коллега знает контекст и скрытые смыслы, он уже учитывает невысказанное и дает вполне подходящий нам ответ.

Увы, ИИ — это не коллега. И на такой запрос (без уточнений) можно получить что угодно. А вот чтобы получать то, что нужно, промтеру важно научиться переиначивать мышление так, чтобы общение с ИИ включало в себя и то самое, невысказанное, которое кажется «вроде и так понятно». Это совсем другой опыт, требующий практики.

Плюсы и минусы работы с GPT

Эта книга не будет гимном подсказкам. Да, у модели множество плюсов, но и кормить только сахаром — не в наших принципах. GPT, конечно, сильный и умный, но пока далеко не идеален.

У него есть ряд недостатков, о которых обязательно стоит сказать. Впрочем, и плюсы мы в стороне тоже не оставим.

«ПК» — контентщики, а потому мы оцениваем все, исходя из своих профессиональных навыков. Мы не самые удобные экзаменаторы, которые ставят тройку там, где другие бы поставили четверку или пятерку.

Словом, скажем, как видим. Без вранья. Все же наша цель не пиар нейросети, а выявление реального рабочего потенциала.

Минусы

Нестабильность оценочных суждений

В двух идентичных запросах с разницей в минуту GPT может дать два абсолютно разных ответа. Это не человек с каким-то статичным мнением, который и сегодня, и завтра на вопрос о десяти лучших книгах для начинающего писателя даст примерно один и тот же список.

Увы, у GPT списки могут легко разниться на 100 %. И этому не помогает ни изменение контекста, ни использование ролей (об этом поговорим чуть позже).

Почему так происходит? Мы спросили у GPT:

Скажи, почему при одинаковом запросе в разных диалогах даже при полной смене контекста ты даешь разные ответы?

ИИ дал такой ответ.

Этому может быть несколько объяснений.

1. Статистическая случайность. Внутри модели используются стохастические методы, в том числе случайный выбор, что может привести к некоторому уровню разнообразия в ответах, даже при одинаковом входном контексте.

2. Зависимость от предыдущих итераций. Если модель напрямую взаимодействует с предыдущими входными данными, то результаты могут варьироваться в зависимости от предыдущих ответов модели. Если один из нулевых контекстов до этого сгенерирован другой моделью или пользователем, то модель может прочитать этот контекст и использовать его при определении ответа на следующий запрос.

3. Недостаточное количество информации. При нулевом контексте модель может не иметь достаточно информации для однозначного ответа и, следовательно, может предложить несколько различных вариантов в ответе, основываясь на общих знаниях.

Так что чрезмерно надеяться на «лучшие», «самые» и прочие субъективные суждения нейросети не стоит.

С объективными же суждениями (например, «пять самых крупных животных мира») все иначе. Практически полный порядок уже сейчас. И все же (на всякий случай) советуем вам при запросе ответа требовать от ИИ критерии оценки.

Например:

Дай список пяти самых крупных животных мира, *укажи вес в килограммах.

* — критерий.

Если и теперь сомневаетесь, то можно перепроверить, задав тот же промт, но уже в новом контексте (начав новый разговор). Когда данные корректны, ответы будут идентичны. А вот если они почему-то не идентичны, то нужно спросить почему и попросить еще раз перепроверить.

Нестабильность реакций на подсказку

GPT порой «взбрыкивает» и на уже неоднократно проверенный промт дает не ту структуру, как раньше, даже если подсказка этого требует. Такое происходит нечасто, но все же случается.

Если подобное произошло, то попросите модель еще раз пересмотреть условия и дать ответ строго по ним. Или же дайте пример «эталонного» ответа, когда нейросеть отвечала вполне корректно, выдавая верную структуру.

Галлюцинации

Коротко говоря (подробнее поговорим в главе 2), это всякая ерунда (вымышленные факты, имена, варианты решений и т.п.), которую ИИ берет непонятно откуда.

ИИ может фантазировать как по вполне изученным темам (все реже), так и в случаях, когда у ChatGPT не хватает информации.

Так что на всякий случай советуем вам перепроверять ключевую информацию, касающуюся каких-то чисел, имен, дат, фактов и т.д. Но будем объективны: галлюцинации в свое время сильно подпортили имидж ChatGPT, поэтому разработчики нещадно борются с ними.

Неумение ИИ признаться в незнании

Такое явление встречается все реже. Это тоже подвид галлюцинаций, но несколько иного рода: чистый креатив при полном отсутствии информации.

Например, собранным нами у GPT причинам, по которым крокодилы мигрируют в Сибирь, мог бы позавидовать любой ученый. Но это было давно, в самом начале развития, сейчас ChatGPT стал скучным и признает, что не знает о таком виде миграций.

ChatGPT совсем или частично не подходит для ряда ниш и задач

Здесь следует учесть несколько особенностей.

Национальные и социальные особенности. ChatGPT — изначально англоязычная разработка, хоть и отлично говорит по-русски. И обучалась модель на основе колоссального пласта западной системы знаний, культуры, традиций, профессиональной специфики, менталитета и т.д.

Иными словами, о том, что не «за океаном», уровень знаний у модели еще невысок. Да, сегодня она уже умеет подстраиваться под язык пользователя и учитывать это при ответе. Например, посоветует для покупки автомобиля не западные, а российские сайты.

Будем надеяться, что со временем этот минус уйдет. Тем более что от модели к модели виден явный прогресс.

Профессиональные особенности. Есть целый ряд профессий и направлений, где GPT стоит использовать с оглядкой (бухгалтерия, юриспруденция, технологии). В их основе лежат разные законодательства и требования, много-много нюансов. И всех их ИИ, увы, пока не знает и не умеет различать.

Здесь (как и для других пунктов) пока верно правило: если что-то касается единой, общей системы знаний (например, первого закона Ньютона или определения термина «инфляция»), то все нормально. Когда же начинаются какие-то национальные, социальные и прочие особенности, стоит быть внимательными. Вам ведь не нужен доклад руководству, в котором два из семи законов Российской Федерации трактуются иначе, верно?

Технические особенности. Сейчас в интернете можно встретить такие подсказки для задач, как «создание бизнес-плана», «маркетинговый анализ», «сбор ключевых запросов» и т.п.

Чтобы вы поняли, почему мы говорим о таких запросах, приведем аналогию.

Есть макеты видеокамер, которые работают на батарейках. Очень похожи на настоящие камеры, некоторые даже крутятся и мигают. Они намного дешевле настоящих камер и с задачей «создать видимость видеонаблюдения» справляются. Есть лишь один нюанс — это не видеокамеры.

То же самое касается и промтов наподобие «создание бизнес-плана», «маркетинговый анализ», «сбор ключевых запросов». Да, результаты могут быть очень похожи на реальные маркетинговые анализы, но все это — только макеты. В других областях ChatGPT уже работает камера, с разным качеством съемки,

...