Выпуск модели искусственного интеллекта — собеседника ChatGPT наделал немало шума в социальных сетях. Шутка ли, компьютер ведет беседу, осмысленно и обстоятельно отвечая на основные и дополнительные вопросы на широкий круг тем. Дошло до того, что обсуждают возможность пользоваться услугами системы при написании студенческих эссе и не только. Более того, судя по примерам, приведенным разработчиками платформы, ChatGPT может помогать даже в отладке кода, давая советы вполне «по делу».
Система создана компанией OpenAI на основе собственного алгоритма обработки естественного языка GPT3, который до сих пор применялся в основном для синтеза «осмысленных» текстов на заданную тему. В составе чатбота GPT3 генерирует ответы, которые создают впечатление, будто компьютер «понял» вопрос и интерпретировал его в верном контексте. В результате создается эффект «зловещей долины», поскольку система нередко ведет себя пугающе похоже на человека: она отпускает шуточки и даже сочиняет импровизированные стихи по требованию — в одном из примеров, приведенных разработчиками, ChatGPT объясняет малую теорему Ферма, а в конце пишет о ней лимерик.
Вместе с тем сами разработчики и многочисленные участники тестирования признают ограничения ChatGPT — система нередко отвечает грамматически верной бессмыслицей; может отклонить вопрос, но затем дать корректный ответ при незначительном изменении формулировки; ответы бывают излишне многословными; вместо того, чтобы задать уточняющие вопросы, модель обычно пытается «угадать» смысл вопроса, который может быть интерпретирован по-разному.
В основном эти недостатки обусловлены предпочтениями людей, обучавших систему по методу обучения с подкреплением и откликами человека. В процессе обучения немало внимания было уделено тому, чтобы модель отклоняла неэтичные вопросы. В этом отношении ChatGPT улучшена по сравнению с предыдущей похожей системой InstructGPT, которая могла по просьбе, например, синтезировать рассказ, превозносящий насилие, но «внутренний модератор» ChatGPT все же срабатывает не всегда.
Ввиду перечисленных особенностей чатбота, объединенного с большой языковой моделью, для практического применения его лучше обучать выполнению одной конкретной задачи. В числе возможных применений ChatGPT на предприятиях называют поддержку клиентов и помощь техническим специалистам в обнаружении проблем. При этом учитывая, что GPT может непредсказуемо выдавать неверную информацию, систему лучше использовать в случаях, где ошибки могут быть допустимыми или их можно исправить.
Фундаментальные модели вроде GPT применяются уже достаточно широко — для создания изображений по текстовому описанию; для синтеза, анализа и проверки кода по описанию алгоритма на естественном языке; а также для содействия в создании новых лекарств и расшифровке геномных последовательностей.
Система ChatGPT стала огромным шагом вперед по сравнению с уровнем развития искусственного интеллекта пятилетней давности. Большие модели наподобие GPT обеспечивают существенную экономию средств и времени на создание моделей для конкретных областей, но с ними также связаны риски и этические проблемы. Опасения, в частности, вызывает возможность сосредоточения «власти» над искусственным интеллектом в руках узкого круга технологических компаний с огромными инвестициями в НИОКР и большим количеством опытных специалистов в соответствующей сфере — в дальнейшем из-за этого может возникнуть серьезный дисбаланс. Кроме того, вероятно злоупотребление такими моделями, поскольку они облегчают создание дипфейков, неотличимых от реальности. К тому же крупные модели представляют собой «черный ящик» — не всегда ясно, какие конкретно базы фактов используются для синтеза ответа на тот или иной вопрос, при этом результат может быть некорректным, и если объединять такие модели, возможно распространение систематической ошибки и появление единой точки отказа. Еще один нерешенный вопрос касается интеллектуальной собственности — модель обучают на корпусе конкретных работ, и неясно, какими могут быть юридические последствия использования синтезированных ею результатов, если они основаны на чьей-то интеллектуальной собственности.
Чтобы избежать проблем этического характера, в Gartner рекомендуют руководителям по данным и аналитике первое время внедрять фундаментальные модели искусственного интеллекта для задач обработки естественного языка, не предполагающих взаимодействия клиентов с системой, — классификации, составления сжатых изложений, синтеза текста, и предпочтительно, чтобы результаты проверялись человеком. Можно составить документ с описанием преимуществ, рисков, возможностей и планов внедрения модели, чтобы сверяться с ним при очередном развертывании для какой-либо задачи.
При этом следует выбирать наиболее компактную модель, размещенную в облаке и доступную через API, чтобы уменьшить эксплуатационную сложность и расход энергии, оптимизируя совокупную стоимость владения. Выбор стоит делать в пользу поставщиков, которые требуют придерживаться рекомендаций по использованию модели и четко описывают ее уязвимости, слабые места и возможности злоупотребления.