Виды чат-ботов: на основе сценариев и искусственного интеллекта
Чат-бот обрабатывает вопрос пользователя и даёт соответствующий ответ. Чат-боты работают на основе заранее запрограммированных ответов, искусственного интеллекта или того и другого.
Чат-боты на основе сценариев
Чат-боты на основе сценариев (или на правилах, командах, ключевых словах или транзакциях) — общаются, используя заранее определённые ответы. Они всегда придерживаются сценария и отвечают на основе набора правил «если / то», которые могут различаться по сложности. Они не понимают контекста разговора и дают совпадающие реплики только тогда, когда пользователь использует ключевое слово или команду.
Когда такому чат-боту задают вопрос вроде «Как я могу сбросить пароль?», он сначала ищет в предложении знакомые ключевые слова. Здесь это «сброс» и «пароль». Затем он сопоставляет их с ответами, доступными в его базе данных. Но если вопрос выходит за рамки возможностей чат-бота, например у слова другое написание или значение, чат-бот может не сопоставить этот вопрос с ответом. Из-за этого чат-боты на основе правил часто просят пользователя перефразировать свой вопрос. Некоторые чат-боты могут при необходимости передавать собеседника оператору-человеку.
Чат-боты на основе правил не могут учиться на прошлом опыте. Они отвечают только то, что им известно в данный момент
Единственный способ улучшить такого чат-бота — это заложить в него больше готовых ответов и улучшить механизмы, основанные на правилах. Но такие чат-боты — дешевые и простые, поэтому их часто используют.
Чат-боты на основе искусственного интеллекта
Чат-боты на основе ИИ — это программы, которые могут более естественно общаться с пользователями. Они используют машинное обучение, обработку естественного языка и анализ настроения.
Как и чат-боты на основе правил, чат-боты с ИИ должны быть хорошо обучены и оснащены заранее заданными ответами. Они обучаемы, могут понимать несколько языков и определять настроение клиента. Это позволяет им подстраивать общение к конкретному человеку.
Чат-боты с ИИ становятся умнее с каждым разговором потому что они перенимают поведение пользователей. Это стало проблемой для создателей чат-ботов и было хорошо продемонстрировано в эксперименте Microsoft под названием Conversational Understanding.
Эксперимент Conversational Understanding включал запуск искусственного интеллекта Tay в Twitter. Tay должна была переписываться с живыми людьми и показать, что компьютерная программа может стать умнее с помощью «случайных и легких разговоров». Поговорив с пользователями Твиттера всего пару часов, Tay начала отправлять твиты вроде «Гитлер был прав» ("Hitler was right").
В течение суток Microsoft удалил её из Твиттера со словами: «Мы глубоко сожалеем о непреднамеренных оскорбительных твитах Tay, которые не отражают ни наше мнение, ни то, что мы отстаиваем, ни то, как как мы проектировали Tay. Несмотря на то, что мы подготовились ко многим видам сбоев, мы сделали критическую оплошность».
Эксперимент показал, что чат-боты на основе ИИ несовершенны и имеют свои ограничения. Tay была недостаточно обучена, она «слепо» имитировала язык и поведение пользователей Twitter, которые намеренно учили её экстремистским высказываниям.
Роман Ямпольский, руководитель лаборатории кибербезопасности в университете Луисвилля: «Эксперимент Microsoft доказал, что чат-боты похожи на детей. Их нужно научить тому, что уместно, а что нет»
Поэтому, несмотря на внушительный потенциал искусственного интеллекта, в настоящее время лучше использовать чат-боты на основе подготовленных сценариев.
- Блог/