@olegb_07У нас такая специфика - для банка - бот должен
- строго соблюдать границы разрешенного (то есть отвечать только на разрешенные вопросы/ темы)
- но заданные в любой форме любыми словами и на любом языке
- отвечать только в соответствии с политиками банка - никакой креативности тут
- полная visibility traceability auditobility
- эскалировать на человека оператора все остальное
- и еще 10 сек максимальное время ответа под нагрузкой когда десятки тысяч разговоров в день
Мы это решаем целым комплексом средств
Это и промпты - но не просто промпты - у нас так называемые скилы - то есть отдельные промпты для сложных операций которые не всегда идут в LLM а в разных случаях разные
И еще так называемые guards
Это на этапе диалога
И да потом эти диалоги анализирует другая LLM - выявляет проблемы - и дальше цикл улучшения агента
2026-04-23 18:34:53
@199884498Вопрос: вы все-таки используете ллм для генерации ответов? С учетом ваших ограничений с моей колокольни можно отвечать несколькими сотнями шаблонов
2026-04-23 18:52:56
@olegb_07Только LLM - никаких шаблонов - систему начали писать в 2023
2026-04-23 18:54:09
@199884498Есть ли какие-то юзкейсы, которые шаблоны не закрывают по сравнению с ллм?
2026-04-23 18:56:09
@olegb_07Я думаю тут абсолютно другое качество разговора - с шаблонами клиент чувствует себя не комфортно
И шаблоны дорого и долго делать - слишком много вариантов надо перебрать
2026-04-23 18:58:01
@199884498Ну у вас же скорее всего очень короткие периоды взаимодействия и редко повторяются сценарии (по сравнению с онлифанс))
Можно генерить шаблоны ллмкой и получить воспроизводимое проверяемое поведение. Проверку ответов на типовые вопросы вы скорее всего все равно проводите при тестировании
2026-04-23 19:03:02
@olegb_07Не знаю шаблонный вариант не делал
2026-04-23 18:59:27
@199884498И еще: Есть ли у вас план/договоренности о том что будет, если модель сильно ошибется и нанесет финансовый ущерб кому-то?
2026-04-23 18:54:22
@olegb_07Это могу в разговоре прокомментировать
2026-04-23 18:55:20
