Настоящий материал посвящен феномену «галлюцинаций» больших языковых моделей (LLM) и практическим рискам, которые такие ошибки создают при использовании ИИ в юридической работе. В материале систематизированы ключевые механизмы возникновения галлюцинаций, а также приведены основные классификации галлюцинаций и факторы, повышающие или снижающие их вероятность.
Особое внимание уделено сопоставлению типовых ошибок в различных моделях, а также практическим рекомендациям по выбору инструментов в зависимости от юридической задачи. Отдельным разделом представлены методы снижения риска галлюцинаций.
Материал предназначен для:
- юридических департаментов компаний;
- практикующих юристов и адвокатов;
- специалистов по комплаенсу и санкционному праву, внутреннему контролю и рискам;
- Legal Ops и команд, внедряющих Legal Tech и автоматизацию юридических процессов;
- иных лиц, использующих ИИ как вспомогательный инструмент при подготовке и проверке юридических документов и аналитических материалов.