Назад

Как галлюцинируют ИИ-модели, и что с этим делать юристам

27 марта 2026
|
#информационно-аналитические материалы
Настоящий материал посвящен феномену «галлюцинаций» больших языковых моделей (LLM) и практическим рискам, которые такие ошибки создают при использовании ИИ в юридической работе. В материале систематизированы ключевые механизмы возникновения галлюцинаций, а также приведены основные классификации галлюцинаций и факторы, повышающие или снижающие их вероятность.

Особое внимание уделено сопоставлению типовых ошибок в различных моделях, а также практическим рекомендациям по выбору инструментов в зависимости от юридической задачи. Отдельным разделом представлены методы снижения риска галлюцинаций. 

Материал предназначен для:

  • юридических департаментов компаний; 
  • практикующих юристов и адвокатов; 
  • специалистов по комплаенсу и санкционному праву, внутреннему контролю и рискам; 
  • Legal Ops и команд, внедряющих Legal Tech и автоматизацию юридических процессов; 
  • иных лиц, использующих ИИ как вспомогательный инструмент при подготовке и проверке юридических документов и аналитических материалов.
Евгений Журба
Партнер — Legal Tech и автоматизация процессов

Материалы

Скачать полную версию