Как сообщает
BFM.ru, компания OpenAI обновила свою политику и запретила ChatGPT делать заключения по медицинским анализам, рассматривать снимки и давать юридические консультации. Теперь нейросеть не может использоваться как личный врач или юрист. При этом и ранее в политике OpenAI указывалось, что рекомендации в области медицины, права и финансов могут применяться только при участии квалифицированных специалистов.
Одной из наиболее спорных сторон использования ИИ остаются юридические консультации, когда пользователи просят нейросеть составить иск или предложить стратегию в суде. Партнер практики Legal Tech и автоматизации процессов BGP Litigation Евгений Журба отметил риски такого подхода:
«Не подкованные юридически люди, по своей проблеме сначала советуются с нейросетями, с LLM-моделями, а потом уже приходят к юристам за подтверждением того, что это заключение правдиво. Это очень плохо, потому что они получают нарратив по тому, как действовать, и верят по умолчанию этому нарративу. Хотя в очень большом количестве случаев сами ответы, эти нарративы — это неправда, они «сгаллюцинированы» либо ведут не туда. Они могут быть основаны условно не на российской правовой системе, а на американской. Человек, который не обладает юридической компетенцией, нагенерировал себе ответ, потом выложил у себя в блоге или на форуме. Эти же данные начинают использоваться нейросетями при обучении по дальнейшим похожим кейсам, то есть нейросети начинают это считать правдой».
С подробным материалом можно ознакомиться по
ссылке.