Автор Надежда Шакель
Не секрет, что ИИ сегодня активно применяется в школах, в вузах, в том числе юридических. Следующий шаг – применение систем ИИ в практической деятельности, например, работниками юридических служб организаций, адвокатами и судьями.
В зарубежной практике юристы активно используют ИИ. С какими же рисками сталкивается пользователь нейросети?
Недостоверная информация
В деле Avianca рассматривался вопрос о защите прав пассажира, который получил травму в ходе полета. Система американского права большое значение придает прецеденту, когда для подтверждения своей позиции в суде важно найти уже рассмотренное похожее дело, по которому было вынесено решение, соответствующее желаемому его доверителем.
В данной ситуации адвокат «переложил» бремя поиска судебных решений на ИИ, сделав запрос о создании десятистраничного документа с соответствующими судебными делами. Получив результат, юрист стал сомневаться в том, что вся информация корректна. Затем специально уточнил у нейросети, реальны ли указанные в документе дела, в ответ получил однозначные «заверения» о том, что кейсы не вымышленные. Однако в действительности ИИ «сгенерировал» требуемые решения, что и выяснилось в ходе процесса.
В данном деле вовремя обнаруженная ошибка ИИ не повлекла существенных проблем (кроме потери времени на поиск несуществующих дел другой стороной). Однако очевидно, что недостоверная информация, предоставляемая ИИ, может повлечь очень серьезные проблемы.
Повсеместное проникновение Интернета привело к тому, что у людей проявилось в определенной степени то, что можно назвать «слепой верой» в то, о чем пишут в сети. Появился даже показательный анекдот: «Главная проблема цитат в Интернете заключается в том, что им безусловно верят» (В.И.Ленин).
Отсутствие понимания ограничений, которые имеются у ИИ, впечатление, что ИИ — это некая бесконечная база знаний, которая ищет и находит правильный ответ по запросу пользователя, встречаются достаточно часто. На самом же деле для нейросетей характерны так называемые «галлюцинации», когда, если говорить о юридической сфере, правовые акты, судебные решения и прочие юридические аспекты «изобретаются» ИИ.
Ответственность же распространение соответствующих сведений (клеветы, сведений, затрагивающих деловую репутацию), будет нести пользователь.
Защита персональных данных и иной информации ограниченного распространения
Получение данных из систем ИИ зачастую связана с загрузкой определенных исходных сведений. Например, сейчас внедряются боты-консультанты, которые могут дать определенные рекомендации и данные на основании представленной информации. Такие сведения могут содержать персональные данные. Например, для подготовки позиции по делу юрист может загрузить текст искового заявления с данными всех участвующих в процессе лиц. Или при подготовке материалов заседания, оформлении протоколов в организации с помощью ИИ указать сведения о лицах, которые принимали участие в таких мероприятиях.
В такой ситуации следует учитывать две потенциальные опасности:
- во-первых, данные в таком случае передаются зачастую «в неизвестном направлении», что может вызвать вопросы о трансграничной передаче;
- во-вторых, поиск правового основания обработки данных может быть затруднительным.
Поэтому стоит ограничиться минимальным количеством данных при использовании ИИ.
Коммерческая тайна
Аналогичным образом следует учитывать опасности, связанные с использованием информации, представляющей коммерческую тайну. Существенный риск для компании представляет ситуация, когда в систему ИИ будут загружены чувствительные, важные для бизнеса сведения. Далее ИИ выдаст информацию (в том числе и конфиденциальную), основанную на этом результате любому пользователю.
Сегодня все чаще высказываются опасения о том, что ИИ заменит юристов. Однако пока что, несмотря на искушение отказаться от юридических служб, реализовывать такие действия преждевременно. Юристам же следует учитывать ограничения и правовые рамки использования нейросетей.