Алексей Бинецкий, Владимир Овчинский: Судья с искусственным интеллектом
Алексей Бинецкий, Владимир Овчинский
Вопрос применения ИИ в судебной и правоохранительных сферах – политическая и отчасти социально-психологическая проблема
Президент России Владимир Путин поручил правительству продумать национальную стратегию развития искусственного интеллекта. Соответствующий пункт содержится в опубликованном 31 января т.г. на сайте Кремля перечне поручений по итогам заседания наблюдательного совета Агентства стратегических инициатив, состоявшегося 15 января.
Путин установил сроком исполнения этого поручения 25 февраля 2019 года.
В тот же день – 31 января т.г., когда было опубликовано поручение Президента России, на сайте ООН был представлен первый Доклад Всемирной организации интеллектуальной собственности (ВОИС), посвященный развитию искусственного интеллекта (ИИ).
С середины 50-х годов прошлого века изобретатели и исследователи подали заявки на почти 340 тысяч изобретений на основе ИИ. Более половины всех изобретений, связанных с ИИ, были запатентованы после 2013 года.
Эксперты отмечают, что в последнее время увеличилось число патентных заявок на использование ИИ в робототехнике. В 2013 году их было 622, а в 2016-м – уже 2272. Ведущее место занимает транспортный сектор: в 2016 году на его долю приходилось 8764 патента. 6684 поданных заявки были связаны со сферой коммуникаций. В медицине, где ИИ активно применяется, например, в роботохирургии, число заявок в 2016 году достигло 4112, что на 40% больше, чем в 2013 году. В секторе персональных устройств, вычислительной техники и взаимодействия человека с компьютером число заявок в 2016 году составило 3977, что на 36% больше, чем в 2013 году.
В числе лидирующих направлений использования ИИ – сфера безопасности. Применение ИИ в юриспруденции находится в самой нижней строке рейтинга. Тем не менее, этому направлению в США, странах Евросоюза, Японии, Южной Корее и Китае уделяется не меньшее значение, чем применению ИИ в сферах бизнеса, промышленности, транспорте, медицине и IT.
Российские и зарубежные исследователи проблем использования ИИ в правосудии и правоохранительной деятельности нередко задаются вопросами об этичности этого процесса. Высказываются предположения о том, что использование в правосудии ИИ таит опасность сделать человека, его права и свободы уязвимыми, а само правосудие бесчеловечным и формальным. Как отмечал на одной на одном из научных обсуждений в прошлом году начальник Управления конституционных основ уголовной юстиции Конституционного Суда России Олег Вагин, «страшно представить, что решения в отношении человека, общества или человечества будут приниматься исходя из заданности информационных технологий, следуя совету «умного» искусственного интеллекта, полагаясь на который человек сам перестает думать, анализировать, прогнозировать свое будущее, а потому деградирует в качестве разумного существа, станет беспомощным и уязвимым, зависимым и от «машины», и от того лица, которое ею управляет, ее обслуживает, модернизирует, корректирует программное обеспечение, а в конечном счете, возможно и манипулирует поведением и решениями отдельных лиц, а через них интересами многих, тем самым превращая людей в марионеток, заложников IT технологий и средств их реализации».
Для того, чтобы развеять эти сомнения в мировом сообществе делаются первые шаги. Так, в декабре прошлого года Европейской Комиссией одобрена Европейская Этическая Хартия использования искусственного интеллекта в судебной и правоохранительной системах.
Европейская комиссия официально приняла пять фундаментальных принципов, содержащихся в Европейской Этической Хартии использования ИИ в судебной и правоохранительной системах.
Хартия предназначена для руководства в работе государственных и частных заинтересованных сторон, ответственных за создание и внедрение ИИ и его компонентов в судебной и правоохранительной сферах (методы машинного интеллекта включают машинное обучение или любые другие способы обработки больших данных). Хартия также касается лиц, принимающих решения в сфере законодательной или нормативной базы, а также оказывающих связанные с этим услуги.
Хартия поддерживает использование методов и компонентов ИИ для повышения эффективности и качества правосудия и правоохранительной работы.
Хартия исходит из того, что использование ИИ для обработки судебных решений и правоохранительной деятельности поможет повысить уровень раскрываемости преступлений, поднять уровень доказательности направляемых в судебные инстанции обвинительных заключений и обеспечить новый уровень обоснованности судебных решений за счет снижения количества ошибок при их вынесении.
Применение методов ИИ в уголовных делах должно сопровождаться особыми оговорками с тем, чтобы предотвратить дискриминацию на основе использования конфиденциальных данных и обеспечить гарантии справедливого судебного разбирательства для любого человека, вне зависимости от пола, возраста, гражданства и других характеристик.
Для систем ИИ, используемых в судебных и правоохранительных органах, особое значение имеет проведение их независимой внешней экспертизы на предмет исключения влияния на алгоритмы случайно или специально подобранных данных, которые могут привести к дискриминационным решениям.
Речь идет о том, что в настоящее время алгоритмы большинства ИИ, используемых, скажем, в Америке, в судебных и правоохранительных органах, базируются на машинном обучении. Машинное обучение – это, по сути, метод распознавания чего-либо на основе данных, характеризующих параметры этого чего-либо. Т.е. программа получает числовое описание портретов, например, европейцев и азиатов и на основании этих данных сама учится распознавать новые фотографии, относя их обладателей соответственно к европеоидной или азиатской расам. Фактически, машинное обучение, это статистические методы обработки прежней исторической информации, вычисления на ее основе основных характеристик и придание им наибольших весов при распознавании нового. Поскольку, скажем, в Америке наибольший уровень преступности сегодня в бедных латиноамериканских эмигрантских кварталах с высокой долей молодежи, то для машины молодой нелегальный мигрант в США в возрасте, скажем, до 20 лет без официального гражданства будет наиболее подозреваемым ИИ в преступлении лицом. Из белого и латиноса машина выберет латиноса в полном соответствии с прошлыми данными. Это и называется пристрастностью ИИ, которая влияет на правоохранительные и судебные решения.
Согласно принятой Хартии ее принципы должны регулярно применяться, контролироваться и оцениваться государственными и частными субъектами в целях постоянного совершенствования судебной и правоохранительной практики.
Для этого соответствующие субъекты будут регулярно проводить мониторинг хода практической реализации принципов Хартии. Независимые органы должны располагать результатами мониторинга и своевременно, под контролем соответствующих органов, вносить при необходимости изменения в программы ИИ, и установленные нормы применения ИИ в законодательной и правоохранительной деятельности.
Пять принципов Этической Хартии использования искусственного интеллекта в судебной и правоохранительной системах
Принцип первый – уважения фундаментальных прав. Необходимо убедиться, что разработка и использование инструментов и услуг ИИ совместимы с основными правами личности.
Обработка судебных решений и данных должна служить четким целям и полностью соответствовать Европейской Конвенции о правах человека и Конвенции о защите персональных данных.
Когда инструменты ИИ используются для решения споров или в качестве инструмента помощи в принятии судебных решений, а также в правоохранительной деятельности, важно обеспечить, чтобы ИИ не подрывал гарантии права на доступ к судье, а также право на равенство сторон и уважения к состязательному судопроизводству. При использовании ИИ правоохранительными органами, при предоставлении материалов в суд у стороны защиты в рамках проведения справедливого судебного разбирательства должно быть право на получение обоснования, принятого с использованием ИИ решения вплоть до раскрытия используемых больших данных и применяемых алгоритмах их разработки.
Также необходимо обеспечить безусловное сохранение принципа верховенства закона и независимости судьи и процессе принятия решений в обстановке, когда ИИ становится инструментом, вовлеченным в судебный процесс на стадии сбора доказательств, либо в фазе самого судебного процесса. Во всех случаях на этапах разработки алгоритмов ИИ необходимо соблюдать этические принципы, гарантирующие равенство граждан перед законом. В случае несоблюдения этических принципов необходимо отказываться от пусть эффективных и совершенных, но не соответствующих этим принципам алгоритмов машинного обучения, нейронных сетей и других математических методов ИИ.
Принцип второй – недискриминации. Уже на стадии разработки алгоритмов ИИ и больших данных, используемых для машинного обучения, необходимо блокировать возможность любой дискриминации между людьми или группами людей, которая может появиться в результате необдуманного использования статистических методов анализа необработанных больших данных.
Учитывая внутренне присущую методам машинного обучения и нейронных сетей способность закреплять классификации или распознавание новых данных на основе ранее выявленных закономерностей, касающихся отдельных лиц или групп лиц, необходимо, чтобы государственные и частные заинтересованные стороны уже на стадии разработки программных средств ИИ для судебных и правоохранительных сфер заблокировали возможность дискриминации определенных групп, слоев и отдельных граждан в результате применения алгоритмов.
Особое внимание следует уделить как на этапе разработки, так и на этапе развертывания, проверке применяемых алгоритмов на избыточный учет при принятии решений таких факторов, как раса, этническое происхождение, социально-экономическое состояние, политические взгляды, социальные связи, членство в профсоюзах и т.п. Следует прямо запретить в алгоритмах ИИ, используемых в судебной и правоохранительной системах, использование генетических данных, а также биометрических данных, связанных со здоровьем, сексуальной жизнью и сексуальной ориентацией. В случае, если такая дискриминация выявляется при проверке применения алгоритмов, необходимо вплоть до усовершенствования алгоритмов отказаться от использования ИИ.
Согласно данным доклада ФБР 2018 г. об использовании ИИ, а также конференции начальников полиции штатов в августе 2018 г. указанные в тексте факторы примерно на 80-90% позволяют распознать в совокупности подозреваемых потенциального преступника с точностью более 95%. Т.е. проблема состоит в том, что люди определенного возраста, пола, этнической, расовой принадлежности с конкретными социально-экономическими характеристиками совершают преступления намного чаще, чем представители других групп. Выявление значимых для вовлечения индивидуума в организованную преступность и является главной функцией ИИ в правоохранительной и судебной сферах. Соответственно ИИ, как огромный арифмометр, быстро обрабатывающий гигантские данные и определяющий числовые зависимости межу всем, чем угодно в этих данных, опираясь на прошлый опыт, выраженный в корреляциях, регрессиях, факторном анализе делает очень точные выводы. По сути, ИИ – это методы максимально многомерного статистического анализа исходных данных. Как результат ИИ получает только то, что содержится в исходных данных, но непосредственно не обнаруживается человеком и представляет собой неочевидные связи. Поэтому американцы и страны Британского содружества его применяют.
Европейцы же этой Хартией делают по сути невозможным использование ИИ, дело в том, что он будет указывать на, скажем, мусульманских молодых эмигрантов без работы гораздо чаще, чем на коренного немца со средним доходом и среднего возраста. А это противоречит толерантному подходу Европейской Комиссии. Между дискриминацией, как они ее называют и эффективностью прогноза, ради чего и используется ИИ, существует не прямая, как хотелось бы, а обратная зависимость. Просто в Европе правду называют дискриминацией.
Принцип третий – качества и безопасности. В отношении разработки алгоритмов и использования данных, следует анализировать источники больших данных, их структуру и содержание, а также необходимо использовать математические модели, разработанные на междисциплинарной основе, учитывающей не только прямые статистические корреляции, но и социальные, культурные, экономические и другие факторы, вызывающие эти корреляции.
Разработчики модели машинного обучения должны иметь возможность широко использовать опыт работников судебной и правоохранительной систем, включая судей, прокуроров, юристов, следователей, оперативных работников и т.п., а также специалистов в области социальных наук, включая экономистов, социологов, психологов и т.п.
Для разработки ИИ, используемых в судебной и правоохранительной сферах, необходимо формировать смешанные проектные команды, реализующие междисциплинарный подход. При распределении подрядов на производство ИИ для судебной и правоохранительной сфер обязательным требованием должна быть сертификация разработчиков на прохождение курсов по этике ИИ.
Эффективность ИИ в значительной степени предопределяется качеством данных, используемых при машинном обучении. ИИ, применяемый в судебной и правоохранительной системах, должен обучаться на данных исключительно из сертифицированных источников.
Принцип четвертый – прозрачности. В судебной системе и правоохранительных органах ИИ может использоваться только в том случае, если его реализация обеспечивает прозрачность, включая доступность и понятность исходных больших данных и применение лишь тех типов нейронных сетей, в отношении которых внешний аудит может выяснить критерии распознавания тех или иных совокупностей.
Необходимо соблюдать баланс между интеллектуальной собственностью разработчиков на методы машинного обучения, используемые нейронные сети и т.п. и необходимостью обеспечения прозрачности, беспристрастности и отсутствия дискриминации в программах и алгоритмах ИИ.
Необходимо создать систему внешнего аудита программных средств ИИ. Целесообразно установить порядок, согласно которому обязательным условием использования ИИ в судебных и правоохранительных сферах является прозрачность их алгоритмической базы и объяснимость принятия решений на всех уровнях с целью недопущения использования дискриминационных факторов при распознавании объектов.
Наиболее предпочтительным является вариант полной технической прозрачности, когда ИИ для судебной и правоохранительной сфер использует открытый исходный код, доступную документацию и человечески интерпретируемые алгоритмы нейронных сетей. Система также должны быть объяснена простым и понятным языком, прежде всего, для описания того, как получены результаты, чтобы обвиняемые, адвокаты и другие участники состязательного судебного процесса могли понять, и в случае необходимости оспорить, принятые ИИ рекомендации для решения дела.
Целесообразно ввести государственную сертификацию производителей ИИ, используемых в судебной и правоохранительной сферах.
Принцип пятый – пользовательского контроля. При применении ИИ в судебной и правоохранительной сферах исключить нормативно предписывающий подход и обеспечить, чтобы все пользователи системы были информированы участниками и эксплуатировали ИИ только в том случае, если могут разобраться в алгоритмах и способах применения ИИ. В судебной системе также как в военной сфере не могут использоваться ИИ-черные ящики. Судебные работники всегда должны понимать и знать, на чем основываются выводы ИИ, которые предлагаются им как автоматизированное экспертное мнение.
Пользовательский контроль должен быть увеличен, а не ограничен, на основе инструментов и сервисов ИИ. Профессионалы систем правосудия и правоохранительной деятельности должны в любой момент иметь возможность пересматривать судебные решения, принятые с применением ИИ, а также контролировать данные, используемые ИИ на всех этапах расследования и судебного процесса. Пользователь должен быть проинформирован ясным и понятным языком о том, каким образом принято решения ИИ, насколько они обязательны и имеют ли они право оспорить эти решение.
Каждый участник судебного процесса должен иметь полное право на получение в случае необходимости любых данных, используемых ИИ, для вынесения того или иного решения. Соответственно, участник не только должен иметь право на получение данных, но и на использование услуги обработки этих данных другим сертифицированным ИИ, чтобы выяснить, насколько обоснованными являются используемые в судебном процессе решения рекомендации со стороны ИИ, обслуживающего, например, сторону обвинения.
Фактически речь идет о создании службы внешнего аудита принятых ИИ решений. Такая служба, скорее всего, должна действовать как государственная структура и не зависеть от производителей ИИ.
Вообще говоря, любая информационная система на основе ИИ, применяемая в судебных и правоохранительных системах, помимо государственной сертификации должна иметь аналоги, произведенные другой компанией, которые могли бы выступить в качестве аудиторов при проведении внешнего аудита решений ИИ.
Не совсем понятно, как на практике будут выполняться четвертый и пятый принципы.
Главная проблема с ИИ сегодня это — непонятность для лиц, принимающих решения, на основании каких конкретно факторов и с какой значимостью каждого из них ИИ относит человека или объект к одной совокупности, а не к другой. Человек, когда принимает решение, использует несколько критериев, одни из которых более важны, другие – менее важны. Сегодня для наиболее продвинутых ИИ нет способа выяснить в компактном и понятном виде, на основе каких конкретно критериев принимается решение относить объект к той или иной совокупности. Это вызывает большие опасения, потому что люди принимают решения, не понимая, почему они это делают. Проблема черного ящика и непонятности действий нейронных сетей для лиц, принимающих решения, без специального математического образования – это главная проблема использования ИИ в госуправлении.
Углубленное изучение использования ИИ в судебных системах, в частности, используемых в обработке судебных решений и данных правоохранительной системы
Волна цифровых преобразований, по-прежнему, неравномерно влияет на судебные и правоохранительные системы государств – членов ЕС. В ряде государств, прежде всего, в Нидерландах, Германии, Франции, Австрии, Польше уже разработан чрезвычайно продвинутый подход к использованию практических приложений ИИ, прежде всего, в системе электронного документооборота, в судах и правоохранительных органах. В некоторых государствах, а именно в Нидерландах, Франции, Австрии системы ИИ, использующие глубокие нейронные сети на основе машинного обучения, взяты на вооружение правоохранительными органами крупных городов и используются для предиктивной аналитики, а также цифровых расследований.
Юриспруденция, судебная и правоохранительная сферы относятся к числу областей с наиболее продвинутым использованием ИИ. В 2018 г. в Соединенных Штатах «роботы-адвокаты» уже оказали услуги более чем на 1 млрд. долларов. Они помогают клиентам готовить первичную документацию и различного рода юридические документы для представления в государственные органы.
Юридические стартапы, специализирующиеся на разработке новых юридических услуг, продали юристам, юридическим службам и страховщикам услуг на 2,3 млрд.долларов. Появились также частные компании, оказывающие юридическим и физическим лицам экзотическую услугу, а именно, прогнозирование решений судов присяжных по различным делам. Данная услуга при всей своей спорности лежит в рамках законодательства штатов и поэтому получает все большее развитие.
Европа, несомненно, отстает по уровню использования ИИ в судебной и правоохранительной сферах. Среди стран-лидеров в Европе находятся Нидерланды, Франция, по некоторым направлениям Германия и Польша. Выходящая из ЕС Великобритания даже опережает Соединенные Штаты по использованию ИИ в юридической сфере. В Великобритании главное внимание уделено использованию ИИ для поиска информации в юридических архивах и хранилищах, а также повышения эффективности электронного документооборота судебной и правоохранительной сфер.
При всех достижениях необходимо проводить четкое различие между коммерческим дискурсом, склонным к маркетингу, рекламе, а значит преувеличениям, и реальностью использования ИИ в правоохранительной и особенно в судебной сферах. В настоящее время судьи в государствах-членах ЕС широко и повсеместно применяют традиционный софт и сервисы, связанные с документооборотом, и вообще не используют прогнозное программное обеспечение, базирующееся на ИИ, в своей профессиональной деятельности.
По оценкам Европола, правоохранительные органы Европы, возможно, за исключением Нидерландов, отстают как минимум на 10-12 лет от Соединенных Штатов, Великобритании и, вероятно, Китая в использовании и прогнозной или предиктивной аналитики в практической правоохранительной деятельности, включая полицейских непосредственно на земле. В целом, использование ИИ в судебной и правоохранительной системах государств-членов ЕС, крайне незначительно и относится скорее к перспективным, чем к текущим задачам. Также как и по другим направлениям четвертой производственной революции, государства-члены Совета Европы за редким исключением все сильнее отстают от государств-лидеров, а именно США и Китая, в использовании ИИ.
Согласно материалам государств-членов ЕС, в настоящее время на государственном уровне ни в одной из стран не реализуется государственная программа цифровизации судебной системы и национальных правоохранительных органов. Все успехи европейского ИИ, за исключением Франции, и выходящей из Европейского Союза Великобритании, связаны исключительно с разработками частного сектора, нацеленными на европейские адвокатские и в целом юридические фирмы.
Отставание Европы от лидеров в области ИИ имеет не только очевидные минусы, но и некоторые плюсы. В частности, при разработке и внедрении ИИ в судебную сферу можно использовать зарубежный опыт феномена «предсказательной юстиции».
В настоящее время, особенно в Соединенных Штатах, Великобритании, отчасти в Китае, Южной Корее и Японии, все шире используется система предсказательного судопроизводства и предсказательных полицейских действий. Использование предсказательной аналитики в судебной и правоохранительной сферах сталкивается в этих государствах со значительной критикой. Соответственно производители систем ИИ публикуют достаточно большой объем дынных, программ, статистики, характеризующих работу их систем. В рамках ЕС целесообразно создать межстрановую комиссию, которая могла бы на междисциплинарной основе обобщить результаты дискуссии и подготовить базис для создания европейских систем ИИ.
Есть основания полагать, что столь быстрое развитие предиктивной аналитики связано не только с практическими нуждами, но и объясняется соревнованием США и Китая в области ИИ, используемого для поведенческого управления и контроля. Прогноз – важнейшая фаза поведенческого контроля, а соответственно в значительной степени предопределяет его эффективность.
Анализ американской и в меньшей степени азиатской практики применения предиктивной судебной аналитики позволяет увидеть еще одну опасность. Не секрет, что все большее распространение в мире, в том числе в Европе, приобретает практика создания частных инвестиционных пулов, которые финансируют адвокатов в судебных процессах, где потерпевший выступает против корпораций. Особенно это связано с табачной, алкогольной, медицинскими отраслями, производителями товаров для населения. Если ранее подобного рода пулы формировались исключительно на основе экспертного анализа, то теперь они покупают услуги предиктивной судебной аналитики, рассчитывающей шансы на то или иное завершение судебного процесса.
Между тем эксперты Европейской комиссии полагают, что применение ИИ может привести к усилению зависимости судей, присяжных и других участников судебного процесса от заранее сделанных прогнозов относительно итогов процесса, которые базируются не на каких-то предпочтениях и личных оценках, а исключительно на объективных статистических расчетах.
Все более жёстко разворачивающаяся гонка между США и Китаем в области ИИ и больших данных, которые, по сути, на наших глазах из различных областей сливаются в одну, подкрепленную интернетом вещей, позволяет разглядеть еще одну опасность. Уже сегодня очевидно, что тот, кто обладает AIOT (ИИ + большие данные + интернет вещей), на порядок сильнее и могущественнее того, у кого этого нет. Использование полицией, прокуратурой и судебной властью AIOT делает одну из сторон судебного разбирательства на порядок более мощной и вооруженной, чем другая.
Эксперты Европейской комиссии делают, на наш взгляд, странный вывод о том, что де факто, это с большой вероятностью подрывает право каждого на независимый и беспристрастный суд, а также равенство сторон в судебном разбирательстве.
По их мнению, бесконтрольное использование ИИ и AIOT в судебной и правоохранительной областях без преувеличения в короткие сроки может уничтожить важнейший европейский принцип соблюдения прав человека и состязательный характер судебного процесса. Использование AIOT одной стороной процесса сродни превращению состязания в преодолении местности между людьми в соперничестве человека и автомобиля.
Проще всего было бы запретить использование AIOT в судебной сфере, тем более, что пока в государствах ЕС ИИ применяется только в сфере повышения эффективности судебного документооборота. Однако практика использования новых технологий в мире показывает, что подобного рода запреты не работают, и любая технология получает соответствующее распространение. К тому же решения ИИ уже сегодня используются криминалом и организованной преступностью. Соответственно, если правоохранительные органы и судебные системы на основе законодательных решений будут лишены AIOT, тем самым они будут поставлены в заведомо проигрышную позицию по отношению к преступности.
Вопрос применения ИИ в судебной и правоохранительных сферах – это не вопрос технологий и информационной политики, а политическая и отчасти социально-психологическая проблема. ИИ – это вычислительная система, делающая выбор на основе статистической информации. Как правило, главная проблема, которая решается в подобных системах, это – обеспечение отражения в статистической информации фактического положения дел. Наиболее эффективный ИИ будет принимать или рекомендовать решения на основе реальных связей, зависимостей и отношений, которые выявлены на основе анализа реального положения дел.
Однако хорошо известно, что политика базируется не на реальном положении дел, а на компромиссе между интересами, возможностями и силой, которой обладают различные группы, слои, страты общества и паттерны давления. Политическая система компромиссов имеет свое отражение и в судебной системе. Любое судебное решение – это ситуативное решение, когда закон применяется к определенной конкретной ситуации. Особенно это очевидно в британском прецедентном праве. Однако в более неявном виде ситуационный принцип реализуется и в так называемом континентальном праве.
В России противники применения ИИ в судебной системе апеллируют к тому, что у нас не прецедентное право, поэтому нельзя основываться в судебных решениях на аналоги уголовных дел. При этом закрываются глаза на то, что судьи всегда основываются на своем прошлом опыте по делам об аналогичных составах преступления, опыте региональных судей, решениях Конституционного Суда РФ и постановлениях Президиума Верховного Суда РФ, которые по сути своей – разновидность прецедентного права.
Почему российским судам нужен искусственный интеллект?
Технологический «ветер перемен» коснулся и российских судов. Выступая 12 февраля т.г. на совещании – семинаре судей судов общей юрисдикции и арбитражных судов России председатель Правительства РФ Дмитрий Медведев подчеркнул, что в стране продолжается работа по цифровизации судебной системы. В банке автоматизированной системы ГАС «Правосудие» уже более 80 млн дел. В прошлом году суды общей юрисдикции приняли более 500 тыс. заявлений в электронном виде, и более 250 тыс. заявлений поступило в арбитражные суды. Активно ведется работа по размещению в интернете решений судов. В базе данных Верховного суда уже более 600 тыс. дел.
На наш взгляд, это только первые шаги , которые должны вести к использованию российскими судами ИИ. Многие задачи, которые выполняют юристы и адвокаты, очень трудоемкие, утомительные и дорогостоящие. При этом существует риск ошибок и неточностей в работе специалистов.
Вопрос о делегировании таких задач ИИ очень актуален. Сервисы по автоматизации поиска юридической информации и анализа документов могут сэкономить до 80% времени юристов и до 90% стоимости их консультаций.
Еще один драйвер внедрения ИИ в юридическую сферу — большие данные (big data). Это огромный массив накопленной человечеством информации: судебные решения, иски, договоры, консультации. Благодаря росту мощностей современных компьютеров, совершенствованию алгоритмов и математических моделей, появляется возможность на базе этих больших данных создавать принципиально новые продукты.
Создание и использование ИИ и БД не является попыткой заменить человека (судью прокурора следователя и адвоката) в процессе принятия решений по всем направлениям судопроизводства.
Главное цель это максимальная объективность на основании БД и сокращение сроков на принятие решений или получения достоверной информации с помощью ИИ. На уже упомянутом совещании – семинаре судей Дмитрий Медведев особый акцент сделал на нагрузке судей. Если в 2017 году 33 тыс. судей страны рассмотрели 28 млн дел, то в 2018 году уже более 31 млн дел. Причем прогнозируется постоянный рост числа дел для рассмотрения.
Внедрение ИИ и БД — это уже вынужденная мера для обеспечения качественной и эффективной судебной защиты прав наших граждан.
Полноценное внедрение ИИ на основе БД дает колоссальные возможности по изменению ситуации в правосудии как по уголовным, так и по гражданским делам.
Остановимся на примере с уголовным преследованием и судопроизводством. Сокращение сроков на сбор сведений о задержанном. В нашем случае в соответствии со ст. 91.92 УПК РФ, когда необходимо принять решение о избрании меры пресечения. Адвокаты и прокуроры будут сразу иметь всю картину для обоснования своих доводов и одновременно суд будет иметь возможность видеть судебную практику. Такой механизм безусловно даст объективную оценку личности и ситуации и резко снижает возможность для манипуляций и фальсификаций доказательств любой из сторон в уголовном процессе.
В РФ как известно практикующим юристам практически не работает ст 125 УПК РФ ( судебный порядок рассмотрения жалоб). Использование ИИ и БД даст возможность заново запустить этот важнейший правовой механизм. Сделать предоставленную законом норму из декларативной в реально действующий инструмент.
Противники внедрения ИИ в судопроизводство часто говорят : если мы не можем научить человека, как стать идеальным судьей, почему мы думаем, что сможем обучить этому искусственный интеллект? Нам кажется, что это — ложный постулат.
Судьи имеют определенную свободу при принятии решений, которая не подчиняется алгоритмам. ИИ может подсказать судье, допустим, как принять решение по конкретному делу на основе анализа прецедентов или судебной практики по данной категории процессов. Или же ИИ может дать совет сторонам решить спор до суда.
Качественный ИИ и особенно доступность БД резко снижает произвольное толкование норм права и многократно уменьшает возможности административного давления на следователей прокуроров и судей. И в обратную сторону дают возможность иллюминировать (выявлять) сомнительные решения и приговоры, например, на предмет коррупционной составляющей или даже в случаях самооговора.
Внедрение ИИ с применением big data качественно может изменить всю картину восприятия гражданами системы правосудия в России в том числе и по персоналиям.