Кокин А.В. , Денисов Ю.Д. Искусственный интеллект в криминалистике и судебной экспертизе: вопросы правосубъектности и алгоритмической предвзятости // Теория и практика судебной экспертизы. 2023. Т. 18. № 2. С. 30–37. https://doi.org/10.30764/1819-2785-2023-2-30-37
Введение
В настоящее время технологии искусственного интеллекта применяются для более быстрого принятия различных по значимости решений в бизнесе, медицине, транспорте, управлении и других сферах деятельности. Так, в криминалистической технике и судебной экспертизе разрабатываются и апробируются специальные экспертные системы, системы распознавания образов, обработки изображений, машинного обучения и пр.
Слияние технологий ИИ, больших данных и интернета вещей стало своеобразным триггером процессов качественного изменения общественных отношений. Это обусловило необходимость принятия мер по созданию и регулированию условий для их разработки, внедрения и использования. Во многих странах, в том числе и в России, были созданы государственные программы, направленные на стимулирование развития и применения современных цифровых технологий. Например, по итогам совещания по вопросам развития технологий в области ИИ (2019 год) и ежегодной конференции «Путешествие в мир искусственного интеллекта» (2020–2022 годы) Президент Российской Федерации В.В. Путин подписал ряд поручений, направленных на обеспечение принятия законов, стимулирующих применение ИИ, установление требований по повышению эффективности деятельности хозяйствующих субъектов в данной сфере, внесение изменений в программы образования и выполнению комплекса других мероприятий, обеспечивающих развитие новой технологии.
В целях реализации поручений Президента был принят Федеральный закон от 24.04.2020 № 123-ФЗ «О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации – городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона “О персональных данных”» (далее – ФЗ № 123-ФЗ). В п. 2 ч. 1 ст. 2 ИИ определяется как «комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека. Комплекс технологических решений включает в себя информационно-коммуникационную инфраструктуру (в том числе информационные системы, информационно-телекоммуникационные сети, иные технические средства обработки информации), программное обеспечение (в том числе в котором используются методы машинного обучения), процессы и сервисы по обработке данных и поиску решений».
Практически идентичное определение ИИ содержится в пункте 3.18 ГОСТ Р 59277-2020.
Выполним исследование подписей и рукописных записей в том числе по копиям документов
Проблема правосубъектности искусственного интеллекта
В криминалистике и судебной экспертизе применяются различные технические средства, объединяемые понятием «криминалистическая техника». В эту категорию входят как достаточно простые инструменты и приспособления, например штангенциркули, лупы, так и современные идентификационные дактилоскопические и баллистические системы, базирующиеся на цифровых технологиях и сложном программном обеспечении. Последние можно рассматривать как прототипы будущих систем распознавания изображений следов и экспертных систем на основе ИИ.
В действующих идентификационных системах отсутствует возможность принятия компьютером самостоятельного решения о тождественности сравниваемых изображений следов, поскольку по принципу своего действия такие системы автоматизированы, но участие человека в их работе не исключается. В ближайшей перспективе следует ожидать появления идентификационных систем, функционирующих на основе технологии ИИ и способных принимать самостоятельные решения. Тогда неизбежно возникнет вопрос о том, относить ли их к криминалистической технике или рассматривать как самостоятельные субъекты экспертной деятельности. При этом очевидно, что этот вопрос непосредственно связан с общей проблемой наделения ИИ правосубъектностью.
Актуальность проблемы обусловлена тем, что по мере совершенствования ИИ контролировать процессы принятия решений системами, базирующимися на этой технологии, становится все труднее, а иногда это и вовсе невозможно. Даже разработчики не всегда способны предвидеть логику действий систем и результаты их деятельности.
Представляется, что возможность признания ИИ субъектом права должна рассматриваться в первую очередь на основании его вида.
В настоящее время разработчики условно выделяют два вида ИИ: «сильный» (общий) и «слабый» (ограниченный).
Сильный ИИ будет способен мыслить логически и творчески, осознавая себя при этом отдельной личностью, а значит, сможет не только решать узкоспециализированные задачи, но учиться новому и изменять свою структуру, адаптируясь к получаемым входным сигналам.
Слабый ИИ не обладает подобными возможностями и, в принципе, к нему можно отнести уже существующие программы для решения вполне определенных задач в криминалистике и судебной экспертизе. Прежде всего это алгоритмы распознавания образов и различные методы машинного обучения, которые активно апробируются для решения идентификационных задач. Признаки слабого ИИ не дают достаточных оснований для наделения его правосубъектностью.
В отношении сильного ИИ не все так однозначно. Существует достаточно много как сторонников, так и противников концепции отнесения ИИ к субъекту права.
Многие противники наделения ИИ правосубъектностью строят свою аргументацию на основании отсутствия у таких систем некоторых принципиально важных и критичных для субъектности признаков, которыми обладает человек: душа, чувства, сознание, интересы, желания, умение выражать свои намерения и т. п. [1, 2]. Они полагают, что если ИИ демонстрирует проявление указанных качеств, то система просто имитирует человеческое поведение, но «симуляция вещи – это не сама вещь» [3, P. 1262]. Существует мнение, что системы ИИ являются объектами робототехники, а субъектами являются разработчики, спонсоры или владельцы роботов и киберфизических систем [4]. Эта позиция с точки зрения правоприменения достаточно удобна, поскольку позволяет, во-первых, определять лиц, которые должны нести ответственность в случае причинения ИИ какого-либо ущерба, а во-вторых, исключать обретение ИИ полной независимости и автономии.
В то же время остается открытым вопрос определения принадлежности авторских прав и прав на интеллектуальную собственность при создании ИИ творческих произведений, поскольку в этом случае он действует не как инструмент, а как обладающий интеллектом индивид. В этом случае разработчики ИИ не могут быть собственниками произведения, созданного системой без их участия, или нести ответственность за вывод, сформулированный по результатам анализа какого-либо объекта. В таком аспекте появляются основания для признания системы ИИ самостоятельным субъектом экспертной деятельности.
Сторонники концепции наделения ИИ правосубъектностью проводят аналогию с юридическими лицами, детьми и недееспособными лицами, которые являются общепризнанными субъектами права, хотя круг их прав и обязанностей ограничен [5, 6]. Необходимо заметить, что за деятельностью юридического лица всегда стоят одно или несколько физических. Поэтому при признании ИИ юридическим лицом фактических виновников не всегда будет возможно привлечь к ответственности. Помимо этого, в правовых системах многих стран права и обязанности юридических лиц в разной степени ограничены, что может стать препятствием при применении систем ИИ, спровоцировать появление в нормативной базе пробелов и так называемых серых зон. Но главная опасность в случае признания ИИ юридическим лицом будет заключаться в том, что в условиях недостаточно продуманного регулирования деятельности систем ИИ, роботов и других интеллектуальных технологий это может нанести урон устоявшимся обычаям делового оборота.
В свете рассматриваемой проблематики следует обратить внимание на разрабатываемый институт «электронного лица». В данной концепции предлагается ориентироваться на понятийный ряд «электронное лицо» – «искусственный интеллект» («электронный индивид») – «робот». Причем ИИ, носителями которого являются удовлетворяющие определенным критериям роботы, необходимо рассматривать как базовую составляющую электронного лица. Эта составляющая рассматривается как субъект права и представляет собой комплекс юридических обязанностей и прав, причем их содержанием являются действия ИИ. Электронные лица могут быть признаны субъектами права при условии признания на законодательном уровне за ними определенных прав и обязанностей [7].
Иной подход к сущности правосубъектности «электронного лица» совмещает некоторые элементы уже существующих концептов правосубъектности физических, но более всего – юридических лиц, оставаясь преимущественно уникальным и самостоятельным.
Краткий обзор мнений относительно признания или непризнания ИИ субъектом права показывает отсутствие консолидированного подхода к решению этого вопроса в современной правовой доктрине. Развитие и распространение технологий ИИ размывают лежащую в основе всех правовых систем фундаментальную концепцию, в соответствии с которой конечным субъектом принятия решений является человек. Этот факт особо актуализирует проблему определения юридической ответственности ИИ. Введение категории нового и еще малоизученного субъекта права целесообразно осуществлять в рамках создания нового правового института, учитывая специфику функционального назначения ИИ и его «прав» и обеспечивая действенный контроль за разработчиками и операторами. Одновременно необходимо разрабатывать технические стандарты, направленные на повышение эффективности использования систем ИИ при решении прикладных задач, в том числе задач криминалистики и судебной экспертизы. Возможно, правовой статус системы ИИ будет предусматривать несколько вариантов, зависящих от ее типа и назначения – от положения технического средства до наделения статусом «электронного лица» с признанием полноценным субъекта права.
В сфере криминалистики и судебной экспертизы системы ИИ пока не следует признавать полноценными субъектами экспертной деятельности, более рационально позиционировать их как технические средства. В противном случае ИИ фактически обязуют принимать решения, имеющие юридическое значение. Ведь сделанные системой выводы смогут быть признаны доказательствами, которые придется учитывать суду при вынесении приговора. При этом деятельность системы ИИ, в силу своей специфики, для участников процесса будет недостаточно прозрачна, что, в свою очередь, может вызвать сложности при применении традиционных принципов оценки доказательств.
Велика вероятность, что внедрение новых норм в существующую правовую систему неизбежно приведет к образованию коллизий и искажению принципов, положенных в основу современного законодательства. Хотя к настоящему времени полноценный «сильный» ИИ еще не создан, следует обратить внимание на один интересный факт. Если изучить определение ИИ, приведенное в ст. 2 ФЗ № 123-ФЗ, то можно обнаружить, что в нем уже закреплена юридическая конструкция, открывающая потенциальную возможность признания его субъектом права.
Алгоритмическая предвзятость
Базовым компонентом технологий ИИ являются алгоритмы, которые используются при самообучении системы, а также выявлении и анализе положений предсказательной силы, основанных на обработке больших данных.
Машинное обучение (МО) считается одной из форм ИИ и представляет собой использование математических моделей данных, обеспечивающих обучение компьютера посредством специализированных алгоритмов без непосредственных инструкций. Характерной чертой машинного обучения является обучение за счет применения решений множества сходных задач, которые называются тренировочными данными. Подготовка тренировочных данных – важный этап процесса МО, в общем случае это набор процедур, позволяющих сделать массив данных более подходящим для него. Достоверность – одно из ключевых требований, предъявляемых к качеству тренировочных данных. Любые их искажения и неточности, проявляющиеся в различных формах, оказывают непосредственное влияние на результаты работы системы при принятии окончательного решения. И если недостатки проявляются систематически, то неизбежно возникает так называемая алгоритмическая предвзятость.
Разработчики и пользователи систем ИИ давно осведомлены о существовании алгоритмической предвзятости, которая проявляется непосредственно в процессе самообучения и не закладывается в программу при ее разработке. В большинстве случаев это явление наблюдалось в системах ИИ, задействованных в медицине, бизнесе, маркетинге и рекламе, в ситуациях, когда принимались решения, имевшие негативное влияние на определенные группы людей [8].
В криминалистике и судебной экспертизе отмечены значительные достижения в сфере разработки алгоритмов автоматической идентификации следов оружия на стреляных пулях и гильзах по их цифровым изображениям [9–11]. Специфика МО в этой области определяется необходимостью создания большого набора тренировочных данных, которые состоят из значительного числа изображений следов оружия на пулях и гильзах, полученных после отстрела разных моделей и экземпляров огнестрельного оружия. В процессе обучения в следах и их комбинациях должен быть обеспечен поиск признаков, характерных для определенной модели и конкретного экземпляра оружия. Обученная система должна анализировать неизвестное изображение и выдавать прогнозные баллы для каждого сравниваемого изображения следов.
В таком случае алгоритмическая предвзятость может предопределяться непосредственно качеством тренировочных данных. Например, если при МО ограничиться вводом изображений следов только одного производителя патронов на стреляных гильзах, то при наличии на их капсюлях динамических следов (по факту являющихся следами производственного механизма) от валка прокатного стана, последние будут восприниматься машиной как следы патронного упора затвора, что может стать причиной сбоев в работе системы распознавания.
Потенциальное существование подклассовых признаков в следах оружия, главным образом на гильзах, это серьезная проблема, которую еще предстоит разрешить разработчикам алгоритмов МО. Возможное проявление алгоритмической предвзятости в этом случае обуславливается природой подобных признаков, а их диагностирование и дифференциация от частных признаков в следах оружия до сих пор является проблемной задачей даже для некоторых экспертов.
Именно поэтому подготовка качественных тренировочных данных – важный этап МО. Результаты исследований показывают, что для эффективного обучения нейронной сети требуется большое число изображений каждого класса, представленных в разном масштабе, с разной ориентацией, положением в кадре и ракурсом, разным перекрытием объекта другими предметами и т. д. Чем больше разнообразие объектов одного класса, тем лучше обучится сеть и тем точнее она будет прогнозировать [10, с. 186]. Поэтому для предотвращения предвзятости и обеспечения доверия к системе ИИ требуется получить представительный обучающий набор из образцов пуль и гильз с вариативностью отображаемых признаков в следах оружия. Вариативность зависит от различных условий выстрела: материала пуль и гильз, марки пороха и массы порохового заряда, факторов окружающей среды и т. д. По объективным причинам выполнить это требование чрезвычайно сложно.
Недостаток тренировочных данных является одним из условий, способствующих образованию алгоритмической предвзятости. Отчасти эта проблема может быть устранена посредством искусственного формирования клоновых изображений следов с разной ориентацией и с искаженными частными признаками [10, 11]. Например, предлагаемые методы обработки изображений следов бойков позволяют применять искусственно сгенерированные клоновые изображения для тренировки различных нейронных сетей при небольшом количестве исходных объектов. Однако для повышения точности прогнозирования за счет учета более мелких признаков в следах и уменьшения числа ложных выводов все же необходимо разработать достаточно крупную базу оригинальных изображений следов оружия в увеличенном разрешении или с использованием 3D-изображений.
Существенным подспорьем в решении проблемы предвзятости алгоритмов служат так называемые корреляционные методы, которые позволяют определить число параметров, необходимых для построения пространства признаков в МО. Для анализа изображений следов оружия на гильзах разработаны методы конгруэнтных совпадающих ячеек (Congruent Matching Cells – CMС) [12] и корреляционных ячеек [13], для сравнения изображений динамических следов канала ствола оружия на пулях предложен метод конгруэнтно совпадающих сегментов профилей (Congruent Matching Profile Segments – CMPS) [14].
Одним из способов системного технического решения проблемы предвзятости алгоритмов ИИ является разработка стандартов, направленных на минимизацию неоправданной предвзятости в алгоритмических решениях. В частности, в нашей стране реализуется перспективная программа стандартизации по приоритетному направлению «Искусственный интеллект» на период 2021–2024 годы, разработанная Росстандартом. В соответствии с программой планируется разработка 217 стандартов в этой области.
Одним из ключевых стандартов является ГОСТ Р 59276-2020, в котором для систем ИИ:
-
определены существенные характеристики, подтверждение значений которых установленным требованиям обеспечивает доверие к этим системам;
-
формализованы факторы, приводящие к снижению качества; прописаны процессы обеспечения доверия и оценки их качества;
-
определена процедура обеспечения доверия на стадиях жизненного цикла;
-
выделены уровни архитектуры для проверки их существенных характеристик.
Однако положения стандарта не могут быть распространены на системы сильного ИИ.
Заключение
На наш взгляд, ИИ – это в первую очередь именно технология, а базирующиеся на ней различные системы, внедряемые и испытываемые в криминалистике и судебной экспертизе, все же следует ассоциировать с криминалистической техникой. Технологии ИИ, которые применяются или будут использоваться при решении задач, не следует бездумно наделять правами самостоятельного субъекта экспертно-криминалистической либо судебно-экспертной деятельности. При использовании технологий ИИ в правоохранительной деятельности необходим сторонний контроль и ответственность за процесс, правильность и обоснованность результатов их деятельности должна возлагаться на эксперта-оператора системы, обязанности которого должны быть детально регламентированы.
Очевидно, что не следует игнорировать предвзятость алгоритмов МО, задействованных в криминалистике и судебной экспертизе, так как такое отношение может привести к различным негативным последствиям при расследовании уголовных дел и судебных разбирательствах дел иных категорий. В то же время из-за некорректной работы алгоритмов уже выявлено большое число случаев дискриминации отдельных групп граждан в социально-экономической сфере, отмечены нарушения непредвзятости и справедливости, которые приводили к повышению рейтингов журналов, ученых и организаций в области научных исследований. Засвидетельствованы также и другие факты неблагоприятного воздействия предвзятых алгоритмов на различные решения [8].
Устранение проблем алгоритмической предвзятости с использованием только технических средств и стандартизации не приведет к удовлетворительным результатам. Прежде всего, необходимо сформировать четкую регуляторную политику государства в области технологий ИИ, используемых в различных сферах деятельности человека, и выстраивать общественные отношения, основанные на технических, этических и правовых принципах, закрепленных в нормативных правовых актах и технических документах. При этом система регуляторов должна быть динамичной и не ограничивать развитие технологий ИИ.
Список литературы:
1. Etzioni A., Etzioni O. Incorporating Ethics into Artificial Intelligence // Journal of Ethics. 2017. Vol. 21. No. 4. Р. 403–418. https://doi.org/10.1007/978-3-319-69623-2_15
2. Danaher J. The Rise of the Robots and the Crisis of Moral Patiency // AI & Society: Knowledge, Culture and Communication. 2017. Р. 1–8. https://doi.org/10.1007/s00146-017-0773-9
3. Solum B.L. Legal Personhood for Artifical Intellignces // North Carolina Law Review. 1992. Vol. 70. No. 4. Р. 1231–1287.
4. Незнамов А.В., Наумов В.Б. Стратегия регулирования робототехники и киберфизических систем // Закон. 2018. № 2. С. 69–89.
5. Solaiman S.M. Legal Personality of Robots, Corporations, Idols and Chimpanzees: A Quest for Legitimacy // Artificial Intelligence and Law. 2017. Vol. 25. No. 2. Р. 155–179. https://doi.org/10.1007/s10506-016-9192-3
6. Bryson J.J., Diamantis M.E., Grant T.D. Of, For, and By the People: The Legal Lacuna of Synthetic Persons // Artificial Intelligence and Law. 2017. Vol. 25. No. 3. Р. 273–291. https://doi.org/10.1007/s10506-017-9214-9
7. Ястребов О.А. Правосубъектность электронного лица: теоретико-методологические подходы // Труды института государства и права Российской академии наук. 2018. Т. 13. № 2. С. 36–53.
8. Харитонова Ю.С., Савина В.С., Паньини Ф. Предвзятость алгоритмов искусственного интеллекта: вопросы этики и права // Вестник Пермского университета. Юридические науки. 2021. Вып. 53. С. 488–515. https://doi.org/10.17072/1995-4190-2021-53-488-515
9. Carriquiry A., Hofmann H., Xiao Hui Tai, VanderPlas S. Machine Learning in Forensic Applications // Significance. 2019. Vol. 2. No. 2. Р. 29–35. https://doi.org/10.1111/j.1740-9713.2019.01252.x
10. Федоренко В.А., Сорокина К.О., Гиверц П.В. Классификация изображений следов бойков по экземплярам оружия с помощью полносвязной нейронной сети // Известия Саратовского университета. Новая серия. Серия: Экономика. Управление. Право. 2022. Т. 22. Вып. 2. С. 184–190. https://doi.org/10.18500/1994-2540-2022-22-2-184-190
11. Giverts P., Sorokina K., Fedorenko V. Examination of the Possibility to Use Siamese Networks for the Comparison of Firing Marks // Journal of Forensic Sciences. 2022. Vol. 67. Iss. 6. Р. 2416–2424. https://doi.org/10.1111/1556-4029.15143
12. Song J. Proposed “Congruent Matching Cells (CMC)” Method for Ballistic Identification and Error Rate Estimation // AFTE Journal. 2015. Vol. 47. No. 3. Р. 177–185.
13. Сорокина К.О., Федоренко В.А., Гиверц П.В. Оценка схожести изображений следов патронного упора методом корреляционных ячеек // Информационные технологии и вычислительные системы. 2019. № 3. C. 3–15. https://doi.org/10.14357/20718632190301
14. Chen Z., Chu W., Soons J.A., Thompson R.M., Song J., Zhao X. Fired Bullet Signature Correlation Using the Congruent Matching Profile Segments (CMPS) Method // Forensic Science International. 2019. Р. 10–19. https://doi.org/10.1016/j.forsciint.2019.109964