ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И ПРАВО: КРАТКИЙ ОБЗОР

УДК 340.1
ГРНТИ 10.07.45

Ж.Р. Темирбеков,
PhD, teaching professor
Департамента публичного права
Университета КАЗГЮУ
им. М.С. Нарикбаева
(Нур-Султан, Казахстан),
e-mail: Адрес электронной почты защищен от спам-ботов. Для просмотра адреса в вашем браузере должен быть включен Javascript.

Актуальность статьи связана с необходимостью исследования проблем и вопросов в сфере правового регулирования систем искусственного интеллекта. Цель исследования – выполнить обзор нескольких современных научных статей, посвященных общим вопросам и проблемам правового регулирования систем искусственного интеллекта. В процессе подготовки статьи применялись такие методы исследования, как сравнительный метод, дедуктивный и индуктивный методы, методы анализа и синтеза и некоторые другие. В результате обзора можно сделать вывод, что с развитием технологий искусственного интеллекта их влияние на основные права человека будет только усиливаться. Кроме того, в юридическом сообществе обсуждаются вопросы о возможном признании роботов на базе искусственного интеллекта носителями моральных и юридических прав. Отмечается необходимость усиления нормативного регулирования, акселерации правовых академических исследований, мониторинга негативных последствий в сфере использования и применения систем искусственного интеллекта. Что касается применения искусственного интеллекта в сферах юридической деятельности, то на сегодняшний день данная технология успешно реализуется лишь в юридических задачах, которые связаны с механическими или повторяющимися действиями. Задачи, связанные с абстрагированием и концептуализацией, где необходимо познание и мышление, для искусственного интеллекта все еще трудновыполнимы. Как выяснилось, отдельные попытки применения искусственного интеллекта для «умной» профилактики преступности не всегда приводят к желаемому результату. В сфере юридической ответственности – можно утверждать на примере беспилотных автомобилей, что с распространением технологий искусственного интеллекта ответственность от пользователей будет смещаться «вверх» к производителям.
Ключевые слова: искусственный интеллект и право; искусственный интеллект; право; распознавание лиц; беспилотные автомобили; основные права человека; правосубъектность; алгоритмы; программный код; машинное обучение.


«Должен наступить день ... когда вы сможете передать набор фактов в машину, в которой хранятся кейсы, нормы права и правила рассуждений, и затем машина сможет изложить для вас шаг за шагом процесс рассуждения, с помощью которого вы можете прийти к определенному заключению».
Рид К. Лоулор, 1980-е годы

Введение
Статья представляет собой краткий обзор нескольких исследований в сфере соотношения искусственного интеллекта (далее – ИИ) и права.
Учитывая то обстоятельство, что системы ИИ находят массовое применение как в промышленности, так и в повседневной жизни, вопросы правового статуса, правовой регламентации их использования и применения, проблемы в сфере юридической ответственности в результате действий и событий с вовлечением систем ИИ, а также другие вопросы становятся все более актуальными. Поскольку на сегодняшний день данное направление исследований у юридического сообщества является довольно популярным, можно констатировать, что количество научных работ по изучению соотношения ИИ и права увеличивается.

Основные положения
Некоторые авторы, работы которых изучены в настоящей статье, при исследовании вопросов и проблем, связанных с искусственным интеллектом, используют футуристический подход. Другие стараются быть максимально реалистичными и заостряют внимание на нынешнем состоянии и проблемах в сфере искусственного интеллекта, соотношения искусственного интеллекта и права. Но в основном исследователи солидарны касательно того, что юридическое сообщество еще не в полной мере осознает возможности и последствия, которые искусственный интеллект может оказывать на правовую сферу. Существующие правовые теории и доктрины не всегда могут дать разумный и однозначный ответ на все чаще возникающие вопросы в результате использования систем искусственного интеллекта. Неоднозначна и позиция судей по применению правовых подходов в данной сфере. Поэтому в свете развития систем искусственного интеллекта юридическому сообществу возможно следует обратить более серьезное внимание на: (1) необходимость модернизации существующих или разработки новых правовых теорий, доктрин и подходов в точках соприкосновения права и систем искусственного интеллекта; (2) выработку правовых позиций относительно способа, формы и механизма правового регулирования использования и применения систем искусственного интеллекта; (3) разработку этических принципов по использованию и применению систем искусственного интеллекта как в деятельности практикующих юристов, так и в других профессиональных сферах.

Материалы и методы
При определении методики исследования, кроме прочего, автор исходил из того, что предмет исследования носит междисциплинарный характер. Учитывая, что рассматриваемые в статье исследования затрагивают вопросы, связанные с особенностями искусственного интеллекта, теории права, конституционного права, методологической основой для подготовки обзора послужили сравнительный метод, дедуктивный и индуктивный методы, методы анализа и синтеза. Использовались также методы интерпретации и оценки, системный подход.

Результаты исследования

1. Робот как личность:
реальность будущего или воображение?
В статье «AI and law: ethical, legal, and socio-political implications»1 исследователь в области соотношения искусственного интеллекта и права Джон-Стюарт Гордон (John-Steward Gordon) обращает внимание на одну из причин возросшего интереса к ИИ со стороны юридического сообщества – влияние ИИ на фундаментальные права человека. По мнению Гордона, современная правовая система недостаточно подготовлена для эффективного решения правовых ситуаций в сфере ИИ, который в свою очередь, в результате технологического прогресса становится все более комплексным.
Поскольку для ИИ не существует мировых границ, Гордон обращает внимание, что необходимо выработать глобальный подход для решения правовых проблем в данной сфере.
Как считает Гордон, при всем том, что большинство сфер человеческой деятельности довольно широко регламентировано, сегодняшние юристы и судьи не совсем понимают последствия применения ИИ для права, правовой системы и правового образования. Для эффективного решения вопросов, возникающих в результате взаимодействия ИИ и сферы права, по его утверждению, необходимо пересмотреть правовую программу (концепцию права) в целом.
Сравнивая философский подход Дэвида Гункеля (David Gunkel) и теологический подход Джордана Уэлсса (Jordan Wales) к трактовке содержания понятия «личность», Гордон обращает внимание на свои предыдущие исследования в сфере моральных и правовых аспектов личности. По его мнению, несмотря на то что, современные роботы не обладают достаточными способностями, чтобы быть признанными как личность, возможно в будущем технологический прогресс позволит им такое признание получить. В рамках данного аспекта Гордон считает, что необходимо выработать единые критерии по присвоению морального статуса2 для всех существ (включая роботов с ИИ – Ж.Т.), не учитывая способ их появления на свет. Это связано с тем, что концепция «личности» – фундамент наших моральных и юридических прав. Если роботы будут соответствовать требованиям понятия «личность», тогда отпадет необходимость выяснять имеют ли «право» роботы обладать моральным статусом и правами. Гордон считает, что роботам должен присуждаться моральный статус на основании их возможностей и способностей, независимо от мнения общества.
Далее он дискутирует на тему моральной свободы. Может ли ИИ обладать моральной свободой? Может ли ИИ быть морально ответственным за свои действия? Гордон критически оценивает статью Кариссы Велис (Carissa Veliz), в которой она утверждает, что ИИ, алгоритмы и машины не являются носителями моральных качеств, поскольку, чтобы обладать моральными качествами необходимо иметь сознание (сознательный опыт) и чувственность. Но алгоритмы не могут испытывать чувства по природе, следовательно, они не могут быть носителями моральных качеств. Гордон выражает несогласие с вышеупомянутым подходом. Первый его аргумент – да, в настоящее время умные машины не обладают моральной свободой, но в будущем все может измениться. Второй аргумент – как известно, есть люди не имеющие способность чувствовать (например, боль), но тем не менее, эти люди понимают, что с моральной точки зрения будет неправильно доставлять боль другим. Их понимание основывается на интеллектуальных способностях о том, что может означать боль для других людей, нежели на собственном опыте испытания чувства боли. На основании этих аргументов, Гордон выражает сомнение, что чувственность является важным компонентом моральной свободы.

2. Искусственный интеллект и право:
некоторые проблемы
В статье «Legal and human rights issues of AI: Gaps, challenges and vulnerabilities»3 Роуэна Родригес (Rowena Rodrigues) проводит обзор правовых проблем и вызовов, связанных с влиянием ИИ на фундаментальные права человека. Обзор выполнен по следующим направлениям:
- недостаток прозрачности алгоритмов;
- уязвимости в сфере кибербезопасности;
- вопросы несправедливости, предвзятости и дискриминации;
- недостаточная возможность оспорить результаты алгоритмов;
- проблема «личности» (правосубъектности – Ж.Т.);
- вопросы в сфере интеллектуальной собственности;
- вопросы неблагоприятного воздействия ИИ на сферу труда и занятости;
- вопросы конфиденциальности и защиты данных;
- вопросы ответственности за причиненный вред и ущерб (в т.ч. вопросы дееспособности, деликтоспособности – Ж.Т.).
Примечательно, что после обозначения литературы, относящейся к исследованию проблем в вышеуказанных направлениях, Родригес посвящает один абзац библиографическому обзору существующей литературе, посвященной исследованию путей решений этих проблем, и еще один абзац проливает свет на исследования, обозначающие пробелы и новые вызовы по каждому из указанных направлений.
По утверждению Родригес, уровень проблем, вызванных развитием искусственного интеллекта, зависит от следующих факторов:
- технический фактор, т.е. недостаточно качественная разработка алгоритмов систем ИИ; их слабая защищенность;
- социальный фактор, т.е. недостаточная информированность общества о технологиях ИИ и их последствиях; недостаточность принимаемых мер по повышению уровня готовности общества к жизни в условиях расцвета технологий ИИ; недостаточная разработанность правовых позиций и подходов в сфере искусственного интеллекта;
- политический фактор, т.е. недостаточная разработанность политических концепций в отношении ИИ, государственного управления, мер по снижению рисков в условиях новой реальности;
- регуляторный фактор, т.е. законодательство, мониторинг, правовая ответственность;
- экономический фактор, т.е. наличие ресурсов для купирования негативных эффектов, инвестиции в безопасные и этически ответственные системы ИИ, уровень доходов населения, сфера страхования.
В указанной работе автор сформулировала три вида необходимых действий для защиты наиболее уязвимых слоев общества от последствий технологического развития искусственного интеллекта.
Во-первых, на самых ранних стадиях разработок новых технологий в сфере ИИ важно проводить профилактические мероприятия по снижению негативных последствий применения ИИ посредством выявления рисков, прогноза и обсуждений с участием всех заинтересованных сторон.
Во-вторых, необходимо в наиболее уязвимых слоях общества создавать и развивать соответствующие институты помогающие противостоять нежелательным последствиям развития ИИ.
В-третьих, необходимо стараться устранять причины негативных последствий в корне, т.е. вести более строгую политику и правовое регулирование в отношении вреда, дискриминации и других негативных явлений, создаваемых технологиями искусственного интеллекта.
Родригес также отмечает, что в настоящее время сфера искусственного интеллекта довольно слабо регулируется правом: чувствуется необходимость в создании регуляторов; недостаток ясности в сфере применения существующего права; недостаточная академическая проработанность в некоторых странах вопросов в сфере искусственного интеллекта.
Еще одна немаловажная проблема, на которую Родригес обращает внимание – интересы и голоса слоев общества, наиболее подверженных негативным последствиям искусственного интеллекта часто бывают не услышаны на должном уровне.
Кроме того, как она считает, проблема искусственного интеллекта – это только начало пути. Технологии развиваются так быстро, что в скором времени мы можем столкнуться с более комплексными и серьезными вызовами, созданными в результате конвергенции технологий искусственного интеллекта, робототехники и интернета вещей.

3. Искусственный интеллект в праве:
ожидания vs реальность
В работе “Artificial Intelligence and Law: An Overview”4 Гарри Сёрден (Harry Surden) рассматривает два вопроса: Что представляет из себя на сегодняшний день искусственный интеллект? Каковы методы практического применения искусственного интеллекта в правовой сфере?
В отличие от предыдущих авторов, Сёрден в указанной работе использует реалистический подход к предмету исследования. В первой части статьи он акцентирует внимание на самом понятии искусственного интеллекта, его реальных современных возможностях и особенностях. Он сделал попытку максимально обращать внимание на уже существующие, практические стороны ИИ, стараясь избегать футуристического и прогнозного подходов.
Несомненным преимуществом работы является то, что в статье очень доступно и простым языком, с приведением примеров раскрывается сущность, виды и возможности современных технологий ИИ. Поэтому даже неподкованной технически читатель сможет легко понять, как разрабатывается и функционирует это технологическое чудо. Как отмечает Сёрден, интересным фактом является то, что ИИ, не понимая смысл и значение шаблонов (тенденций, структурных особенностей и т.д.), как это понимают люди, но используя эти шаблоны, может формировать полезные и схожие с людскими решения (результаты) по итогам обработки даже очень сложных задач.
Качество результатов деятельности ИИ часто напрямую зависит от количества обрабатываемых им данных. Поскольку ИИ является не чем иным, как программным кодом, для того, чтобы он мог обрабатывать и выдавать результаты, необходимо факты и события из жизни переводить на машинный язык, т.е. сырье (информация) для искусственного интеллекта должно быть надлежащим образом обработано, структурировано и подано в понятной ИИ форме. В этой связи Сёрден обращает внимание читателя на то, что в сфере права только в некоторых направлениях можно найти структурированные и упорядоченные данные. Как он утверждает, в сфере права в основном встречаются частично автономные системы искусственного интеллекта, в которых формирование окончательного результата не происходит без участия человека.
Одна из задач, которую ставит Сёрден в рамках его работы, – оценить, в каких областях права технология искусственного интеллекта может иметь серьезное влияние, а в каких – наименьшее. С целью выполнения указанной задачи, он проанализировал исследования, посвященные возможностям ИИ в ситуациях, когда требуется абстрактное мышление, когда невозможно однозначно ответить «да» или «нет», когда необходимо учитывать множество социальных норм и других подобных случаях.
Согласно Сёрдену, на сегодняшний день можно выделить три основные категории пользователей возможностей ИИ в правовой сфере:
- администраторы права – законодательная власть, «правоприменители» (исполнительная власть, в т.ч. полиция), судебная власть;
- практикующие юристы, включая юридических консультантов и адвокатов;
- лица, которые соблюдают, исполняют и используют право (физические и юридические лица).
Сёрден приходит к выводу, что в сферах права и юридической практики, где требуется рассудительность, современному ИИ будет скорее всего сложно заменить человеческое познание. Так, несмотря на то, что уже сегодня юристы применяют технологию ИИ для анализа юридических документов (поиск и выявление в документах определенных слов, словосочетаний, паттернов и т.д.), есть еще много сфер юридической деятельности, связанных с абстрагированием, концептуализацией и другими задачами, где требуется познание и мышление, в которых ИИ не совсем преуспел. Таким образом, на сегодняшний день ИИ более или менее успешно применяется лишь в юридических задачах, которые требуют для своего решения чисто механические или повторяющиеся действия. Но даже для этого ИИ нуждается в соответствующим образом обработанном (структурированном или паттернализированном) «сырье».
В сфере государственного управления системы ИИ применяются в процессе обработки государственными служащими различных заявлений. ИИ помогает ускорить процесс обработки и ответа на запросы граждан. Но как отмечает Сёрден, такие системы ИИ часто содержат автоматизированную систему оценки, результаты которой практически полностью определяют возможное решение или оказывают на принимаемое решение существенное влияние.
Несмотря на то, что уже в наши дни ИИ активно применяется органами полиции для поиска и установления местонахождения правонарушителей (посредством умных камер, персональных данных и т.д.). Сёрден ставит под сомнение возможности применения ИИ для профилактики преступности.
Очевидно, что ИИ не понимает смысла слов «справедливость» и «равенство». Для ИИ справедливыми будут любые решения, которые он принимает на основе полученной и обрабатываемой информации (с учетом того, как он запрограммирован). Поэтому если сотрудники полиции склонны больше задерживать лиц с определенными признаками (цвет кожи, расовая принадлежность, правонарушения в прошлом и т.д.), то ИИ будет считать, что именно такие лица более опасны для общества и будет рекомендовать органам полиции активнее патрулировать районы, где такие лица часто бывают. Соответственно, это приведет еще к большим задержаниям. Возникнет замкнутый круг.
Сёрден подытоживает, что современные технологии искусственного интеллекта показывают хорошие результаты только в случаях, когда он имеет дело со структурированными задачами, когда правила игры просты и однозначны, когда требуется дать четкий ответ «да» или «нет». Известно, что ИИ также превосходит человека по скорости вычислений. Поэтому ИИ хорош в шахматах, игре го, компьютерных играх. И наоборот, применение ИИ очень ограничено в случаях, когда в задаче сложно выявить какую-либо структуру или порядок, когда требуется абстрагирование, правильное понимание смысла слов, чтение «между строк».

4. Искусственный интеллект: влияние на право и
некоторые другие вопросы
Статья “Artificial Intelligence: An Introduction to the Legal, Policy and Ethical Issues”5 является довольно объемной и посвященной широкому кругу вопросов, касающихся ИИ и права, политики, этики. Автор статьи – Джеймс Димпси (James Dempsey) в первой части работы рассматривает базовые особенности ИИ. Вторая часть работы посвящена ряду дискуссионных вопросов, связанных с правовыми, политическими и этическими сторонами его применения. В том числе вопросы, связанные с ответственностью производителя (на примере автономных автомобилей); правового регулирования в сферах здравоохранения и безопасности; вопросы в сфере мошенничества; проблемы в сфере интеллектуальной собственности (патентное и авторское право); этические вопросы в сфере права и охраны здоровья; вопросы в сферах договорного права, уголовного права, теории доказательств в судебном процессе, охраны правового порядка, предупреждения дискриминации, наблюдения (слежки) и тайны личной жизни (на примере применения технологии по распознаванию лица), защиты социальных прав. В третьей части выполнен краткий анализ современных национальных планов развития технологий искусственного интеллекта в Китае, Европейском Союзе, Франции и США. В дополнение Димпси уделяет внимание прогнозируемому влиянию дальнейшего развития ИИ в ближайшем будущем на сферу труда и занятости населения. В завершении приводится небольшой обзор этических принципов развития и управления ИИ, разработанных Европейским Союзом, США, ОБСЕ и некоторыми другими странами и организациями.
Несмотря на широкий охват тем (согласно названию работы), исследование автора базируется преимущественного на законодательстве и правовом опыте США.
Особенности ИИ Димпси раскрывает своеобразно – некоторые признаки и возможности ИИ раскрываются через анализ механизма работы сервисов Google, Facebook, Amazon, а также описания отдельных судебных кейсов в отношении упомянутых компаний. Кроме прочего, Димпси уделяет небольшое внимание также слабым сторонам ИИ (возможное отсутствие беспристрастности, вероятность ошибок, зависимость от качества входных данных).
По Димпси, если суды будут пытаться применять традиционные правовые теории, подходы и правила в отношении ИИ, то они (суды) будут сталкиваться с трудностями. Важно, чтобы регулирующие органы и законодатели определили, необходимо ли создавать специализированные правовые акты с целью правового регулирования применения ИИ.
Рассуждая над ответственностью производителя в случаях, когда в результате функционирования ИИ нанесен ущерб, Димпси отмечает, что в США и ЕС преимущественно используется принцип strict liability (т.е. когда именно производитель несет ответственность за ущерб, нанесенный в результате эксплуатации дефектного продукта). Тогда как в случаях с обычными автомобилями (без систем ИИ) применяется традиционная теория халатности (ответственность водителя).
Развивая свои суждения о проблеме ответственности в случае нанесения ущерба беспилотным автомобилем, Димпси отмечает, что если беспилотным автомобилем управлял оператор, то именно он будет ответственным, а если управлял ИИ, то ответственным будет производитель. Димпси считает, что в таких случаях суды столкнуться с проблемой определения того, чьи действия послужили причиной нанесения ущерба – ИИ или оператора. Проблема усложняется еще тем, что в некоторых случаях (например, при ДТП) некоторые доказательства могут быть уничтожены. Таким образом, по мере увеличения на дорогах количества беспилотных автомобилей, ответственность от водителей смещается «вверх» к производителям.
Размышляя над правовым регулированием в сфере ИИ, Димпси полагает, что возможно, наиболее эффективным путем регламентирования сферы ИИ является не создание единого национального закона, а отраслевой подход. Когда регулирующие органы каждой отрасли (например, в сфере образования, здравоохранение и т.д.) самостоятельно и независимо от других регуляторов будут принимать правила касающиеся использования и применения ИИ.
Еще одна проблема, описываемая Димпси, – проблема «самоизменения» и «саморазвития» алгоритмов ИИ. Так, программное обеспечение машинного обучения может изменять свой собственный код на основе новых данных, полученных в ходе функционирования. Это означает, что через определенное время содержание такого «продукта» будет отличаться от первоначального его содержания, продемонстрированного при его первичной сертификации в регулирующем органе. Поэтому возникают резонные вопросы: Будет ли являться «самоизмененный» ИИ уже другим продуктом? Должен ли производитель проходить заново процесс сертификации каждый раз при изменений определенной части программного кода ИИ?
Не менее серьезные проблемы возникают в сфере интеллектуального и авторского права. В своей работе Димпси приводит примеры и описывает случаи, когда некоторые компании пытались запатентовать результаты математических вычислений, полученных с помощью ИИ. Также Димпси дискутирует по поводу актуального на сегодняшний день вопроса авторских прав на результаты «творческой» деятельности ИИ. Так, ИИ уже умеет писать рассказы, музыку, рисовать картины и многое другое. Но кто будет правообладателем результата такого «творчества»?
В части работы, посвященной профессиональной этике и обязательствам в сфере права и здравоохранения, исследователь проводит краткий анализ некоторых существующих в США кодексов этики на предмет того, как они регулируют отношения профессиональных работников в сфере применения ими новых технологий (в том числе ИИ).
Изучая проблему допустимости доказательств, полученных при помощи ИИ, Димпси обращает внимание на то, что суды США в настоящее время с некоторым недоверием относятся к экспертным мнениям, основанным на результатах вычислений ИИ. Такую позицию судов можно понять, поскольку ход и пути вычислений некоторых из нынешних технологий ИИ настолько комплексны, что практически никто не может ни объяснить каким именно путем ИИ пришел к определенному выводу, ни выполнить их детальную проверку на достоверность и «беспристрастность».
Описывая проблему дискриминации со стороны ИИ, автор анализирует кроме прочего, отдельные судебные кейсы в отношении Facebook и Amazon. Упомянутые компании в своих определенных приложениях использовали ИИ, и результаты такого применения ИИ были в США признаны дискриминацией.
В подразделе L второго раздела Димпси приводит библиографические данные и краткое описание нескольких судебных кейсов, связанных с вопросами применения систем ИИ в сфере социальной защиты и здравоохранения.
В исследовании Димпси описывает интересный кейс, когда алгоритм, используемый органами США в сфере здравоохранения и призванный определить наиболее нуждающиеся в медицинских услугах слои населения, пришел к выводу, что «белое» население нуждается в медицинских услугах (включая первичную медицинскую помощь) больше, чем «черное» население, поскольку первые тратят больше средств на получение таковых. Но как пишет Димпси, позже выяснилось, что фактически, уровень состояния здоровья «черного» населения даже ниже чем у «белого».
Ниже в своей работе, видимо ради справедливости, Димпси приводит мнение ученого, в соответствии с которым дискриминацию легче обнаружить и исправить в коде алгоритма, нежели в людских решениях.
По мнению Димпси, важность ИИ для корпораций и для государств заключается в том, что ИИ позволяет анализировать огромные массивы данных и относительно быстро принимать решения в отношении конкретных лиц. Кроме того, несмотря на то, что использование данных корпорациями, использование кредитного скоринга и кредитных историй в целом законодательством регулируется, существуют другие виды данных, использование которых никак не регламентировано.
Димпси отмечает, что все больше растет обеспокоенность по поводу технологий ИИ в сфере распознавания лиц. Так, автор приводит ссылку на кейс, согласно которому в январе 2020 года в США на основании результата системы распознавания лиц был арестован житель США, афро-американец (но как выяснилось – ошибочно). В работе отмечается, что многие законодательные органы в США запрещают использование системы распознавания лиц, опасаясь ошибок и перманентного наблюдения.
Из анализа особенностей национальных планов Китая, Европейского Союза, Франции и США, выполненного Димпси, можно сделать вывод, что наиболее широкие и серьезные планы по развитию ИИ разработаны в Китае. Как известно, к 2030 году Китай планирует стать мировым лидером в сфере ИИ. В отличие от других стран, в Китае есть для этого вся необходимая база: централизованных сбор данных (о лицах, о коммерческих структурах и их деятельности, технология распознавания лиц и т.д.), компьютерные мощности, эксперты.
В ЕС также были приняты на разных уровнях планы по развитию ИИ, но ЕС будет сложно конкурировать с Китаем, поскольку при разработке своих планов ЕС учитывает принципы международного права, верховенство права, этические принципы и принципы рыночной экономики, которые могут служить определенным препятствием для рывка в развитии технологий ИИ (например, эффективное применение ИИ невозможно без централизованного сбора и обработки данных об объектах и субъектах).
Во Франции в 2018 году также был принят национальный план, который направлен на укрепление позиции Франции в вопросах развития ИИ.
Как считает Димпси, наименьшее внимание из вышеупомянутых стран развитию ИИ уделяет США. Он обосновывает свою позицию тем, что несмотря на наличие указов Президента США и планов у государственных структур на высших уровнях, эти акты не всегда четкие и детальные по содержанию, и в некоторых случаях, носят рекомендательный характер или выражены в виде принципов.
В результате анализа, основанного на исследовании Всемирного института Маккензи, Димпси приходит к выводу, что развитие ИИ и автоматизация производства в 21 веке может иметь негативные последствия для занятости населения Земли. Но эти последствия будут не очень разрушительными (менять профессию придется примерно 3-14 процентам работников из числа земного населения), поскольку ИИ также создаст возможности для появления новых, ранее неизвестных профессий.

Обсуждение
Уровень современного правового регулирования ИИ (на уровне законов) уже не соответствует фактической широте использования и применения этой технологии. В данном ключе хочется отметить, что в научном сообществе в отношении вопроса о необходимости жесткого регулирования сферы ИИ есть как сторонники, так и оппоненты. Необходимость немедленного и жесткого правового регулирования можно обосновать тем, что возможные негативные последствия в сфере применения ИИ важно пресекать на корню, пока из они из «опасной тенденции» не превратились в «нормальное» и «обыденное» явление.6 В качестве контраргумента жесткого правового регулирования можно привести тезис о том, что чрезмерное регулирование замедлит процесс имплементации в жизнедеятельность и дальнейшее развитие ИИ в интересах экономики.
Как известно, даже нынешний уровень способностей ИИ уже позволяет говорить о том, что ИИ бросает вызов монополии самому интеллектуальному существу биосферы – человеку. Имеющие место в научном сообществе дебаты о том, может ли ИИ быть признанным «личностью», интересны не только своей нестандартностью, но и тем, что заставляют задуматься об уровне уникальности самого человека. Так, сейчас трудно предположить, чем могут завершиться такие дискуссии.
Современное применение ИИ в сфере правовой деятельности затрудняется тем, что исходное содержание многих документов, используемых в данной сфере, как правило, не имеет упорядоченности и единообразной структуры. Поэтому в большинстве случаев, в своем первоначальном виде содержание таких документов не пригодно для обработки с помощью систем ИИ, а имеющееся применение ИИ не обходится без непосредственного участия человека. Здесь следует отметить, что в дальнейшем с ростом цифровизации правовой сферы и развитием интеллектуального уровня ИИ такое положение вещей может измениться.
Несмотря на большие ожидания от применения ИИ в сфере деятельности правоохранительных органов по графической идентификации личности, оказалось, что технология распознавания лица может выдавать ошибочные результаты и требует доработки. Попытки внедрить и использовать ИИ для профилактики правонарушений и более эффективного распределения личного состава полиции, как выяснилось, могут привести к предвзятым результатам, которые не соответствуют фактической криминогенной ситуации. Очевидно, что в последнем случае проблема не в самом ИИ, а в качестве и количестве входных данных, формируемых людьми.
Много вопросов вызывает уровень достоверности, проверяемости и объяснимости результатов, полученных с применением систем ИИ. Проблема связана с тем, что программный код некоторых современных ИИ либо закрыт, либо крайне объемный и комплексный, либо предусматривает самоизменение и самомодернизацию, либо имеет место все вышеупомянутое вместе взятое. Это приводит к тому, что даже для экспертов в сфере ИИ сложно объяснить, каким именно образом и почему алгоритм системы ИИ выдал конкретный результат.

Заключение
В результате выполненного обзора можно сделать вывод, что юридическое сообщество испытывает некоторые трудности в процессе применения традиционных правовых концепций и подходов7 к ситуациям, где используются или применяются технологии ИИ. Поэтому призывы некоторых исследователей о необходимости академической разработки новых правовых доктрин или пересмотра уже существующих иногда кажутся не беспочвенными. Так или иначе, динамическое развитие цифровых технологий оказывает заметное воздействие на существующую правовую реальность, подталкивая юридическое сообщество к поиску и разработке новых подходов в сфере правового регулирования ИИ. Вопрос в том, насколько своевременно и в рамках международных принципов в сфере прав человека будут приняты соответствующие правовые акты и другие предписания. Также в результате обзора можно утверждать, что современный уровень развития ИИ еще довольно примитивен по сравнению с интеллектуальными возможностями человека. Поэтому в настоящее время в сфере юридической деятельности использование технологий ИИ ограничено, и такое использование не обходится без человеческого контроля. Но «сила» ИИ заключается в том, что данная технология имеет серьезный эволюционный потенциал. Вследствие этого крайне сложно делать прогнозы о том, каких уровней развития достигнет ИИ в будущем. Но одно является бесспорным – возможности ИИ будут только приближаться к возможностям интеллекта человека.


Темірбеков Ж.Р., PhD, М.С. Нәрікбаев атындағы КАЗГЮУ Университетінің Жария құқық департаментінің teaching профессоры (Нұр-Сұлтан, Қазақстан): Жасанды интеллект және құқық: қысқаша шолу
Мақаланың өзектілігі жасанды интеллект жүйелерін құқықтық реттеу саласындағы сұрақтар мен мәселелерді зерттеу қажеттілігімен байланысты. Зерттеудің мақсаты – жасанды интеллект жүйелерін құқықтық реттеудің жалпы мәселелері мен сұрақтарын қарастыруға арналған бірнеше заманауи ғылыми мақалаларға шолу жасау. Мақаланы дайындау барысында салыстырмалы әдіс, дедуктивті және индуктивті әдістер, анализ және синтез әдістері және басқа да зерттеу әдістері қолданылды. Шолу нәтижесінде жасанды интеллект технологиясының дамуы қазірдің өзінде адамның негізгі құқықтарына әсер ету деңгейіне жетті деген қорытынды жасауға болады. Сонымен қатар, заңгерлік қауымдастық жасанды интеллектке негізделген роботтарды адамгершілік және заңды құқықтардың иесі ретінде тану мүмкіндігін талқылауда. Нормативтік реттеуді күшейту, құқықтық академиялық зерттеулерді жеделдету, жасанды интеллект жүйесін қолдану кезіндегі жағымсыз салдарларды бақылау қажеттілігі атап өтіледі. Құқықтық қызмет саласында жасанды интеллектті қолдануға келетін болсақ, қазіргі кезде бұл технология механикалық немесе қайталанатын әрекеттермен байланысты қызметте ғана сәтті қолданылады. Таным мен ойлау қажет болатын абстракция мен концептуалдаумен байланысты тапсырмаларды орындау жасанды интеллект үшін әлі де қиынға соғады. Қазіргі кезде жасанды интеллектті қылмыстың «ақылды» алдын-алуы үшін қолдануға тырысу әрекеттері әрқашан ойдағыдай нәтижелерді қамтамасыз етпейтіндігі белгілі болды. Заңды жауапкершілік саласында пилотсыз көлік құралдарының үлгісі негізінде, жасанды интеллект технологияларының көбеюімен қолданушылардан жауапкершілік «өндірушілерге» ауысады деп айтуға болады.
Тірек сөздер: жасанды интеллект және құқық; жасанды интеллект; құқық; бетті тану; ұшқышсыз көлік; адамның негізгі құқықтары; құқықсубъекттілік; алгоритмдер; бағдарламалық код; машиналық оқыту.

Temirbekov Zh.R., PhD, teaching professor of the Department of Public Law at M. Narikbayev KAZGUU University (Nur-Sultan, Kazakhstan): Artificial intelligence and law: brief overview
The relevance of the article is associated with the need to study problems and issues in the field of legal regulation of artificial intelligence systems. The purpose of the study is to review several modern scientific articles devoted to general issues and problems of legal regulation of artificial intelligence systems. In the process of preparing the article, such research methods were used as the comparative method, deductive and inductive methods, methods of analysis and synthesis, and some others. As a result of the review, it can be concluded that the development of artificial intelligence technologies has already reached the level of influence on fundamental human rights. In addition, the legal community is discussing the possibility of recognizing robots based on artificial intelligence as the owner of moral and legal rights. The need to strengthen regulatory regulation, accelerate legal academic research, monitor negative consequences in the use and application of artificial intelligence systems is noted. As for the use of artificial intelligence in the fields of legal activity, today, this technology is successfully applied only in legal tasks that are associated with mechanical or repetitive actions. The tasks associated with abstraction and conceptualization, where cognition and thinking are necessary, are still difficult for artificial intelligence to accomplish. As it turns out, some of the current attempts to use artificial intelligence for smart crime prevention do not always lead to the desired result. In the area of ​​legal responsibility, it can be argued, using the example of unmanned vehicles, that with the proliferation of artificial intelligence technologies, responsibility from users will shift "up" to manufacturers.
Keywords: artificial intelligence and law; artificial intelligence; law; face recognition; self-driving cars; basic human rights; legal personality; algorithms; program code; machine learning.

Список литературы:
1. Dempsey J.X. Artificial Intelligence: An Introduction to the Legal, Policy and Ethical Issues. USA, Berkeley: Berkeley Center for Law & Technology, 2020. URL: https://www.law.berkeley.edu/wp-content/uploads/2020/08/Artificial-Intelligence-An-Introduction-to-the-Legal-Policy-and-Ethical-Issues_JXD.pdf (accessed 24.05.2021).
2. Gordon J.S. AI and law: ethical, legal, and socio-political implications // AI & Soc. 2021. URL: https://doi.org/10.1007/s00146-021-01194-0. (accessed 24.05.2021).
3. Rodrigues R. Legal and human rights issues of AI: Gaps, challenges and vulnerabilities // Journal of Responsible Technology. 2020. Vol. 4. URL: https://doi.org/10.1016/j.jrt.2020.100005 (accessed 24.05.2021).
4. Surden H. Artificial Intelligence and Law: An Overview // Georgia State University Law Review. 2019. Issue 4. – Pp. 1305-1337. URL: https://readingroom.law.gsu.edu/cgi/viewcontent.cgi?article=2981&context=gsulr (accessed 24.05.2021).

References (transliterated):
1. Dempsey J.X. Artificial Intelligence: An Introduction to the Legal, Policy and Ethical Issues. USA, Berkeley: Berkeley Center for Law & Technology, 2020. URL: https://www.law.berkeley.edu/wp-content/uploads/2020/08/Artificial-Intelligence-An-Introduction-to-the-Legal-Policy-and-Ethical-Issues_JXD.pdf (accessed 24.05.2021).
2. Gordon J.S. AI and law: ethical, legal, and socio-political implications // AI & Soc. 2021. URL: https://doi.org/10.1007/s00146-021-01194-0. (accessed 24.05.2021).
3. Rodrigues R. Legal and human rights issues of AI: Gaps, challenges and vulnerabilities // Journal of Responsible Technology. 2020. Vol. 4. URL: https://doi.org/10.1016/j.jrt.2020.100005 (accessed 24.05.2021).
4. Surden H. Artificial Intelligence and Law: An Overview // Georgia State University Law Review. 2019. Issue 4. – Pp. 1305-1337. URL: https://readingroom.law.gsu.edu/cgi/viewcontent.cgi?article=2981&context=gsulr (accessed 24.05.2021).

№ 3 (92), 2021

В этом номере:

Учредитель:
АО Университет КАЗГЮУ имени М.С. Нарикбаева (Maqsut Narikbayev University).
Партнеры:

Журнал зарегистрирован в Комитете информации и архивов Министерства культуры и информации Республики Казахстан. Свидетельство № 7742-Ж.
ISSN: 2307-521X (печатная версия)
ISSN: 2307-5201 (электронная версия)