DOI: 10.51634/2307-5201_2025_4_76
УДК: 343.98:004.8
МРНТИ: 06.81.33
А.А. Калиев, доцент кафедры специальной подготовки по противодействию глобальным угрозам Академии правоохранительных органов при Генеральной прокуратуре Республики Казахстан (Республика Казахстан, г. Косшы), e-mail: Адрес электронной почты защищен от спам-ботов. Для просмотра адреса в вашем браузере должен быть включен Javascript.; Адрес электронной почты защищен от спам-ботов. Для просмотра адреса в вашем браузере должен быть включен Javascript.
Актуальность темы исследования обусловлена растущим применением технологий искусственного интеллекта (ИИ) в криминалистике и необходимостью правовой оценки доказательственной значимости получаемых с их помощью данных. Предметом исследования являются особенности формирования, анализа и использования цифровых следов, обрабатываемых с применением интеллектуальных систем в уголовном судопроизводстве. Цель работы заключается в выявлении условий допустимости, воспроизводимости и интерпретируемости результатов, полученных с помощью алгоритмов машинного обучения, а также в оценке рисков их фальсификации. Методологическую основу исследования составляют сравнительно-правовой анализ, формально-юридический и логико-правовой методы, изучение зарубежной и казахстанской практики применения ИИ в доказывании. Научная новизна заключается в обосновании необходимости законодательного закрепления особой категории доказательств, полученных с использованием ИИ, с указанием критериев их правовой оценки. В качестве ключевых выводов сформулировано предложение о разработке стандартов верификации и нормативного признания ИИ-доказательств, введении специальных гарантий против манипуляций, в том числе с применением технологий глубокого синтеза (deepfake).
Ключевые слова. Искусственный интеллект, криминалистика, цифровые доказательства, допустимость доказательств, верификация, уголовное судопроизводство, правовое регулирование, машинное обучение, deepfake, цифровая экспертиза.
Введение
Современное развитие цифровых технологий оказывает системное влияние на все сферы правоохранительной деятельности. Одним из наиболее перспективных направлений выступает интеграция алгоритмов искусственного интеллекта в криминалистику. Использование ИИ в анализе цифровых следов, включая распознавание лиц и речи, анализ видео и построение поведенческих моделей существенно расширяет возможности следователя и эксперта. Однако, как отмечает М.С. Спиридонов, внедрение таких технологий требует строгой оценки допустимости и достоверности получаемых данных, пересмотра традиционных подходов к доказательственности и разработки специальных стандартов верификации алгоритмов машинного обучения в уголовном процессе [1, с. 492].
Алгоритмические технологии в криминалистике характеризуются, как высокой степенью автоматизации процессов, так и ограниченной возможностью интерпретации выводов без участия специалиста. Это порождает целый спектр правовых и экспертных проблем, в том числе связанных с прозрачностью алгоритмических решений, верифицируемостью полученных результатов и рисками фальсификации данных.
Особенно остро указанные проблемы проявляются в контексте распространения технологий deepfake, позволяющих с высокой степенью реалистичности имитировать аудио- и видеоматериалы, что потенциально угрожает достоверности доказательственной базы.
Как подчеркивают И.С. Сактаганова, Е.В. Мицкая и А.Б. Сактаганова, развитие ИИ в правоприменении должно сопровождаться обязательным нормативным закреплением принципов объяснимости, прозрачности и ответственности, поскольку «в условиях правовой неопределенности использование ИИ-решений может нарушать базовые принципы справедливого судебного разбирательства» [2, с. 69].
В этой связи особую актуальность приобретает законодательная инициатива по регулированию искусственного интеллекта в Казахстане. Принятый Закон Республики Казахстан от 17 ноября 2025 года № 230-VIII «Об искусственном интеллекте» вводит правовую конструкцию «алгоритмического решения с юридическим значением» и закрепляет требования прозрачности алгоритмов, хотя вопросы их допустимости в уголовном процессе остаются за рамками регулирования.
Материалы и методы
Методологическую основу исследования составили сравнительно-правовой, формально-юридический и логико-правовой методы, позволившие проанализировать специфику применения ИИ в криминалистике и уголовном судопроизводстве. Сравнительный анализ охватил как отечественное законодательство, включая УПК РК и Закон Республики Казахстан «Об искусственном интеллекте», так и международные документы, в частности AI Act (ЕС), с целью выявления нормативных пробелов и перспектив правового регулирования ИИ-доказательств. В эмпирическую базу вошли нормативные акты, материалы правоприменительной и экспертной практики, а также научные публикации по вопросам допустимости, воспроизводимости и интерпретируемости цифровых доказательств, полученных с использованием алгоритмов машинного обучения.
Основные положения
Результаты
Вопрос о сущности ИИ в криминалистике выходит за рамки только технической проблематики. Прежде всего речь идет о переосмыслении подходов к восприятию, обработке и интерпретации цифровых следов в условиях формирования новой цифровой доказательственной среды.
В научной литературе искусственный интеллект определяется, как комплекс технологических решений, способных имитировать когнитивные функции человека (распознавание образов, анализ речи, прогнозирование и принятие решений) и обеспечивать результаты, сопоставимые с интеллектуальной деятельностью человека [3, с. 286].
Однако в юридическом контексте, как подчеркивают З.А. Ахметьянова и А.Р. Ахметьянов, искусственный интеллект не может быть признан ни субъектом, ни полноценным объектом права, поскольку не обладает волей, сознанием и ответственностью, что ставит под сомнение автономность его выводов при формировании доказательств [4, с. 26]. Именно поэтому ИИ в криминалистике должен рассматриваться как вспомогательный аналитический механизм, результаты работы которого подлежат правовой легализации через эксперта. Это позиция особенно актуальна на практике, где ИИ применяется в анализе визуальных и аудиоданных, тестовой аналитике, моделировании поведенческих моделей и выявлении фальсификаций.
Алгоритм компьютерного зрения, например, FaceNet используется для идентификации лиц, отслеживания перемещений и обнаружения признаков редактирования изображений. В то же время такие результаты требуют обязательной экспертной интерпретации. Аналогичным образом аудиофоноскопические технологии, включая «voice biometrics» и «speaker recognition» позволяют обнаруживать признаки синтеза или подделки голоса, но окончательные выводы о допустимости доказательства остаются в компетенции специалиста.
Применение алгоритмов обработки текстов и поведенческого анализа, равно как и идентификация фальсифицированных материалов, в том числе «deepfake», создают дополнительные вызовы: от риска ложных срабатываний до отсутствия прозрачности алгоритмических решений.
Поэтому ИИ следует рассматривать в криминалистике именно как вспомогательный аналитический инструмент: его алгоритмы расширяют возможности экспертов, но без участия специалиста не могут самостоятельно квалифицировать доказательства.
В юридической литературе подчеркивается, что без нормативного регулирования и экспертной легализации такие результаты не могут претендовать на доказательственную силу в уголовном процессе. В частности, в работе Каспалыамова и др. по регулированию генеративного ИИ в Казахстане указывается на существующие пробелы в прозрачности, объяснимости и ответственности алгоритмов, а также оценивается недостаточность законодательной модели для использования таких данных в правосудии [5, с. 10]. Таким образом, даже при высоком уровне автоматизации технологий, искусственный интеллект сохраняет вспомогательную функцию и требует юридической и экспертной верификации в уголовном процессе.
Отсутствие закрепленного определения ИИ в уголовно-процессуальном законодательстве Республики Казахстан создает дополнительные сложности при правоприменении. В Концепции развития искусственного интеллекта на 2024-2029 гг., утвержденной постановлением Правительства РК № 592 от 24 июля 2024 г., ИИ определяется как совокупность технологий, обеспечивающая выполнение интеллектуальных задач для развития и инфраструктуры, управления данными и человеческого капитала.
Однако эта дефиниция носит исключительно прикладной характер и не содержит юридических установок по применению ИИ в судебных и экспертных процедурах. Это свидетельствует о наличии нормативного вакуума в части интеграции ИИ как доказательного элемента в уголовном процессе, что требует его специального правового регулирования.
Согласно статье 111 УПК Республики Казахстан, доказательствами по уголовному делу признаются фактические данные, полученные законным путем и используемые для установления обстоятельств, имеющих значение для дела, включая наличия преступления, причастность лица и его виновность.
Следовательно, если ИИ используется при производстве следственного действия, его результаты подлежат проверке на соответствие требованиям допустимости, относимости и достоверности.
Алгоритмические технологии в этом контексте играют вспомогательную роль и не могут наделяться самостоятельной доказательной силой без участия эксперта. Как отмечают А.К. Бакенова и Е.Н. Бегалиев, интерпретация выводов, сформированных с использованием ИИ невозможна без экспертной оценки их достоверности, особенно при отсутствии прозрачности алгоритмов и процедур обработки данных [6, с. 294].
Ключевой проблемой при этом остается воспроизводимость. В условиях функционирования так называемой «черной коробки» (black box) эксперт зачастую не имеет доступа к внутренней логике алгоритма, что исключает возможность независимой верификации полученного результата.
В международной практике все большее значение придается концепции «explainable» AI-технологии, обеспечивающей прозрачность и интерпретируемость вывода. Отсутствие возможности объяснить ход получения результата в экспертном заключении ставит под сомнение его допустимость и подрывает доверие к доказательству в целом.
Таким образом, непрозрачность алгоритмической обработки становится не только технической, но и процессуальной проблемой, препятствующей полноценному включению ИИ-данных в доказательственную систему.
При этом, следует отметить, что в судебно-экспертной практике Казахстана на сегодняшний день отсутствуют сертифицированные ИИ-инструменты, признанные на государственном уровне. Это порождает риск исключения результатов даже технически корректного анализа из доказательственной базы в случае нарушения порядка его получения или невозможности верификации используемых алгоритмов.
Наряду с техническими и правовыми аспектами актуализируется и этическая сторона вопроса. Кто несет ответственность за ошибку ИИ? Может ли эксперт ссылаться на результат анализа, если он не способен объяснить, как он был получен?
Эти вопросы приобретают особую значимость в условиях распространения технологий глубокой подделки (deepfake), которые позволяют имитировать визуальные и аудиоматериалы с высокой степенью достоверности.
Deepfake-системы основаны на генеративно-состязательных сетях (GAN), где один алгоритм генерирует изображение, а другой оценивает его на подлинность. В результате создается материал, визуально не отличимый от реального, что ставит под сомнение достоверность цифровых следов как таковых. Применительно к уголовному процессу это может означать, например, фальсификацию алиби или компрометирующих материалов. Все это уже не гипотетические сценарии, а реальные вызовы следственной практике.
Фальсификация может касаться не только визуального ряда, но и голосовой идентификации (синтетическая речь), текстовой информации (генерация ложных признаний, угроз, переписок), а также модификации метаданных. В условиях отсутствия механизмов цифровой маркировки (content provenance) установить авторство и подлинность цифрового следа становится затруднительно.
Рост популярности ИИ в правоприменительной практике обостряет вопрос о пределах допустимого делегирования ему функций, традиционно выполняемых человеком. Несмотря на технологические успехи, юридическая ответственность по-прежнему несет человек: следователь, эксперт, прокурор.
Однако в условиях ограниченной компетенции правоохранителей в сфере ИИ существует риск механического принятия выводов алгоритмов без должной верификации, что в свою очередь угрожает основополагающим принципам уголовного процесса – презумпции невиновности.
Передача оценочных функций алгоритмам, уровень точности и принцип работы которых не поддается проверке, ставит под сомнение легитимность принимаемых процессуальных решений. Особенно уязвимыми являются ситуации, когда на основе ИИ-анализа формируется заключение о принадлежности цифрового следа (IP-адреса, фрагмента переписки или аудиофайла) без возможности экспертной интерпретации и воспроизводимости результатов.
Следует учитывать, что цифровой след, обработанный с помощью ИИ, требует дополнительной экспертизы в части:
- обоснованности метода анализа (какие алгоритмы использовались и почему);
- сертификации программного продукта, подтверждающей его пригодность в рамках процессуальных действий;
- контроля качества данных, использованных для анализа (выборка, параметры обучения, фильтрация шумов и искажений);
- описания результата в воспроизводимой форме, позволяющей другим экспертам проверить его достоверность.
В условиях отсутствия этих условий невозможно обеспечить прозрачность, повторяемость и объективность доказательства, а значит и соблюдение статьи 112 УПК РК о недопустимости доказательств, полученных с нарушением закона.
Системные риски возникают и в связи с возможной дискриминацией или искажением результата при использовании ИИ, обученного на нерелевантной выборке. К примеру, если система предиктивного анализа обучалась на данных, содержащих предвзятые паттерны, например, по географическим, социальным или этническим признакам, она может ошибочно оценивать риск, направляя следствие по ложному пути. Аналогичные примеры уже обсуждаются в зарубежной практике, в частности в делах, связанных с алгоритмическим профилированием.
Особую обеспокоенность вызывает то, что в отечественной правовой системе отсутствует независимый механизм и сертификации алгоритмических решений, используемых в уголовном судопроизводстве, что делает невозможным проверку их пригодности. Даже при наличии высокотехнологичных решений, отсутствие формализованных процедур сертификации ставит под сомнение их процессуальную легитимность.
Необходимо также учитывать, что любое доказательство, полученное с помощью ИИ, может быть признано судом недопустимым, если сторона защиты заявит о невозможности воспроизвести результат или поставить под сомнение корректность алгоритма.
Как показывает анализ практики Верховного Суда Республики Казахстан, суды чаще всего запрашивают у экспертов разъяснение логики полученного вывода. Отсутствие такого объяснения рассматривается как основание для исключения доказательства из материалов дела.
Таким образом, формирование устойчивой нормативной базы в отношении ИИ-доказательств становится необходимым условием обеспечения их процессуальной приемлемости.
Обсуждение
Прежде всего требуется закрепление в законодательстве четкого определения искусственного интеллекта, учитывающего особенности его применения в криминалистике и следственной практике. Не менее важным представляется разработка унифицированных процедур фиксации, анализа и проверки цифровых следов, обработанных с помощью интеллектуальных систем.
Ключевым направлением правового регулирования должно стать создание механизма независимой сертификации алгоритмов, применяемых при производстве следственных и экспертных действий. Это позволит обеспечить надлежащую проверяемость результатов, полученных с помощью ИИ.
Важную роль в обеспечении правовой определенности играет и подготовка специализированных методических материалов для судей, следователей и экспертов, разъясняющих правовой статус ИИ-данных, а также критерии их допустимости и воспроизводимости.
Наконец, обращение с интеллектуальными системами требует интеграции, включая презумпцию объяснимости, подотчетности и прозрачности алгоритмических решений, способных оказывать влияние на ход и результаты уголовного судопроизводства.
Примеры таких подходов уже реализуется на уровне Европейского Союза.
Так, Регламент (ЕС) 2024/1689 о едином правовом регулировании искусственного интеллекта (AI Act) устанавливает обязательные требования к системам ИИ, применяемым в чувствительных сферах, включая правосудие. Среди прочего предусматриваются требования к прозрачности алгоритмов, доступу к объяснению результатов (explainability), а также возможность обжалования решений, принятых при участии ИИ. В частности, статья 53 AI Act закрепляет обязанность обеспечивать человеческий контроль за высокорисковыми ИИ-системами, а статья 86 гарантирует право затронутых лиц на получение объяснений.
В казахстанских реалиях адаптация подобных норм могла бы быть реализована через разработку положения о применении ИИ в судебной экспертизе, с учетом необходимости сертификации программных средств, установления методик верификации и правовой оценки выводов, полученных с их использованием. Подобные меры не только позволят повысить надежность цифровых доказательств, но и сформируют основу для институциональной интеграции алгоритмических решений в отечественную криминалистику.
Следовательно, эффективное использование технологий в уголовном процессе возможно лишь при наличии комплексного подхода, включающего правовую регламентацию, институциональные гарантии и подготовку специалистов.
Кроме того, с учетом зарубежного опыта, в том числе инициатив AI Act и Content Authenticity Initiative, целесообразно рассмотреть вопрос о создании национального реестра сертифицированных программных средств, допущенных к использованию в судебной экспертизе, а также о внедрении процедур peer-review и верификации алгоритмических заключений. Эти меры позволят минимизировать риски необоснованного доверия к результатам ИИ-анализа и повысить уровень доказательственной надежности.
Заключение
Проведённый анализ подтверждает, что искусственный интеллект становится важным, но неоднозначным элементом криминалистической и экспертной деятельности. Он предоставляет новые возможности для обработки цифровых следов, визуального и аудиоконтента, построения поведенческих моделей и выявления скрытых взаимосвязей. Вместе с тем использование ИИ в уголовном процессе сопряжено с рядом серьезных правовых и методологических рисков: от отсутствия воспроизводимости до непрозрачности алгоритмов и угрозы подмены юридической оценки автоматизированным заключением. Особенно уязвимыми являются случаи, когда речь идет о применении генеративных моделей, deepfake-технологий и иных форм алгоритмической фальсификации цифровых материалов.
Как показало проведенное исследование, в условиях отсутствия сертифицированных ИИ-решений и недостаточно развитой нормативной базы результаты автоматизированного анализа не могут быть признаны самостоятельными доказательствами без экспертной верификации. В связи с этим возникает необходимость нормативного закрепления понятия искусственного интеллекта применительно к задачам уголовного судопроизводства, а также разработки процедур правовой оценки и допустимости цифровых доказательств, полученных с его использованием. Особую значимость приобретает вопрос о сертификации программных средств и алгоритмов, используемых в экспертной и следственной практике, с обязательным отражением логики анализа, параметров обработки и источников данных в итоговых заключениях.
Одновременно требуется системная подготовка следователей, прокуроров, экспертов и судей, ориентированная на понимание особенностей работы ИИ, интерпретацию его результатов, выявление фальсификаций и соблюдение процессуальных гарантий. Практическая реализация этих задач может быть обеспечена через разработку методических рекомендаций, создание специальной межведомственной структуры по вопросам алгоритмической экспертизы и внедрение единого подхода к верификации цифровых доказательств. Применение зарубежных инициатив, таких как AI Act и Content Authenticity Initiative, в адаптированной форме также способно способствовать укреплению доверия к технологиям и повышению уровня процессуальной надежности.
В итоге эффективность использования ИИ в уголовном процессе определяется не столько техническими возможностями алгоритмов, сколько уровнем нормативной регламентации, институциональной зрелости и готовности системы к соблюдению критериев допустимости, достоверности и воспроизводимости. Искусственный интеллект должен рассматриваться как вспомогательный инструмент, юридическая значимость которого возникает только при условии соблюдения всех стандартов процессуального контроля и экспертной оценки.
А.А. Қалиев, Қазақстан Республикасы Бас прокуратурасы жанындағы Құқық қорғау органдары Академиясының жаһандық қатерлерге қарсы іс-қимыл жөніндегі арнайы даярлық кафедрасының доценті (Қазақстан Республикасы, Қосшы қ.):
Зерттеу тақырыбының өзектілігі криминалистикада жасанды интеллект (AI) технологияларының өсіп келе жатқан қолданылуымен және олардың көмегімен алынған деректердің дәлелді маңыздылығын құқықтық бағалау қажеттілігімен байланысты. Зерттеу пәні қылмыстық сот ісін жүргізуде зияткерлік жүйелерді қолдана отырып өңделетін цифрлық іздерді қалыптастыру, талдау және пайдалану ерекшеліктері болып табылады. Жұмыстың мақсаты-Машиналық оқыту алгоритмдерінің көмегімен алынған нәтижелердің рұқсат етілуі, қайталануы және түсіндірілуі шарттарын анықтау, сондай-ақ оларды бұрмалау тәуекелдерін бағалау. Зерттеудің әдіснамалық негізін салыстырмалы-құқықтық талдау, формальды-заңдық және логикалық-құқықтық әдістер, дәлелдеуде АИ қолданудың шетелдік және қазақстандық тәжірибесін зерделеу құрайды. Ғылыми жаңалық-оларды құқықтық бағалау критерийлерін көрсете отырып, жасанды интеллект көмегімен алынған дәлелдемелердің ерекше санатын заңнамалық тұрғыдан бекіту қажеттілігін негіздеу. Негізгі тұжырымдар ретінде верификация стандарттарын әзірлеу және АИ-дәлелдемелерді нормативтік тану, манипуляцияларға, оның ішінде терең синтез технологияларын (deepfake) қолдана отырып, арнайы кепілдіктер енгізу туралы ұсыныс тұжырымдалды.
Негізгі сөздер: Жасанды интеллект, криминалистика, цифрлық дәлелдемелер, дәлелдемелердің рұқсат етілуі, верификация, қылмыстық іс жүргізу, құқықтық реттеу, машиналық оқыту, deepfake, цифрлық сараптама.
A.A. Kaliyev, Associate Professor, Department of Special Training in Countering Global Threats, Academy of Law Enforcement Agencies under the General Prosecutor's Office of the Republic of Kazakhstan (Republic of Kazakhstan, Koshy):
The relevance of the research topic is due to the growing use of artificial intelligence (AI) technologies in criminalistics and the need for legal assessment of the evidentiary value of data obtained with their help. The subject of the study is the peculiarities of the formation, analysis, and use of digital traces processed using intelligent systems in criminal proceedings. The purpose of the work is to identify the conditions for the admissibility, reproducibility, and interpretability of the results obtained using machine learning algorithms, as well as to assess the risks of their falsification. The methodological basis of the study consists of comparative legal analysis, formal legal and logical-legal methods, and the study of foreign and Kazakhstani practices in the use of AI in evidence. The scientific novelty lies in the justification of the need for legislative consolidation of a special category of evidence obtained using AI, with an indication of the criteria for their legal assessment. The key conclusions include a proposal to develop standards for the verification and regulatory recognition of AI evidence and to introduce special safeguards against manipulation, including the use of deepfake technology.
Keywords. Artificial intelligence, forensics, digital evidence, admissibility of evidence, verification, criminal proceedings, legal regulation, machine learning, deepfake, digital expertise.
Список литературы:
References
1. Spiridonov M.S. Tehnologii iskusstvennogo intellekta v ugolovno-processual'nom dokazyvanii // Journal of Digital Technologies and Law. 2023. T. 1. № 2. P. 481–497.
2. Saktaganova I.S., Mickaja E.V., Saktaganova A.B. Application of Artificial Intelligence in the Administration of Justice: Prospects and Challenges // Vestnik Instituta zakonodatel'stva i pravovoj informacii Respubliki Kazahstan. 2025. № 80(1). P. 68–80.
3. Mansurov G.Z. Ponjatie i priznaki iskusstvennogo intellekta // Pravo i gosudarstvo: teorija i praktika. 2023. № 11(227). P. 286–287.
4. Ahmet'janova Z.A., Ahmet'janov A.R. Iskusstvennyj intellekt – ob#ekt ili sub#ekt prava? // Zhurnal «Jurist». 2024. № 6. P. 24–29.
5. Kapsalyamova S., Momysheva F., Rakhymbekova A., Ryskaliev D., Osmanova D. Legal Challenges of Regulating Generative AI in Kazakhstan: A Comparative Assessment in Light of the EU AI Act. Social Sciences & Humanities Open, 2025. SSRN Paper ID 5274268.
6. Bakenova A.K., Begaliev E.N., Kenzhebekov N.S., Bajzhanova A.Zh. Iskusstvennyj intellekt dlja obnaruzhenija i korrekcii oshibok sudebnoj jekspertizy: obzor po opytu Respubliki Kazahstan // Russian Journal of Forensic Medicine. 2023. T. 9. № 3. P. 287–298.