Құқық пен жасанды интеллект арақатынасы: кейбір зерттеулер

DOI 10.51634/2307-5201_2022_2_83
УДК 340.1
ГРНТИ 10.07.45
Темірбеков Ж.Р.,
PhD, М. Нәрікбаев атындағы КАЗГЮУ Университетінің
Жария құқық департаментінің teaching профессоры
(Нұр-Сұлтан, Қазақстан),
email: Адрес электронной почты защищен от спам-ботов. Для просмотра адреса в вашем браузере должен быть включен Javascript.

Мақаланың өзектілігі жасанды интеллект жүйелерін құқықтық реттеу саласындағы сұрақтар мен мәселелерді зерттеу қажеттілігімен байланысты. Зерттеудің мақсаты – жасанды интеллект жүйелерін құқықтық реттеудің жалпы мәселелері мен сұрақтарын қарастыруға арналған бірнеше заманауи ғылыми мақалаларға шолу жасау. Мақаланы дайындау барысында салыстырмалы әдіс, дедуктивті және индуктивті әдістер, анализ және синтез әдістері және басқа да зерттеу әдістері қолданылды. Шолу нәтижесінде жасанды интеллект технологиясының дамуы қазірдің өзінде адамның негізгі құқықтарына әсер ету деңгейіне жетті деген қорытынды жасауға болады. Сонымен қатар, заңгерлік қауымдастық жасанды интеллектке негізделген роботтарды адамгершілік және заңды құқықтардың иесі ретінде тану мүмкіндігін талқылауда. Жоғарыда айтылғандар болашақта жасанды интеллект технологияларының жетістіктері адамның интеллектуалдық қабілеттеріне тең болады немесе одан асып түседі деген болжаммен байланысты. Бұл жаңа түрдің – саналы роботтардың пайда болуына себеп болуы мүмкін. Бұның барлығы адамзаттың жаңа саналы түрмен симбиозда өмір сүруге бейімделу қажеттілігіне алып келеді. Алайда, мұндай қатар өмір сүру адамзат баласы үшін қандай нәтижеге ұласатыны белгісіз. Басқамен қатар, нормативтік реттеуді күшейту, құқықтық академиялық зерттеулерді жеделдету, жасанды интеллект жүйесін қолдану кезіндегі жағымсыз салдарларды бақылау қажеттілігі атап өтіледі. Құқықтық қызмет саласында жасанды интеллектті қолдануға келетін болсақ, қазіргі кезде бұл технология механикалық немесе қайталанатын әрекеттермен байланысты қызметте ғана сәтті қолданылады. Таным мен ойлау қажет болатын абстракция мен концептуалдаумен байланысты тапсырмаларды орындау жасанды интеллект үшін әлі де қиынға соғады. Қазіргі кезде жасанды интеллектті қылмыстың «ақылды» алдын-алуы үшін қолдануға тырысу әрекеттері әрқашан ойдағыдай нәтижелерді қамтамасыз етпейтіндігі белгілі болды. Заңды жауапкершілік саласында пилотсыз көлік құралдарының үлгісі негізінде, жасанды интеллект технологияларының көбеюімен қолданушылардан жауапкершілік «өндірушілерге» ауысады деп айтуға болады.
Тірек сөздер: жасанды интеллект және құқық, жасанды интеллект, құқық, бетті тану, ұшқышсыз көлік, адамның негізгі құқықтары, құқықсубъекттілік, алгоритмдер, бағдарламалық код, машиналық оқыту.

Кіріспе
Мақалада жасанды интеллект (бұдан әрі – ЖИ) пен құқық арақатынасы аясындағы бірнеше зерттеулерге қысқаша шолу жасалады.
ЖИ жүйелерінің өнеркәсіпте де, күнделікті өмірде де кеңінен қолданылатынын ескере отырып, құқықтық мәртебе мәселелері, оларды пайдалану мен қолдануды құқықтық реттеу, ЖИ жүйелеріне қатысты әрекеттер мен оқиғалар нәтижесіндегі құқықтық жауапкершілік аясындағы мәселелер, сондай-ақ басқа да мәселелер барған сайын өзекті болуда. Бүгінгі таңда бұл зерттеу саласы заңгерлік қоғамдастық арасында танымал болғандықтан, ЖИ мен құқықтың арақатынасын зерттеуге арналған ғылыми еңбектердің саны артып келеді деп пайымдауға болады.

Негізгі ережелер
Осы мақалада шығармалары зерделенетін кейбір авторлар жасанды интеллектке қатысты сұрақтар мен мәселелерді зерттеу кезінде футуристік тәсілді пайдаланады. Басқалары мүмкіндігінше шынайы болуға тырысады және жасанды интеллект саласындағы қазіргі жағдай мен проблемаларға, жасанды интеллект пен құқықтың арақатынасына назар аударады. Бірақ тұтастай алғанда, зерттеушілер, заңгерлер қауымдастығы жасанды интеллекттің құқықтық саладағы мүмкіндіктері мен салдарларын әлі де толық ұғынбаған екендігімен келіседі. Қолданыстағы құқықтық теориялар мен доктриналар жасанды интеллект жүйелерін пайдалану нәтижесінде жиі туындайтын сұрақтарға әрқашан негізді және біржақты жауап бере алмайды. Бұл саладағы құқықтық тәсілдерді қолдану бойынша судьялардың ұстанымы да екіұшты. Сондықтан, жасанды интеллект жүйелерінің дамуы аясында заңгерлер қауымдастығы келесіге көбірек назар аударғаны жөн: (1) құқық пен жасанды интеллекттің байланыс нүктелеріндегі қолданыстағы құқықтық теорияларды, доктриналар мен тәсілдерді жаңғырту немесе жаңаларын әзірлеу қажеттілігі; (2) жасанды интеллект жүйелерін пайдалану мен қолдануды құқықтық реттеу нысанына және механизміне қатысты құқықтық ұстанымдарды әзірлеу қажеттігі; (3) практикалық заңгерлердің қызметінде де, басқа кәсіптік салаларда да жасанды интеллект жүйелерін пайдалану мен қолданудың этикалық принциптерін әзірлеу қажеттігі.

Материалдар және әдістер
Зерттеудің әдістемесін анықтаған кезде, басқалармен қатар, автор зерттеу пәнінің пәнаралық сипатта болуын ескерді. Мақалада қарастырылған зерттеулер жасанды интеллект ерекшеліктеріне, құқық теориясына, конституциялық құқыққа қатысты мәселелерді қозғайтынын ескере отырып, салыстырмалы әдіс, дедуктивті және индуктивті әдістер, талдау және синтез әдістері зерттеудің әдістемелік негізі болды. Мақаланы дайындауда интерпретация мен бағалау әдістері, жүйелік тәсіл де қолданылды.

Нәтижелер

1. Робот тұлға ретінде: болашақтың шындығы ма әлде қиял ма?
Жасанды интеллект және құқық саласындағы зерттеуші Джон-Стюард Гордон (John-Steward Gordon) «AI and law: ethical, legal, and socio-political implications» атты мақаласында ЖИ-ке деген заңгерлер қауымдастығы жағынан қызығушылықтың көбеюінің себептерінің біріне – ЖИ-тің негізгі адам құқықтарына әсерін атап көрсетеді. Гордонның пікірінше, қазіргі заманғы құқықтық жүйе ЖИ саласындағы құқықтық жағдайларды тиімді шешуге жеткілікті түрде дайын емес. ЖИ өз кезегінде, технологиялық прогрестің нәтижесінде барған сайын күрделене түсуде.
Жасанды интеллект үшін жаһандық шекаралар болмағандықтан, Гордон осы саладағы құқықтық мәселелерді шешу үшін жаһандық көзқарас қажет екеніне назар аударады.
Гордонның пікірінше, адам қызметінің көптеген салалары айтарлықтай қатаң реттелетініне қарамастан, бүгінгі заңгерлер мен судьялар ЖИ-тің құқыққа, құқықтық жүйеге және құқықтық білімге әсерін толық түсінбейді. ЖИ және құқық саласының өзара әрекеттесуінен туындайтын мәселелерді тиімді шешу үшін оның пікірінше, құқықтық бағдарламаны (құқық тұжырымдамасын) тұтастай қайта қарау қажет.
Дэвид Гункелдің (David Gunkel) философиялық көзқарасы мен Джордан Уэльстің (Jordan Wales) «тұлға» ұғымының мазмұнын түсіндірудегі теологиялық көзқарасын салыстыра отырып, Гордон тұлғаның моральдық-құқықтық аспектілері саласындағы өзінің бұрынғы зерттеулеріне көңіл аударады. Оның пікірінше, заманауи роботтардың адам ретінде танылуы үшін жеткілікті қабілеттері болмаса да, болашақта технологиялық прогресс оларға осындай тануды алуға жол ашуы мүмкін. Осы аспект аясында Гордон барлық жаратылыстарға (соның ішінде ЖИ-лері бар роботтарға – Ж.Т.) олардың туылу жолын ескермей, моральдық мәртебе берудің бірыңғай критерийлерін әзірлеу қажет деп санайды. Себебі, «тұлға» ұғымы біздің моральдық және заңдың құқықтарымыздың негізі болып табылады. Егер роботтар «тұлға» ұғымының талаптарына сай болса, онда роботтардың моральдық мәртебесі мен құқықтарына ие болуға «құқығы» бар-жоғын анықтаудың қажеті болмайды. Гордон роботтарға қоғамдық пікірге қарамастан олардың мүмкіндіктері мен қабілетіне қарай моральдық мәртебе беру керек деп есептейді.
Басқамен қатар, Гордон моральдық еркіндік тақырыбын талқылайды. ЖИ моральдық еркіндікке ие бола ала ма? ЖИ өзінің әрекеттері үшін моральдық тұрғыдан жауапты бола ала ма? Гордон Карисса Велиздің (Carissa Veliz) мақаласына сыни көзқараспен қарайды. Велиздің пікірінше ЖИ, алгоритмдер мен машиналар моральдық қасиеттерді иелене алмайды, өйткені моральдық қасиеттерді иелену үшін сана (саналы тәжірибе) және сезімталдық болу керек. Бірақ алгоритмдер табиғатынан сезімтал бола алмайды, сондықтан олар моральдық қасиеттерді иеленуші бола алмайды. Гордон жоғарыдағы көзқараспен келіспейді. Оның бірінші дәлелі: иә, қазіргі уақытта ақылды машиналарда моральдық еркіндік жоқ, бірақ болашақта бұл өзгеруі мүмкін. Екінші дәлел, өздеріңіз білетіндей, сезіну қабілеті жоқ адамдар бар (мысалы, ауырсынуды), бірақ соған қарамастан, бұл адамдар моральдық тұрғыдан басқаларды азаптау дұрыс емес екенін түсінеді. Олардың түсінігі ауырсынуды бастан кешіру тәжірибесінен гөрі, ауырсынудың басқа адамдар үшін нені білдіретіні туралы интеллектуалды қабілетке негізделген. Осы дәлелдерге сүйене отырып, Гордон сезімталдық моральдық еркіндіктің маңызды құрамдас бөлігі екеніне күмән келтіреді.

2. Жасанды интеллект және құқық: кейбір мәселелер
«Legal and human rights issues of AI: Gaps, challenges and vulnerabilities» мақаласында Роуэна Родригес (Rowena Rodrigues) ЖИ-тің негізгі адам құқықтарына әсеріне қатысты құқықтық мәселелер мен қиындықтарға шолу жасайды. Зерттеу келесі бағыттар бойынша жүргізілді:
- алгоритмдердің ашықтығының жетіспеушілігі;
- киберқауіпсіздік аясындағы осалдықтар;
- әділетсіздік, біржақтылық және кемсітушілік мәселелері;
- алгоритмдердің нәтижелеріне қарсы шығу мүмкіндігінің жеткіліксіздігі;
- «тұлға» мәселесі (құқықсубъекттілік – Ж.Т.);
- зияткерлік меншік саласындағы мәселелер;
- ЖИ-тің еңбек және жұмыспен қамту саласына кері әсері мәселелері;
- құпиялылық және деректерді қорғау мәселелері;
- келтірілген зиян мен зиян үшін жауапкершілік мәселелері (соның ішінде құқық қабілеттілік, деликт қабілеттілік мәселелері – Ж.Т.).
Бір қызығы, Родригес жоғарыда аталған бағыттардағы мәселелерді зерттеуге қатысты әдебиеттерді бөліп көрсеткеннен кейін осы мәселелерді шешу жолдарын зерттеуге арналған әдебиеттерге библиографиялық шолу жасауға бір абзацты арнайды. Ал басқа абзац осы бағыттардың әрқайсысындағы олқылықтар мен жаңа сын-қатерлерді көрсететін зерттеулерге жарық түсіреді.
Родригестің пікірінше, жасанды интеллекттің дамуымен туындаған мәселелердің деңгейі келесі факторларға байланысты:
- техникалық фактор, яғни. ЖИ жүйелері үшін алгоритмдердің сапасының жеткілікті емес екендігі; олардың әлсіз қауіпсіздігі;
- әлеуметтік фактор, яғни. ЖИ технологиялары және олардың салдары туралы халықтың жеткілікті түрде хабардар болмауы; ЖИ технологияларының өркендеуі жағдайында қоғамның өмірге дайындығының деңгейін арттыру бойынша қабылданатын шаралардың жеткіліксіздігі; ЖИ саласындағы құқықтық ұстанымдар мен тәсілдердің жеткіліксіз дамуы;
- саяси фактор, яғни. ЖИ-ке, мемлекеттік басқаруға, жаңа шындықтағы тәуекелдерді азайту шараларына қатысты саяси тұжырымдамалардың жеткіліксіз дамуы;
- реттеуші фактор, яғни. заңнама, мониторинг, заңды жауапкершілік;
- экономикалық фактор, яғни. жағымсыз әсерлерді тоқтату үшін ресурстардың болуы, қауіпсіз және этикалық тұрғыдан жауапты ЖИ жүйелеріне инвестициялар, халықтың кіріс деңгейі, сақтандыру саласы.
Бұл жұмыста автор қоғамның ең осал топтарын жасанды интеллекттің технологиялық дамуының зардаптарынан қорғау үшін қажетті әрекеттердің үш түрін тұжырымдаған.
Біріншіден, ЖИ саласындағы жаңа технологияларды дамытудың ерте кезеңдерінде тәуекелді анықтау, болжау және оларды барлық мүдделі тараптармен талқылау арқылы ЖИ-ді пайдаланудың жағымсыз салдарын азайту үшін алдын алу шараларын жүргізу маңызды.
Екіншіден, қоғамның ең осал топтарында ЖИ дамуының жағымсыз салдарларына қарсы тұруға көмектесетін тиісті институттарды құру және дамыту қажет.
Үшіншіден, теріс салдарлардың себептерін түбегейлі жоюға тырысу керек, яғни, жасанды интеллект технологияларымен жасалған зиянға, кемсітушілікке және басқа да жағымсыз құбылыстарға қатысты қатаң саясат пен құқықтық реттеу жүргізу маңызды.
Родригес, сонымен қатар, қазіргі уақытта жасанды интеллект саласы заңмен нашар реттелетінін атап өтеді: реттеушілерді құру қажет; қолданыстағы заңнаманың қолдану аясының анық болмауы орын алады; кейбір елдерде жасанды интеллект саласындағы мәселелердің жеткіліксіз академиялық өңделуі көрінеді.
Родригес назар аударатын тағы бір маңызды мәселе – жасанды интеллекттің жағымсыз салдарына ең сезімтал қоғамның топтары мүдделері мен дауыстары жиі тиісті деңгейде естілмейді.
Қазірдің өзінде интернет-коммуникациялар мен цифрлық технологияларға қолжетімділігі немесе тиісті техникалық мүмкіндіктері жоқ азаматтардың мемлекеттік порталдар арқылы қызметтерді пайдалану мүмкіндігі болмағандықтан, олардың құқықтары іс жүзінде шектелген.
Сонымен қатар, Родригестің пікірінше, жасанды интеллект мәселесі – саяхаттың басы ғана. Технологияның жылдам дамып келе жатқаны сонша, біз жақында ЖИ, робототехника және заттар интернетінің конвергенциясы нәтижесінде туындайтын күрделі және ауыр қиындықтарға тап болуымыз мүмкін.

3. Құқықтағы жасанды интеллект: болжал және ақиқат
Гарри Сёрден (Harry Surden) «Artificial Intelligence and Law: An Overview» атты мақаласында екі сұрақты қарастырады: Бүгінгі таңда жасанды интеллект дегеніміз не? Құқықтық салада жасанды интеллектті практикалық қолданудың қандай әдістері бар?
Бұрынғы авторлардан айырмашылығы, Сёрден бұл жұмыста зерттеу тақырыбына шынайы көзқарасты қолданады. Мақаланың бірінші бөлімінде ол жасанды интеллект ұғымының өзіне, оның нақты заманауи мүмкіндіктері мен ерекшеліктеріне тоқталады. Ол футуристік және болжамды тәсілдерден аулақ болуға тырысып, ЖИ-тің қазір бар, практикалық аспектілеріне мүмкіндігінше көбірек назар аударады.
Жұмыстың артықшылығы – мақалада қолжетімді және қарапайым тілде, мысалдармен бірге қазіргі ЖИ технологияларының мәні, түрлері мен мүмкіндіктері түсіндіріледі. Сондықтан, тіпті техникалық білімі жоқ оқырман да бұл технологиялық ғажайыптың қалай жасалғанын және қалай жұмыс істейтінін оңай түсіне алады. Сёрден атап өткендей, ЖИ адамдар сияқты үлгілердің (тенденциялардың, құрылымдық ерекшеліктерінің және т.б.) мағынасын түсінбестен, бірақ осы үлгілерді пайдалана отырып, пайдалы және адамға ұқсас шешімдерді (нәтижелерді) құра алатыны – қызықты факт. ЖИ-ті осы бағытта тіпті өте күрделі тапсырмаларды орындау үшін пайдалануға болады.
ЖИ өнімділігінің сапасы көбінесе ол өңдейтін деректер көлеміне тікелей байланысты. Жасанды интеллект программалық кодтан басқа ештеңе емес болғандықтан, ол өңдеу және нәтиже шығару үшін өмірдегі фактілер мен оқиғаларды машина тіліне аудару қажет. Яғни, жасанды интеллектке арналған шикізат (ақпарат) дұрыс өңделуі, құрылымдалуы және ЖИ түсінетін пішінде ұсынылуы керек. Осыған байланысты Сёрден оқырман назарын құқық саласында тек кейбір бағыттар бойынша құрылымдық және реттелген деректерді табуға болатынына аударады. Оның пікірінше, құқық саласында, негізінен, түпкілікті нәтиженің қалыптасуы адамның қатысуынсыз жүзеге асырылмайтын, ішінара автономды жүйелер қолданылады.
Сёрден өз жұмысының бір бөлігі ретінде алға қойған міндеттердің бірі – құқықтанудың қай бағыттарында жасанды интеллект технологиясы елеулі әсер келтіруі мүмкін, ал қайсысында әсері аздау болатынын бағалау. Бұл тапсырманы орындау үшін ол – абстрактілі ойлауды қажет ететін жағдайларда, «иә» немесе «жоқ» деп біржақты жауап беру мүмкін болмайтын жағдайларда, көптеген әлеуметтік нормалар және басқа ұқсас құбылыстарды ескеруді қажет ететін жағдайларда ЖИ-тің мүмкіндіктерін зерттеуге арналған жұмыстарды зерделеген.
Сёрден айтуынша, бүгінгі күні заң саласында ЖИ мүмкіндіктерін пайдаланушылардың үш негізгі санаты бар:
- құқық әкімшілері – заң шығарушы, «құқық қорғаушылар» (атқарушы билік, оның ішінде полиция), сот билігі;
- практикалық заңгерлер, оның ішінде заң консультанттары мен адвокаттар;
- заңды сақтайтын, орындайтын және пайдаланатын тұлғалар (жеке және заңды тұлғалар).
Пайымдауды жүзеге асыру қажет болатын құқық және құқық тәжірибесі бағыттарында заманауи ЖИ адам танымын ауыстыруы қиын болуы мүмкін деген қорытындыға келеді Сёрден. Бүгінгі күні заңгерлер ЖИ технологиясын құқықтық құжаттарды талдау үшін (құжаттардағы белгілі бір сөздерді, сөз тіркестерін, үлгілерді іздеу және анықтау) қолданатынына қарамастан, таным мен ойлауды қажет ететін, абстракцияға, концептуализацияға және с.с. байланысты құқықтық қызметтің көптеген бағыттарында ЖИ толық табысқа жете алмайды. Осылайша, бүгінгі күні ЖИ азды-көпті сәтті тек қана оларды шешу үшін таза механикалық немесе қайталанатын әрекеттерді талап ететін құқықтық тапсырмаларда қолданылды. Бірақ осыны жүзеге асыру үшін де ЖИ тиісті өңделген (құрылымдалған немесе үлгіленген) «шикізатқа» мұқтаж.
Мемлекеттік басқару саласында ЖИ жүйелері мемлекеттік қызметкерлермен әртүрлі өтініштерін өңдеу процесінде қолданылады. ЖИ азаматтардың өтініштерін өңдеу және оларға жауап беру процесін жылдамдатуға көмектеседі. Бірақ Сёрден атап өткендей, мұндай ЖИ жүйелерінде көбінесе автоматтандырылған бағалау жүйесі бар, оның нәтижелері ықтимал шешімді толығымен дерлік анықтайды немесе қабылданатын шешімге айтарлықтай әсер етеді.
Бүгінгі күні ЖИ полициямен құқық бұзушыларды іздеу және табу үшін белсенді түрде қолданылады (смарт-камералар, жеке деректер және т.б. арқылы). Бірақ Сёрден ЖИ-ді қылмыстың алдын алу үшін қолдану мүмкіншіліктеріне күмәнмен қарайды.
ЖИ әділдік пен теңдік деген сөздердің мағынасын түсінбейтіні анық. ЖИ үшін алынған және өңделген ақпарат негізінде (оның қалай бағдарламаланғанын ескере отырып) қабылдайтын кез келген шешімдер әділ болады. Сондықтан, егер полиция қызметкерлері белгілі бір қасиеттерге ие адамдарды ұстауға бейім болса (тері түсі, нәсілі, бұрынғы құқық бұзушылықтар және т.б.), ЖИ мұндай адамдар жиі кездесетін аумақтарды белсендірек патрульдеуді ұсынады. Сәйкесінше, бұл одан да көп ұстауларға алып келеді. Тұйық шеңбер.
Сёрден қазіргі заманғы жасанды интеллект технологиялары құрылымдық тапсырмалармен айналысқанда, ойын ережелері қарапайым және бір мағыналы болған кезде, «иә» немесе «жоқ» деп нақты жауап беру қажет болғанда ғана жақсы нәтижелер көрсетеді деп қорытындылайды. Сондай-ақ ЖИ есептеу жылдамдығы бойынша адамдардан асып түсетіні белгілі. Сондықтан ЖИ шахматта, го ойынында, компьютерлік ойындарда жақсы нәтижелер көрсетеді. Керісінше, тапсырма қандай да бір құрылымды немесе тәртіпті анықтау қиын болған жағдайда, абстракция, сөздердің мағынасын дұрыс түсіну, «жолдар арасында» оқу қажет болған жағдайда ЖИ-ті қолдану шеңбері өте шектеулі.

4. Жасанды интеллект: құқыққа әсері және кейбір басқа мәселелер
«Artificial Intelligence: An Introduction to the Legal, Policy and Ethical Issues» мақаласы өте көлемді және ЖИ мен құқық, саясат және этикаға қатысты мәселелердің кең ауқымын қамтиды. Мақала авторы – Джеймс Димпси (James Dempsey) жұмыстың бірінші бөлімінде ЖИ-тың негізгі ерекшеліктерін қарастырады. Жұмыстың екінші бөлімі оны қолданудың құқықтық, саяси және этикалық аспектілеріне қатысты бірқатар даулы мәселелерге арналған. Оның ішінде өндірушінің жауапкершілігіне қатысты мәселелер (автономды автомобильдер мысалында); еңбекті қорғау саласындағы құқықтық реттеу; алаяқтық саласындағы мәселелер; зияткерлік меншік (патент және авторлық құқық) саласындағы мәселелер; құқық және денсаулық сақтау саласындағы этикалық мәселелер; келісім-шарт құқығы, қылмыстық құқық, сот ісін жүргізудегі дәлелдеу теориясы, құқықтық тәртіпті қорғау, кемсітушіліктің алдын алу, бақылау (аңду) және жеке өмірге қол сұғылмаушылық (бет-әлпетті тану технологиясын пайдалану мысалында), әлеуметтік құқықтарды қорғау салаларындағы мәселелер. Үшінші бөлімде Қытай, Еуропалық Одақ, Франция және АҚШ-та жасанды интеллект технологияларын дамытудың ағымдағы ұлттық жоспарларына қысқаша талдау жасалады. Сонымен қатар, Димпси жақын болашақта ЖИ-тың одан әрі дамуының еңбек және жұмыспен қамту әлеміне болжамды әсеріне назар аударады. Қорытындылай келе, Еуропалық Одақ, АҚШ, ЕҚЫҰ және кейбір басқа елдер мен ұйымдар әзірлеген ЖИ-ті дамыту мен басқарудың этикалық принциптеріне қысқаша шолу жүзеге асырылған.
Тақырыптардың ауқымдылығына қарамастан (жұмыстың атауына сәйкес) автордың зерттеулері ең алдымен Америка Құрама Штаттарының заңнамасы мен құқықтық тәжірибесіне негізделген.
Димпси ЖИ ерекшеліктерін ерекше түрде ашады – ЖИ-тың кейбір белгілері мен мүмкіндіктері Google, Facebook, Amazon сервистерінің жұмыс істеу механизмін талдау, сондай-ақ аталған компанияларға қатысты кейбір сот істерін сипаттау арқылы ашылады. Басқа нәрселермен қатар, Димпси ЖИ-тың әлсіз жақтарына да аз көңіл бөледі (бейтараптылықтың болмау мүмкіндігі, қателердің ықтималдығы, кіріс деректерінің сапасына тәуелділік).
Димпсидің айтуынша, егер соттар ЖИ-ке қатысты дәстүрлі құқықтық теорияларды, тәсілдер мен ережелерді қолдануға тырысса, онда олар (соттар) қиындықтарға тап болады. Реттеуші органдар мен заң шығарушылар ЖИ-ты қолдануды құқықтық реттеу үшін мамандандырылған құқықтық актілерді жасау қажеттігін анықтау маңызды.
ЖИ жұмысының нәтижесінде залал келтірілген жағдайларда өндірушінің жауапкершілігін талқылай отырып, Димпси АҚШ пен ЕО-та strict liability принципі басым болатынын (ақаулы өнімді пайдалану нәтижесінде туындаған зиян үшін өндіруші жауапты болады) атап өтеді. Бірақ қазіргі кәдімгі автомобильдерде (ЖИ жүйесі жоқ) дәстүрлі немқұрайлылық теориясы (жүргізушінің жауапкершілігі) қолданылады.
Пилотсыз көлік арқылы зақым болған жағдайда жауапкершілік мәселесі туралы өз пайымдауларын жасай отырып, Димпси, егер пилотсыз көлікті оператор басқарса, онда ол жауапты болады, ал егер оны ЖИ басқарса, онда өндіруші жауапты болатынын атап өтті. Димпси мұндай жағдайларда соттар кімнің әрекеті зиян келтіргенін анықтау мәселесіне тап болады деп санайды – ЖИ пе немесе оператор ма? Кейбір жағдайларда (мысалы, жол-көлік оқиғасында) кейбір дәлелдемелердің жойылуы мүмкін екендігі мәселені одан әрі қиындатады. Осылайша, жолдарда өздігінен жүретін пилотсыз көліктердің саны артқан сайын, жауапкершілік жүргізушілерден өндірушілерге «жоғары» ауысады.
ЖИ-тың құқықтық реттелуіне тоқтала келе, Димпси ЖИ саласын реттеудің ең тиімді жолы бір ұлттық заңды құру емес, салалық көзқарас деп санайды. Бұл дегеніміз, әрбір саланың реттеушілері (мысалы, білім беру, денсаулық сақтау және т.б. салаларда) дербес және басқа реттеушілерге тәуелсіз ЖИ-ты қолдануға қатысты ережелерді қабылдауы туралы.
Димпси сипаттаған тағы бір мәселе – ЖИ алгоритмдерінің «өзін-өзі өзгерту» және «өзін-өзі дамыту» мәселесі. Мысалы, машиналық оқыту бағдарламалық құралы жұмыс кезінде алынған жаңа деректер негізінде өз кодын өзгерте алады. Бұл белгілі бір уақыттан кейін мұндай «өнімнің» мазмұны оның реттеуші органның бастапқы сертификаттауы кезінде көрсетілген бастапқы мазмұнынан айырмашылығы болатынын білдіреді. Сондықтан ақылға қонымды сұрақтар туындайды: «өзін-өзі өзгерткен» ЖИ басқа өнім болып табылады ма? ЖИ кодының белгілі бір бөлігі өзгерген сайын өндіруші қайтадан сертификаттау процесінен өтуі керек пе?
Зияткерлік және авторлық құқық саласында да күрделі мәселелер туындайды. Димпси өз жұмысында кейбір компаниялар ЖИ көмегімен алынған математикалық есептеулердің нәтижелерін патенттеуге тырысқан жағдайларды сипаттайды және мысалдар келтіреді. Димпси сонымен қатар ЖИ «шығармашылық» қызметінің нәтижелеріне қатысты авторлық құқық мәселесін талқылайды. Қазір ЖИ әңгімелерді, музыканы, сурет салуды және т.б. жазуды біледі. Бірақ құқықтық тұрғыдан мұндай «шығармашылықтың» нәтижесінің иесі кім болмақ?
Жұмыстың құқық және денсаулық сақтау саласындағы кәсіби этика мен міндеттерге арналған бөлігінде зерттеуші АҚШ-тағы кейбір қолданыстағы этикалық кодекстерде жаңа технологияларды (соның ішінде ЖИ) пайдалану саласындағы қызметкерлердің кәсіптік қатынастары қалай реттелетіні туралы қысқаша талдау жасайды.
ЖИ арқылы алынған дәлелдемелерінің рұқсат етілгендігі мәселесін зерттей отырып, Димпси қазіргі уақытта АҚШ соттары ЖИ есептеулеріне негізделген сарапшылардың пікірлеріне біршама күмәнмен қарайтынын атап өтеді. Соттардың бұл позициясы түсінікті, өйткені қазіргі кейбір ЖИ технологияларының ағымы мен есептеу жолдары соншалықты күрделі – ешкім ЖИ-тың белгілі бір қорытындыға қалай келгенін нақты түсіндіре алмайды немесе олардың растығын және «бейтараптылығын» егжей-тегжейлі тексере алмайды.
ЖИ кемсітушілік мәселесін сипаттай отырып, автор басқа нәрселермен қатар Facebook пен Amazon-ға қарсы жеке сот істерін талдайды. Аталмыш компаниялар ЖИ-ты белгілі бір бағдарламаларында пайдаланды және ЖИ-ты мұндай пайдалану нәтижелері АҚШ-та кемсітушілік деп танылды.
Екінші бөлімнің L бөлімшесінде Димпси библиографиялық мәліметтерді, әлеуметтік қорғау және денсаулық сақтау саласында ЖИ жүйелерін қолдануға байланысты бірнеше сот істерінің қысқаша сипаттамасын береді.
Зерттеуде Димпси қызықты жағдайды сипаттайды, онда АҚШ денсаулық сақтау органдары медициналық қызметтерге ең мұқтаж халықтың сегменттерін анықтау үшін қолданатын алгоритм «ақ» халық «қара» халыққа қарағанда медициналық қызметтерге (соның ішінде алғашқы медициналық көмекке) мұқтаждығы көбірек деген қорытындыға келді. Өйткені біріншісі оларды қабылдауға көбірек ақша жұмсайды. Бірақ Димпси жазғандай, шын мәнінде, «қара» халықтың денсаулығы «ақтардың» деңгейінен төмен.
Төменде өз жұмысында, шамасы, әділдік үшін, Димпси ғалымның пікірін келтіреді, оған сәйкес, кемсітуді адамның шешімдеріне қарағанда алгоритм кодында анықтау және түзету оңайырақ.
Димпсидің айтуынша, ЖИ-тың корпорациялар мен үкіметтер үшін маңыздылығы – ЖИ үлкен көлемдегі деректерді талдауға және белгілі бір адамдарға қатысты салыстырмалы түрде жылдам шешім қабылдауға мүмкіндік беретіндігінде. Сонымен қатар, корпорациялардың деректерді пайдалануы, несиелік скорингті және жалпы несиелік тарихты пайдалануы заңмен реттелсе де, пайдалануы ешқандай жолмен реттелмейтін деректердің басқа түрлері де бар.
Димпси бет-әлпетті тану саласындағы ЖИ технологияларына алаңдаушылық артып келе жатқанын атап өтті. Осылайша, автор 2020 жылдың қаңтарында АҚШ-та бет-әлпетті тану жүйесінің нәтижесі бойынша афроамерикалық тұрғын қамауға алынған іске сілтеме жасайды (бірақ кейін белгілі болғандай, ол тұлға қате ұсталған болып шықты). Жұмыста автор АҚШ-тағы көптеген заң шығарушы органдар қателіктер мен тұрақты бақылаудан қорқу нәтижесінде бет-әлпетті тану жүйелерін пайдалануға тыйым салатынын атап өтеді.
Димпси жүргізген Қытайдың, Еуропалық Одақтың, Францияның және АҚШ-тың ұлттық жоспарларының ерекшеліктерін талдаудан – ЖИ дамытудың ең ауқымды және байыпты жоспарлары Қытайда жасалған деп қорытынды жасайды. Өздеріңіз білетіндей, 2030 жылға қарай Қытай ЖИ саласында әлемдік көшбасшы болуды жоспарлап отыр. Басқа елдерден айырмашылығы, Қытайда бұл үшін барлық қажетті база бар: орталықтандырылған мәліметтер жинау (тұлғалар, коммерциялық құрылымдар және олардың қызметі туралы, бет-әлпетті тану технологиясы және т.б.), компьютерлік қуат, сарапшылар.
ЕО-та да әртүрлі деңгейлерде ЖИ дамыту жоспарларын қабылдады. Бірақ ЕО үшін Қытаймен бәсекелесу қиын болады, өйткені өз жоспарларын әзірлеу кезінде ЕО халықаралық құқық, заң үстемдігі, этикалық принциптер мен нарықтық экономиканың принциптерін ұстанады. Бұның барлығы ЖИ технологияларын дамытуда серпіліс жасауға белгілі бір кедергі болуы мүмкін (мысалы, объектілер мен субъектілер туралы мәліметтерді орталықтандырылған жинаусыз және өңдеусіз ЖИ-ты тиімді пайдалану мүмкін емес) .
Францияда 2018 жылы да ұлттық жоспар қабылданды, ол Францияның ЖИ-ты дамытудағы ұстанымын нығайтуға бағытталған.
Димпсидің айтуынша, АҚШ жоғарыда аталған елдердің ішінде ЖИ-тың дамуына ең аз көңіл бөледі. Ол өз ұстанымын, АҚШ Президентінің жарлықтары мен жоғары деңгейдегі мемлекеттік құрылымдардың жоспарларының болуына қарамастан, бұл актілердің мазмұны жағынан әрқашан анық және егжей-тегжейлі бола бермейтінімен, ал кейбір жағдайларда олар кеңестік сипатта болатынымен немесе принциптер түрінде көрсетілетіндігімен негіздейді.
Маккензи Дүниежүзілік Институтының зерттеуіне негізделген талдау нәтижесінде Димпси 21 ғасырдағы ЖИ пен өнеркәсіптік автоматтандырудың дамуы әлем халқының жұмыспен қамтылуы үшін жағымсыз салдарларға әкелуі мүмкін деген қорытындыға келді. Бірақ бұл салдар өте жойқын болмайды (жер тұрғындарының шамамен 3-14 пайызы өз кәсібін өзгертуге мәжбүр болады), өйткені ЖИ жаңа, бұрын белгісіз мамандықтардың пайда болуына мүмкіндіктер жасайды.

5. Жасанды интеллект пен қоғамның симбиозының нәтижесі: адамзаттың гүлденуі ме, әлде құлдырауы ма?
«Symbiosis with artificial intelligence via the prism of law, robots, and society» мақаласында Стаматис Карноускос (Stamatis Karnouskos) ЖИ жүйелерінің қоғамның болашағына құқықтық, әлеуметтік, экономикалық, гендерлік және этикалық тұрғыдан ықтимал әсерін ашады.
Кейбір зерттеулерге сілтеме жасай отырып, автор ЖИ жүйелерінің эволюциялық деңгейлерінің классификациясын береді:
- эволюцияның бірінші деңгейі: салалық жасанды интеллект (Artificial Narrow Intelligence) немесе әлсіз ЖИ. Бұл деңгейдегі ЖИ мүмкіндіктері салалық жағынан мамандандырылған. Мысалы, шахмат ойнау, көлік жүргізу, т.б.;
- эволюцияның екінші деңгейі: әмбебап жасанды интеллект (Artificial General Intelligence) немесе күшті ЖИ. Бұл деңгейде ЖИ санаға ие және оның мүмкіндіктері адамдікіне тең. ЖИ адамнан ажыратуға болмайтын нәтижелерге жетерліктей әрекеттерді меңгеруге және жүргізуге қабілетті;
- эволюцияның үшінші деңгейі: Супер Жасанды Интеллект (Artificial Super Intelligence) мүмкіндіктері жағынан адам қабілеттерінен жоғары және оған былайша анықтама беруге болады: «кез келген салада адамдардың танымдық мүмкіндіктерінен айтарлықтай асатын кез келген интеллект».
Жасанды интеллект жүйелері (оларды автор роботтармен байланыстырады) мен құқық арақатынасына арналған бөлімде ғалым роботтардың «құқықсубъектілігі» мәселесін талқылайды. Зерттеушінің пікірінше, құқықтық қатынастардың субъектісі өз әрекеттерінде контекстен, нақты қатынастардан бөлінбейді және бөлінбеуі керек. Мәдени, экономикалық және саяси жүйелер маңызды және құқықтық жүйеге әсер етеді. Автордың пікірінше, роботтарға белгілі бір құқықтық мәртебе беру мүмкіндігін қарастырған кезде құқықтық қатынастарды қолданудың жоғарыда аталған ерекшеліктерін ескеру қажет. Басқаша айтқанда, егер сіз роботты заң нормаларының талаптарын білетін, орындайтын және сақтайтын етіп бағдарламаласаңыз да, бұл роботтардың «әлеуметтенуінің» және «құқықтық мінез-құлқының» кепілі бола алмайды, өйткені қоғамда құқықтық нормалар нақты мәдени, экономикалық және басқа да ерекшеліктерді ескере отырып өмірде қолданылады.
Автор бүгінгі күні роботтар өз иелерінің – жеке тұлғаның немесе ұйымның меншігі болып саналатынына назар аударады. Интеллектінің шектеулі болуына байланысты роботтар Аристотельдің «Саясатындағы» құлдар ретінде қабылданады. Бірақ роботтар эволюцияның екінші деңгейіне (Әмбебап Жасанды Интеллект) жеткенде жағдай өзгеруі мүмкін. Роботтар адамдарға ұқсайтын болады, сөйлей алады, өзін адам сияқты ұстай алады.
Қолданыстағы құқық жүйесі адамдарға қатысты қолданылады және адамның азап шегу мүмкіндігіне байланысты олардың құқықтарын қорғауға бағытталған. Құқықтық жүйенің мақсаты – адамды азаптан қорғау. Құқық субъектісі ауырсынуды сезініп қана қоймайды, сонымен қатар мүмкін болатын азапты сезіну де адамның шешім қабылдау процесіне әсер етеді. Осыған байланысты зерттеуші сұрақ қояды: егер робот ауырсынуды немесе ләззатты сезінбесе, оны қылмыстық заң аясында «жазалау» қаншалықты мағыналы? Робот өлімнен қорықпаса, утилизацияны жаза ретінде қабылдай ма? Робот жылдар бойы қозғалмауы мүмкін кезде оны «қамаудың» мағынасы бар ма және бұл оған қолайсыздық тудыратын шара ма?
Егер роботтар құқық субъектісі ретінде танылса, онда олар құқық иелері болады. Дегенмен, роботтардың өз құқықтарын қалай пайдаланатыны белгісіз. Мысалы, робот миналарды тазартудан бас тарта ала ма, ол зиян тигізуі мүмкін деп? Робот жұмыс жағдайын жақсартуды талап етіп ереуілге шыға ала ма?
Саналы роботтарды моральдық агенттер – өз әрекеттеріне жауапты субъектілер ретінде қарастыруға болады. Бірақ егер біз саналы роботтарды моральдық пациенттер – моральдық агенттер (мысалы, құқықсубъектілігі бар адамдар) зиян келтіруі мүмкін және мұндай зияннан қорғалуға құқығы бар субъектілер деп санасақ, онда роботтар адамдарды өз құқықтарына қауіп төндіретін көз ретінде қарастыруы мүмкін. Роботтар жаңа түр ретінде пайда болса не болуы мүмкін? Құлдық тарихы, революциялар, роботтардың құқықтары үшін күрес қайталануы мүмкін бе?
Роботтардың автономды шешімдерді қабылдауы әртүрлі оқиғалардың және адамдарға және қоғамға (қасақана немесе абайсыздан) зиян келтіру мүмкіндігін жоққа шығармайды. Айзек Азимовтың белгілі үш заңын пайдалану мүмкіндігін зерттеу нәтижесінда, автор оларды қолдану әлеуметтік қатынастардың күрделілігіне байланысты қиындықтарға толы болуы мүмкін деген қорытындыға келеді. Сонымен қатар, кейбір салаларда (мысалы, әскери өнеркәсіпте, жауынгер роботтар үшін) роботтардың адамға зиян келтіруіне тыйым салу іс жүзінде мүмкін емес. Басқа салаларда робот иелері бұған қызығушылық танытпайды (мысалы, темекі өнеркәсібінде).
Бүгінгі күннің өзінде адамдардың мүлкіне, өмірі мен денсаулығына роботтардың зиян келтірген кездері бар. Автор 2015 жылы Швеция полициясы Darknet желісінде заңсыз сатып алулар (соның ішінде есірткіні) жасаған «Random Darknet Shopper» атты онлайн-ботты «қамауға алған» мысалын келтіреді. Осы тұрғыда, автор ақылға қонымды және қазірдің өзінде танымал сұрақ қояды: робот зиян келтірсе ол үшін кім жауапты болады – дизайнер ме, өндіруші ме, иесі ме немесе роботтың өзі ме?
Автор атап өткендей, бүгінде Еуропалық Одақ елдерінде роботтар келтірген зиян үшін жауапкершілік мәселесі өндірушіге жауапкершілікті жүктеу арқылы шешіледі. Бірақ жауапкершілік мәселесі роботтардың одан әрі эволюциясымен күрделене түседі, өйткені қазірдің өзінде ЖИ бар роботтар «оқу» арқылы өздерінің «дағдылары» мен «қабілеттерін» дамытуға бағдарламаланған. Мұндай роботтардың бастапқы бағдарламалық коды олардың «өмір сүру» және «тәжірибе жинақтау» барысында айтарлықтай өзгеруі мүмкін. Сондықтан, бұл жерде автор келесі мәселені көтереді: егер роботты пайдаланушы оны «дұрыс емес материалдарды» қолданып «оқытса» және мұндай «білім алу» нәтижесінде басқаларға зиян келтірсе, кім жауапты болады? Болашақта роботтар Интернет арқылы басқа роботтардың (олар басқа елде болуы мүмкін) жадындағы «тәжірибені» жүктеп алу мүмкіндігіне ие болатындығы мәселені қиындатады.
Роботтардың заңгер, судья, заң шығарушы ретіндегі ықтимал перспективаларын зерттей отырып, автор бүгінгі күннің өзінде ЖИ деңгейі белгілі бір құқықтық мәселелерді шешуге, сот төрелігі мен оған қолжетімділік жағдайын жақсартуға мүмкіндік береді деген пікірді келтіреді. Бірақ казустарды шешудің алгоритмдік мазмұны заңгер мамандығының құндылықтарына және идеалдарына сәйкес келуі қажет. Сондай-ақ мұндай шешімдер құқықтық этика мен кәсібилік талаптарына қаншалықты сәйкес келеді деген сұрақ ашық күйінде қалып отыр.
Егер роботтар саналы болса, олар классикалық құқықтану саласында ғана емес, сонымен қатар пәнаралық талдаулар жасай алады. Өйткені олар бірден бірнеше мәліметтер базасына қол жеткізе алады және бір уақытта талдау үшін әртүрлі ақпаратты пайдалана алады.
Осы контексте автор орынды сұрақ қояды: роботтар әділ және бейтарап шешім қабылдай алатын болса, неге робот-заңгерлерді жасамасақ? Мұндай роботтар әділ, теңсіздіксіз заңдар жаза алар еді.
Роботтар әлеуметтік жағынан адам үшін үй жануарлары сияқты пайдалы болуы мүмкін. Бүгінгі таңда эмоционалды робототехниканы дамыту бойынша көптеген зерттеулер жүргізілуде. Эмоционалды роботтар қазірдің өзінде аутизммен ауыратын балаларды емдеуде қолданылады.
Роботтарды жер бетіндегі қартайған халыққа қамқорлық жасау үшін пайдалануға болады. Дегенмен, роботтық күтімнің жанама әсері болуы мүмкін. Мысалы, робот адамға алкогольді ішуге рұқсат бермесе (денсаулығын күту), онда бұндай әрекет адам бостандығын шектеу (адамның негізгі құқықтарының бірі) ретінде қарастырылуы мүмкін.
Роботтардың әлеуметтену процесінде жеке өмірдің құпиялылығы мәселесі туындайды. Себебі, аудио және бейне детекторларымен жабдықталған роботтар жазып алғанның барлығын байланыс арналары арқылы сақтап немесе басқа жерлерге жібере алады. Автор бұл жағдайдың қоғам үшін пайдалы да (қылмысты азайту үшін) және зиянды (тоталитарлық режимдер үшін ыңғайлы қадағалау құралы ретінде қызмет ету) болуы мүмкін екенін атап өтеді.
Роботтар мен экономика арасындағы қарым-қатынас саласындағы зерттеушілердің жұмыстарын қарастыра отырып, автор роботтардың одан әрі дамуы адамдар үшін жұмыс орындарының қысқаруына әкелетініне қарамастан, бұндай жағдай жаңа мамандықтардың пайда болуына триггер бола алады деген пікірлерді келтіреді. Сонымен қатар, кейбір ғалымдардың роботтарқа салық енгізу туралы ұсынысы да қызық. Идеяның мәні – роботтарды пайдаланатын компаниялардан жиналған салықты жаңа жұмыс орындарын ашу үшін қайта бөлуге болады.
Басқа да ғылыми еңбектерден көрініп тұрғандай, жұмыста роботтардың «интеллектуалдық» қызметінің нәтижелеріне құқықтар мәселесі көтеріледі. Роботтың шығармашылық нәтижесіне авторлық құқық иесі кім болады: өндіруші ме, роботтың иесі ме, әлде роботтың өзі ме? Роботтың шығармашылығының нәтижесі оның өздігінен білім алу қабілетінің нәтижесінде (бастапқы алгоритмнің өзгеруіне байланысты) пайда болса ше?
Роботтардың гендерлік сәйкестендіру мәселелерін зерттей отырып, автор роботтардың қызметіндегі гендерлік компонент маңызды екенін анықтайды. Белгілі болғандай, еркек роботтарды немесе әйел роботтарды әртүрлі санаттағы адамдар әртүрлі қабылдайды және оларға деген қатынас әртүрлі.
Эволюцияның екінші деңгейіндегі роботтардың әлеуметтенуі күрделі қиындықтарға тап болуы мүмкін, өйткені бұл деңгейде роботтар оқу үшін ЖИ-ті белсендірек пайдаланады. Егер робот негізінен қоғамға қарсы мінез-құлықты «үйренсе» ше? Бұл роботтың қоғамға қарсы әрекеттер жасауына алып келуі мүмкін. Мұнда автор 2016 жылы Microsoft компаниясы жүргізген экспериментті келтіреді. Жасөспірімдердің өз ортасымен «әлеуметтену» үшін олардың қарым-қатынас стилін зерттеген Тay атты бот бір-екі сағаттық «тренингтен» кейін дөрекі және басқаларды қорлайтын хабарламалар жаза бастады. Сондықтан іске қосылғаннан кейін көп ұзамай оны өшіруге тура келді.
Роботтардың қызметі мен этика арасындағы арақатынас мәселелерін қарастыра отырып, автор автомобильді басқаратын ЖИ кімді – көлік жүргізушісін немесе үш жаяу жүргіншіні құтқару керек екенін таңдауы керек кездегі ойдан шығарылған жағдайды келтіреді. Бұл жағдайда робот нені басшылыққа алуы керек – логиканы ма, әлде этиканы ма? Робот осындай жағдайға тап болса адамдардың жасын, жынысын, физикалық немесе психикалық жағдайын ескеруі қажет пе?
Өз жұмысын қорытындылай келе, автор роботтардың не адам өмірін жақсарта алатынын, не адамзат баласының жойылып кетуіне себеп болатынын айтады. Роботтардың интеллектуалдық және физикалық қабілеттіліктері адамзат үшін өте пайдалы болуы мүмкін. Роботтарға күнделікті мәселелерді жедел басқаруды сеніп тапсыру арқылы адамзат экономикалық және интеллектуалдық еркіндіктің келесі деңгейіне өте алады.
Құқық пен ЖИ арасындағы қарым-қатынасқа келетін болсақ, автордың пікірінше, ЖИ-ті қолдану саласындағы құқықтың доктриналдық тұжырымдамасы мен реалды өмір арасындағы одан әрі қарама-қайшылықтар күшейе түседі. Бұл мәселе тек адам мен робот арасындағы қарым-қатынасты ғана емес, робот пен робот арасындағы қатынастарды да реттеу қажет болатындығымен асқынуы мүмкін. Егер роботтар интеллектке ие болса, роботтар арасында дау туатын уақыт алыс емес. Құқықтың қазіргі принциптері мен аксиомалары тұрғысынан мұндай жағдайларды қалай шешуге болады?
Роботтардың құқықтық мәртебесі туралы өз пайымдауын дамыта отырып, автор екі ықтимал сценарийді белгілейді – роботтар адамға құл ретінде қызмет ететін заттар күйінде қалады немесе оларға белгілі бір құқықтар мен бостандықтар қамтамаыз ететін құқықтық мәртебе беріледі. Мәселе мынада, роботтардың интеллектуалдық мүмкіндіктерінің өсуімен оларды заттармен теңестіру қиынырақ болады, өйткені олар адамнан сыртқы және когнитивтік жағынан аз ерекшеленеді. Егер роботтар формальды түрде құқықтар мен бостандықтарға ие болса, онда адамдар тарапынан кемсітушілік жағдайында (бұл өте ықтимал), олар өздерінің құқықтық мәртебесін іс жүзінде жүзеге асыру үшін күресуге мәжбүр болады.
Қорытындылай келе, автор қазіргі уақытта біздің қоғам интеллектуалдық қабілеттері бойынша адамдармен тең немесе одан жоғары саналы роботтардың қатысуымен өмірге дайын емес деген қорытындыға келеді. Робот эволюциясының нәтижесі адамзатқа пайдалы ма, әлде керісінше ме, белгісіз.

Талқылау
ЖИ заманауи құқықтық реттеу деңгейі (заңдар деңгейінде) қазіргі кезде бұл технологияны қолданудың нақты кеңдігіне сәйкес келмейді. Осы орайда, ЖИ саласын қатаң реттеу қажеттілігіне қатысты ғылыми қоғамдастықта бұндай жолды қолдаушылар да, оған қарсыластар да бар. Шұғыл және қатаң құқықтық реттеу қажеттілігін ЖИ қолдану саласындағы ықтимал теріс салдарларды «қауіпті тенденциядан» «қалыпты» және «кәдімгі» құбылысқа айналмайынша тоқтату маңызды екендігімен негіздеуге болады. Қатаң құқықтық реттеуге қарсы аргумент ретінде шамадан тыс реттеу өмірге енгізу үдерісін және экономика мүддесі үшін ЖИ-тың одан әрі дамуын бәсеңдетеді деген тезисті келтіруге болады.
Өздеріңіз білетіндей, ЖИ қабілеттерінің заманауи деңгейі қазірдің өзінде биосфераның ең ақылды жаратылысы – адамның монополиясына қарсы тұруға мүмкіндікке жетті. Ғылыми қоғамдастықтағы ЖИ-ты «тұлға» ретінде тануға бола ма деген пікірталас оның стандартты еместігімен ғана емес, сонымен бірге адамның өзінің бірегейлік деңгейі туралы ойлануға мәжбүр ететіндігімен де қызықты. Осылайша, қазір мұндай пікірталастар қалай аяқталатынын елестету қиын.
Құқықтық қызмет саласында ЖИ-тың қолданылуына осы салада пайдаланылатын көптеген құжаттардың бастапқы мазмұны, реттелген және біркелкі құрылымның болмауы кедергі келтіреді. Сондықтан, көп жағдайда, құжаттар бастапқы түрінде ЖИ жүйелері арқылы өңдеуге жарамайды, ал ЖИ-тың қолданылуы адамның тікелей қатысуынсыз жүрмейді. Осы жерде айта кететін жайт, болашақта құқықтық саланы цифрландырудың өсуімен және ЖИ-тың интеллектуалдық деңгейінің дамуымен бұл жағдай өзгеруі мүмкін.
Құқық қорғау қызметі саласында тұлғаны графикалық сәйкестендіру үшін ЖИ-ты қолданудан үлкен үміт күтілуіне қарамастан, тұлғаны бет-әлпет бойынша тану технологиясы қате нәтижелерге әкелетіні және оны дамытуды қажет ететіні анықталды. Қылмыстың алдын алуын және полиция қызметкерлерін тиімдірек қолдану үшін ЖИ-ты енгізу және пайдалану әрекеті, белгілі болғандай, қылмыстылық деңгейінің нақты жағдайына сәйкес келмейтін біржақты нәтижелерге әкелуі мүмкін. Әлбетте, соңғы жағдайда мәселе ЖИ-тың өзінде емес, адамдар жасаған кіріс деректерінің саны мен сапасында.
Көптеген сұрақтар ЖИ жүйелерін пайдалану арқылы алынған нәтижелердің сенімділігі, тексерілу және түсіндіру деңгейімен туындайды. Мәселе кейбір қазіргі заманғы ЖИ-тердің бағдарламалық кодының не жабық, не өте көлемді және күрделі болуымен немесе өзін-өзі өзгертуді және өзін-өзі модернизациялауды қамтамасыз ететіндігінде немесе жоғарыда аталғандардың барлығының бірге орын алуымен байланысты. Бұл тіпті ЖИ саласындағы сарапшылар үшін ЖИ жүйесінің алгоритмі белгілі бір нәтижені қалай және неліктен бергенін нақты түсіндіру қиынға соғады.

Қорытынды
Өткізілген жұмыс нәтижесінде заңгерлер қауымдастығы ЖИ технологиялары пайдаланылатын жағдайларға дәстүрлі құқықтық тұжырымдамалар мен тәсілдерді қолдану процесінде кейбір қиындықтарды бастан кешіруде деген қорытынды жасауға болады. Сондықтан кейбір зерттеушілердің жаңа құқықтық доктриналардың академиялық дамуы немесе бұрыннан барларын қайта қарау қажеттілігі туралы үндеулері кейде негізсіз емес сияқты. Қалай болғанда да, цифрлық технологиялардың серпінді дамуы қолданыстағы құқықтық шындыққа айтарлықтай әсер етіп, заңгерлер қауымдастығын ЖИ-ты құқықтық реттеу саласындағы жаңа тәсілдерді іздеуге және дамытуға итермелейді. Мәселе адам құқықтары саласындағы халықаралық қағидаттар аясында тиісті құқықтық актілер мен басқа да нұсқаулар қаншалықты дер кезінде қабылданатынында болып отыр. Сондай-ақ, зерделеу нәтижесінде, ЖИ дамуының қазіргі деңгейі адамның интеллектуалдық мүмкіндіктерімен салыстырғанда әлі де қарапайым деп айтуға болады. Сондықтан, қазіргі уақытта құқықтық қызмет саласында ЖИ технологияларын қолдану шектеулі және мұндай пайдалану адамның бақылауынсыз жүрмейді. Бірақ ЖИ-тың «күші» – бұл технологияның елеулі эволюциялық әлеуеті бар екендігінде. Осының нәтижесінде, болашақта ЖИ дамудың қандай деңгейлеріне қол жеткізетінін болжау өте қиын. Бірақ бір нәрсе даусыз – ЖИ мүмкіндіктері адам интеллектісінің мүмкіндіктеріне тек жақындай береді.

Темирбеков Ж.Р., PhD, teaching профессор Департамента публичного права Университета КАЗГЮУ имени М.С. Нарикбаева (Нур-Султан, Казахстан): Право и искусственный интеллект: некоторые исследования.
Актуальность статьи связана с необходимостью исследования проблем и вопросов в сфере правового регулирования систем искусственного интеллекта. Цель исследования – выполнить обзор нескольких научных статей, посвященных общим вопросам и проблемам правового регулирования систем искусственного интеллекта. В процессе подготовки статьи применялись такие методы исследования как сравнительный метод, дедуктивный и индуктивный методы, методы анализа и синтеза, и некоторые другие. В результате обзора можно сделать вывод, что с развитием технологий искусственного интеллекта их влияние на основные права человека будет только усиливаться. Кроме того, в юридическом сообществе обсуждаются вопросы о возможном признании роботов на базе искусственного интеллекта носителями моральных и юридических прав. Вышесказанное связано с прогнозом, что в будущем, достижения технологий искусственного интеллекта сравняются или даже превзойдут интеллектуальные способности человека, что может послужить причиной появления нового вида – разумных роботов. Это приведет к тому, что человечеству необходимо будет приспосабливаться жить с новым разумным видом существ в симбиозе. Однако неизвестно, каким может быть итог такого сосуществования для человеческой расы. Кроме прочего, отмечается необходимость усиления нормативного регулирования, акселерации правовых академических исследований, мониторинга негативных последствий в сфере использования и применения систем искусственного интеллекта. Что касается применения искусственного интеллекта в сферах юридической деятельности, то на сегодняшний день, данная технология успешно применятся лишь в юридических задачах, которые связаны с механическими или повторяющимися действиями. Задачи, связанные с абстрагированием и концептуализацией, где необходимо познание и мышление, для искусственного интеллекта все еще трудновыполнимы. Как выяснилось, отдельные попытки применения искусственного интеллекта для «умной» профилактики преступности не всегда приводят к желаемому результату. В сфере юридической ответственности – можно утверждать на примере беспилотных автомобилей, что с распространением технологий искусственного интеллекта ответственность от пользователей будет смещаться «вверх» к производителям.
Ключевые слова: искусственный интеллект и право, искусственный интеллект, право, распознавание лиц, беспилотные автомобили, основные права человека, правосубъектность, алгоритмы, программный код, машинное обучение.

Temirbekov Zh.R., PhD, Teaching Professor of the Department of Public Law at M. Narikbayev KAZGUU University (Nur-Sultan, Kazakhstan): Law and artificial intelligence: some research.
The relevance of the article is associated with the need to study problems and issues in the field of legal regulation of artificial intelligence systems. The purpose of the study is to review several modern scientific articles devoted to general issues and problems of legal regulation of artificial intelligence systems. In the process of preparing the article, such research methods were used as the comparative method, deductive and inductive methods, methods of analysis and synthesis, and some others. As a result of the review, it can be concluded that the development of artificial intelligence technologies has already reached the level of influence on fundamental human rights. In addition, the legal community is discussing the possibility of recognizing robots based on artificial intelligence as the owner of moral and legal rights. The foregoing is connected with the forecast that in the future, the achievements of artificial intelligence technologies will equal or even surpass the intellectual abilities of a person, which may cause the emergence of a new species – sensible robots. This will lead to the fact that humanity will need to adapt to live with a new sensible species of beings in symbiosis. However, it is not known what the outcome of such coexistence could be for the human race. Among other things the need to strengthen regulatory regulation, accelerate legal academic research, monitor negative consequences in the use and application of artificial intelligence systems is noted. As for the use of artificial intelligence in the fields of legal activity, today, this technology is successfully applied only in legal tasks that are associated with mechanical or repetitive actions. The tasks associated with abstraction and conceptualization, where cognition and thinking are necessary, are still difficult for artificial intelligence to accomplish. As it turns out, some of the current attempts to use artificial intelligence for smart crime prevention do not always lead to the desired result. In the area of ​​legal responsibility, it can be argued, using the example of unmanned vehicles, that with the proliferation of artificial intelligence technologies, responsibility from users will shift "up" to manufacturers.
Keywords: artificial intelligence and law, artificial intelligence, law, face recognition, self-driving cars, basic human rights, legal personality, algorithms, program code, machine learning.

Әдебиеттер тізімі:
Федорченко С.Н. Цифровые технологии в политическом процессе: новые вызовы и перспективы // Право и государство. 2020. № 3-4 (88-89). – С. 161-174.
Dempsey J.X. Artificial Intelligence: An Introduction to the Legal, Policy and Ethical Issues. USA, Berkeley: Berkeley Center for Law & Technology. 2020. URL: https://www.law.berkeley.edu/wp-content/uploads/2020/08/Artificial-Intelligence-An-Introduction-to-the-Legal-Policy-and-Ethical-Issues_JXD.pdf.
Gordon J.-S. AI and law: ethical, legal, and socio-political implications // AI & Soc. 2021. URL: https://doi.org/10.1007/s00146-021-01194-0.
Karnouskos S. Symbiosis with artificial intelligence via the prism of law, robots, and society // Artificial Intelligence and Law. 2022. № 30. – Pp. 93-115. URL: https://doi.org/10.1007/s10506-021-09289-1.
Rodrigues R. Legal and human rights issues of AI: Gaps, challenges and vulnerabilities // Journal of Responsible Technology. 2020. Vol. 4. URL: https://doi.org/10.1016/j.jrt.2020.100005.
Surden H. Artificial Intelligence and Law: An Overview // Georgia State University Law Review. 2019. № 4. – Pp. 1305-1337. URL: https://readingroom.law.gsu.edu/cgi/viewcontent.cgi?article=2981&context=gsulr.

References (transliterated):
Fedorchenko S.N. Tsifrovyye tekhnologii v politicheskom protsesse: novyye vyzovy i perspektivy // Pravo i gosudarstvo. 2020. № 3-4 (88-89). – S. 161-174.
Dempsey J.X. Artificial Intelligence: An Introduction to the Legal, Policy and Ethical Issues. USA, Berkeley: Berkeley Center for Law & Technology. 2020. URL: https://www.law.berkeley.edu/wp-content/uploads/2020/08/Artificial-Intelligence-An-Introduction-to-the-Legal-Policy-and-Ethical-Issues_JXD.pdf.
Gordon J.-S. AI and law: ethical, legal, and socio-political implications // AI & Soc. 2021. URL: https://doi.org/10.1007/s00146-021-01194-0.
Karnouskos S. Symbiosis with artificial intelligence via the prism of law, robots, and society // Artificial Intelligence and Law. 2022. № 30. – Pp. 93-115 URL: https://doi.org/10.1007/s10506-021-09289-1.
Rowena Rodrigues. Legal and human rights issues of AI: Gaps, challenges and vulnerabilities // Journal of Responsible Technology. 2020. Vol. 4. URL: https://doi.org/10.1016/j.jrt.2020.100005.
Surden H. Artificial Intelligence and Law: An Overview // Georgia State University Law Review. 2019. № 4 – Pp. 1305-1337. URL: https://readingroom.law.gsu.edu/cgi/viewcontent.cgi?article=2981&context=gsulr.

 

Учредитель:
АО Университет КАЗГЮУ имени М.С. Нарикбаева (Maqsut Narikbayev University).
Партнеры:

Журнал зарегистрирован в Комитете информации и архивов Министерства культуры и информации Республики Казахстан. Свидетельство № 7742-Ж.
ISSN: 2307-521X (печатная версия)
ISSN: 2307-5201 (электронная версия)