Коллажды жасаған – Алмас МАНАП, «EQ»
Жасанды интеллект қолданбалары жетілдірілген сайын жұмыс орындарын жоғалту, кемсітушілік, авторлық құқықтың бұзылуы, жалған ақпараттардың таралуы секілді адамзатқа төнетін қауіп көбейіп келеді. Сарапшылар бұл саланы басынан бақылауда ұстамаса, кейін зардабын тартатынымызды жиі айтып жүр. Еуропалық одақ осы мәселелерді реттеуде көшбасшылық танытып келеді. Одаққа мүше елдер желтоқсан айында Еуропалық кеңес пен Еуропалық Парламент мақұлдаған «Жасанды интеллект туралы» заңға қол қойды. Заң биыл күшіне енеді. Ережеге сәйкес, Еуропа аумағында сатылатын және қолданылатын жасанды интеллект құралдары мен оны өндіретін компанияларға қатаң шектеулер қойылады. Айта кетейік, Еуропа жасанды интеллектінің нақты ережелерін бекіткен алғашқы континент болып отыр.
Нидерландтағы Утрехт университетінің Жеке құқық және технологиялар кафедрасының доценті Каталина Гоантаның айтуынша, «Жасанды интеллект туралы» заң – Еуропалық одақтың техникалық мәселелерді шешуге бағытталған көп заңының бірі. Заң аясында жұмыс орындарында, мектептерде эмоцияларды танитын бағдарламалық құралды, нәсілшілдік және кемсітушілік сипатындағы жүйелерді пайдалануға тыйым салынады. Яғни білім беру, денсаулық сақтау, құқық қорғау органдарында қолдануға арналған жасанды интеллект өнімдерін шығаратын компаниялар қатаң этикалық негізді қамтамасыз ете отырып, ережелерді ұстануға тиіс. Ал полиция технологияны терроризммен күресу, адам саудасының алдын алу немесе жоғалған адамды іздеу сияқты белгілі бір мақсатта пайдалану үшін міндетті түрде сот рұқсатын алуы керек.
«Тиімді болу үшін мұндай ережелер барлық салада ұтымды шешім ретінде қолданылғаны жөн», деп атап өтті Гоанта. Бірақ бұл апта сайын жаңа өнімдер шығарылып, қарқынды дамып келе жатқан технологиялық секторда оңай шаруа емес. «Заңның қабылдану мақсаты – инновацияның дамуы мен жеке тұлғаларды қорғау шаралары арасындағы тепе-теңдікті сақтау», дейді ол.
«Жасанды интеллект туралы» заңның тұжырымдамасы Еуропалық одақтың сараптамасынан өткеннен кейін біраз өзгеріске ұшыраған. Атап айтқанда, еркін қолжетімді бастапқы кодтары мен оқу деректері бар жүйелерге қатысты талаптар жетілдірілген. Ашық бастапқы код дегеніміз – ортақ пайдалануға болатын, яғни кез келген қолданушы түзетулер мен өзгерістер енгізе алатын бағдарлама. Жүйенің ашық болуы негізінен қауіпсіз саналады әрі жасанды интеллект саласының қарқынды дамуына септігін тигізеді. Мысалы, ондай жүйелердің қатарына «Мета» компаниясының Мета-Лама үлкен тілдік моделін жатқызуға болады. Кейінгі кездері бағдарламалық жасақтама индустриясындағы кәсіпорындардың 80 пайызы осындай ашық бастапқы технологияларды қолдана бастады. Бұған әсіресе жоғарыда атап өткен алпауыт «Мета» компаниясының әсері көп. Дегенмен мұқият зерттесек, ашық жүйелерден де кейбір құқық бұзушылықтарды аңғаруға болады. Сондықтан Еуропалық одақ олардың қауіпсіздігін қадағалауға мән беріп отыр. Сарапшылар да олардың GPT-4 OpenAI сияқты «қара жәшік» жүйелеріне қарағанда ашық жұмыс істегенімен, әлі де көлеңкелі тұстары жоқ емес деп отыр.
Лондон Университеті колледжі заң кафедрасының доценті Майкл Вейл: «Жасанды интеллект туралы заң негізінен Еуропалық одақ өнімдерін реттеу мақсатында қабылданып жатыр», дейді. Яғни бұл да Еуропалық одақтың тұтынушыларының құқықтарын қорғау мақсатындағы ойыншықтардың немесе азық-түліктің қауіпсіздігін реттейтін заңдары сияқты. Олар енді шекаралық бақылау бекеттеріндегі медициналық бейнелеу, адамның жүзін тану сияқты белгілі бір қолданыстарды өте қауіпті деп санағандықтан, мұндай жүйелердің арнайы заң шеңберінде талаптарға сай болуын міндеттеп отыр. Сондықтан әзірлеушілер өз бағдарламаларының қауіпсіздікті қамтамасыз ететінін дәлелдеуі керек.
Гоантаның пікірінше, денсаулық, қауіпсіздік, негізгі құқықтар сияқты қоғамдық мүдделерге зиян келтіруі мүмкін кез келген қолданбаны қауіпті деп санауға болады.
Ал Италиядағы Болонья университетінде цифрлық этика және құқық мамандығы бойынша оқитын Клаудио Новелли қабылданған заң ЖИ компанияларының Еуропалық одақ нарығына енуіне кедергі келтіруі және инновацияларды тежеуі мүмкін дейді. Өйткені әлемдік деңгейде қолданыстағы жасанды интеллект қолданбаларын басқаратын компаниялар да қосымша міндеттемелерді орындауға мәжбүр болады. Олар өздерінің модельдерінің талапқа сай жұмыс істейтінін үнемі дәлелдеп отыруы және өз жүйелерінің хакерлерге немесе басқа шабуылдаушыларға төтеп бере алатынын тексеруі керек. Ава Лавлейс институтының Еуропалық мемлекеттік саясат бөлімінің басшысы Коннор Данлоп: «Жасанды интеллект туралы заңның қабылдануы қауіп-қатерді анықтауға ғана емес, оларды азайтуға алғашқы қадам жасалғанын білдіреді», дейді.
«Жасанды интеллект туралы» заң қабылданғаннан кейін тыйым салынған тәжірибелер алты ай ішінде тоқтатылуы керек. Ал жасанды интеллектінің жалпы мақсаттағы міндеттемелері бір жыл ішінде күшіне енеді. Яғни негізгі модельдерді әзірлейтін компаниялар – GPT-4 сияқты басқа жасанды интеллект өнімдеріне негізделген модельдер заң күшіне енгеннен кейін бір жыл ішінде жұмысын талаптарға сәйкестендіруі керек. Ал басқа технологиялық компанияларға ережелерді енгізуге екі жыл уақыт беріледі. Заң талаптары сақталмаса көп сомадағы айыппұл немесе олардың өнімдерін Еуропалық одақ аумағында қолданылуына тыйым салынуы мүмкін. Заңның қалай жүзеге асатыны әзірге белгісіз. Сондай-ақ Еуропалық одақ осы бойынша Жасанды интеллект дирекциясын құрмақ. Бірақ оның да нақты рөлі әлі айқындалған жоқ.
Жаңа заңнама жасанды интеллект өнімдерін шығаратын компанияларға әсер етпей қоймайды. Дегенмен олар Еуропалық одақ ережелеріне бағына ма, жалпы, өз қызметінде қоғамдық мүдделерді қорғауды күшейте ме деген сұрақ туады. Дүние жүзіндегі жасанды интеллект компаниялары өз құралдарының Еуропада қолданылуын қаласа, әрине, ережелерге бейімделуі керек. Бұған дейінгі тәжірибеге сүйенсек, көптеген халықаралық компания өз өнімдерін әртүрлі елдің заңына икемдеп, түрлі нұсқада шығарудан гөрі ортақ ережеге бағынуды, яғни Еуропа одағының Деректерді қорғау бойынша жалпы регламенті ережесіне сәйкес жұмыс істеуді таңдаған. «Жасанды интеллект туралы» заң да дәл солай ықпал етуі әбден мүмкін.