Жасанды интеллект • 10 Қаңтар, 2026

ЖИ-ді қолдану қауіпсіз бе?

20 рет
көрсетілді
6 мин
оқу үшін

Жасанды интеллектіні күнделікті өмірде пайдалану әлемде қалыпты жағдайға айналып ке­ле­ді. Алайда оны бейберекет қолданғандықтан құқықтық, этикалық даулар да жиілеп кетті. Қауіпсіздік мәселесіне келгенде сұрақ та, қауіп те көп.

ЖИ-ді қолдану қауіпсіз бе?

Жуырда әлемдік дең­гей­де резонанс тудырған жағдай болды. Ауст­ра­лия үкіметі халықаралық «Deloitte» компаниясы тарапынан 486 мың доллар көлемінде айып­пұлға тартылды. Себеп – мемлекеттік қызметкерлердің ресми есепті дайындау барысында «ChatGPT» қолдануы. Тексеру кезінде есеп ішіндегі зерттеу деректері мен сілтемелердің бір бөлігі жалған, яғни нейрожелінің ойдан құрастырғаны анықталған. Егер сілтемелер тексерілмегенде, жабулы қазан жабулы күйде қалуы да мүмкін еді.

Киберқауіпсіздік маман­да­­рының айтуынша, жасанды интел­­лектімен жұмыс істеудегі ең әлсіз  тұс – конфиденциалдылық. Көп­те­ген пайдаланушы нейрожелімен диалогті жеке, жабық кеңістік деп қа­былдайды. Алайда іс жүзінде бұл – жаңсақ түсінік. Ресейде мем­ле­кеттік қызметкер нейрожелі ар­қылы есеп дайындағаны үшін жұ­мыстан шығуға шақ қалған. Себебі ел заңнамасына сәйкес құ­­пия және жеке деректерді ше­­телдік бұлтты сервистерге жүк­­теуге тыйым салынған. Кең таралған «ChatGPT», «Gemini», «Grok», «DeepSeek» секілді жүйелердің барлығы деректерді шетелде сақтайды. Кейінгі жылдары құпиялылыққа байланыс­ты бірқатар даулы оқиғалар тіркелді. Мәселен, «OpenAI» мен «Grok» платформаларында пайдаланушылардың мыңдаған жеке диалогтері «Google» іздеу жүйесінде ашық күйде пайда болған. Бұл – техникалық ақау емес, деректер қауіпсіздігінің әлсіздігін көрсеткен жағдай. Тағы бір шулы оқиға «Samsung» компаниясында тіркелді. Қызметкерлер бағдарламалық кодты тексеру үшін «ChatGPT»-ге жүктеген. Нәтижесінде, жүйе бұл кодты өз оқыту жұмысына пайдаланып, кейін басқа пайдаланушылардың диалогтерінде ұсынған. Мұндай деректердің қайда және қалай таралғанын анықтау іс жүзінде мүмкін емес.

Жасанды интеллект мо­дель­­­де­рінің едәуір бөлігі пайдаланушылар енгізген мәтіндер негізінде жетілдіріледі. Демек, жүктелген құжат, талдауға берілген мәтін немесе жеке дерек кейін модель жауабында басқа формада көрінуі ықтимал. Мамандар жасанды интеллектімен жұмыс істегенде бір қарағанда қарапайым көрінетін, бірақ салдары ауыр болуы мүмкін бірнеше негізгі қағиданы қатаң ұстануға кеңес береді. Ең алдымен, нейрожеліге ешқашан құпия деректер жүктелмеуге тиіс. Келісімшарттар, банк реквизиттері, жеке тұлғалардың мәліметтері мен ішкі қызметтік ақпарат жасанды интеллектіге арналған материал емес, себебі мұндай деректердің қайда сақталатыны және кімнің қолына түсетіні пайдаланушының бақы­лауынан тыс қалады.

Сонымен қатар нейрожелі ұсынған кез келген сілтеме мен дерек міндетті түрде қайта тек­се­рілуі қажет, өйткені жасанды интеллект шынайы дерек пен ойдан құрастырылған ақпаратты араластырып беруі мүмкін. Бұл әсіресе ғылыми, құқықтық және ресми мәтіндерде аса қауіпті. Тағы бір маңызды мәселе – жасанды интеллектіні автор ретінде қабылдамау. Ол тек көмекші құрал, ал мәтіннің мазмұнына, дәлдігіне және салдарына жауапкершілік әрдайым адамға жүктеледі. Бұған қоса, нейрожелілерді қолдану кезінде қолданыстағы заңнаманы ескеру қажет, өйткені кейбір салаларда, әсіресе мемлекеттік қызмет, медицина, қаржы, дербес деректермен жұмыс барысында мұндай технологияларды пайдалануға тікелей шектеу­лер қойылған. Жалпы, «тегін сервис» ұғымының шартты екенін ұмытпау керек. Көп жағдайда мұндай платформалардың құны – пайдаланушының өзі енгізген деректері.

Ал  еліміз жасанды интел­лек­тіні реттеу мен қауіпсіздік стандарттарын қалыптастыру бағытында жүйелі қадам жасап, бұл салада әлемдегі алдыңғы қатарлы мемле­­кет­тердің қата­рына жақындап келеді деуге негіз бар. Кейінгі қабылданған «Жасанды интеллект туралы» заң – еуропалық құқықтық кеңіс­тік­тегі ең озық құжаттармен деңгейлес, тіпті бірқатар нормасы бойынша олардан да қатаң. Бұл заңда технологиялық даму емес, ең алдымен, қауіпсіздік пен адам құқықтарын қорғау басты басым­дық ретінде айқындалған. Атап айтқанда, құжатта адамның эмо­циясын оның келісімінсіз тал­дауға, мінез-құлқын жасырын бақылауға бағытталған тех­но­логияларды қолдануға, сондай-ақ әлеуметтік скорингке тіке­лей тыйым салынған. Бұған қоса манипулятивті және дис­кри­ми­на­циялық сипаттағы жасанды ин­теллект жүйелерін енгізуге де қатаң шектеу бар. Мұндай нақты әрі тікелей тыйымдар бүгінде әлем елдерінің басым бөлігінде әлі заң деңгейінде бекітілмеген.

«Аталған заң аясында жасанды интеллект жүйелері қауіп деңгейіне қарай үш санатқа бөлініп, алғаш рет құқықтық жіктеу енгізілді. Бұл тәсіл тәуекелі жоғары технологияларға ерекше бақылау орнатып, қауіпсіз қолдануға мүмкіндік береді. Сондай-ақ Қазақстан заңнамасында синтетикалық контентті міндетті түрде белгілеу талабы алғаш рет бекітілді. Бұл норма дипфейктермен, жалған ақпаратпен, қоғамдық санаға әсер ететін манипуляциялармен күрестегі ең тиімді тетіктердің бірі саналады. Бірқатар дамыған мемлекеттер бұл мәселені әлі талқылау деңгейінде қалдырса, Қазақстан оны заң жүзінде нақты бекітіп үлгерді. Деректер қауіпсіздігіне қойылатын талаптар да айтарлықтай күшейтілді. Жаңа нормалармен қатар Цифрлық кодекс арқылы деректердің қай жерде сақталатыны, оған кім­нің және қандай мақсатта қол жеткізе алатыны, сондай-ақ талаптар бұзылған жағдайда қандай жауапкершілік қарастырылатыны толық айқындалған. Осылайша, жасанды интеллектіні қолдану ғана емес, деректер айналымының бүкіл экожүйесі құқықтық тұрғы­да тәртіпке келтіріліп отыр. Жал­пы алғанда, Қазақстан жасанды интеллектіні бақылаусыз дамыту жолын емес, қауіпсіз, жауапты және адамға бағытталған тех­но­ло­гия­лық саясатты таңдаған мемлекет ретінде өз бағытын айқындап отыр», дейді Жасанды интеллект және цифрлық даму министрлігі баспасөз қызметінің өкілі Гаухар Тұрсынбай.

Соңғы жаңалықтар