ԱՄՆ-ի National Institute of Standards and Technology (NIST)-ը հատուկ ուշադրության է արժանացրել գաղտնիության և անվտանգության մարտահրավերների փաստը, որոնք վերջին տարիներին արհեստական ինտելեկտի (AI) համակարգերի աճի արդյունքում մեծ թափ են ստացել:
Քանի որ AI համակարգերը արագ տեմպերով ինտեգրվում են առցանց ծառայություններում ինչպիսիք են՝ OpenAI ChatGPT-ն և Google Bard-ը, այս տեխնոլոգիաները սնուցող մոդելները բախվում են տարբեր հաքերների կողմից կազմակերպվող հարձակվողական մարտահրավերներին:
Դրանք ներառում են վնասված և փոփոխված տվյալներ, ծրագրային ապահովման բաղադրիչների անվտանգության խոցելիություններ, data model poisoning, մատակարարման շղթաների խոցելիություն և կոնֆիդենցիալության խախտումներ, որոնք առաջանում են prompt injection հարձակումների արդյունքում:
Հարձակումները, որոնք ազդում են ամբողջականության և գաղտնիության վրա, դասակարգվում են հետևյալ կերպ՝
– Evasion հարձակումներ,
– Poisoning հարձակումներ,
– Privacy հարձակումներ,
– Abuse հարձակումներ:
Բացահայտումները տեղի ունեցան այն ժամանակ, երբ Միացյալ Թագավորությունը, ԱՄՆ-ն և 16 այլ երկրներ հրապարակեցին արհեստական ինտելեկտի (AI) համակարգերի համար հատուկ մշակված ուղեցույցներ:
Աղբյուրը՝ https://thehackernews.com/