NIST-ը զգուշացնում է AI համակարգերի անվտանգության ռիսկերի մասին

NIST-ը զգուշացնում է AI համակարգերի անվտանգության ռիսկերի մասին

ԱՄՆ-ի National Institute of Standards and Technology (NIST)-ը հատուկ ուշադրության է արժանացրել գաղտնիության և անվտանգության մարտահրավերների փաստը, որոնք վերջին տարիներին արհեստական ինտելեկտի (AI) համակարգերի աճի արդյունքում մեծ թափ են ստացել:

Քանի որ AI համակարգերը արագ տեմպերով ինտեգրվում են առցանց ծառայություններում ինչպիսիք են՝ OpenAI ChatGPT-ն և Google Bard-ը, այս տեխնոլոգիաները սնուցող մոդելները բախվում են տարբեր հաքերների կողմից կազմակերպվող հարձակվողական մարտահրավերներին:

Դրանք ներառում են վնասված և փոփոխված տվյալներ, ծրագրային ապահովման բաղադրիչների անվտանգության խոցելիություններ, data model poisoning, մատակարարման շղթաների խոցելիություն և կոնֆիդենցիալության խախտումներ, որոնք առաջանում են prompt injection հարձակումների արդյունքում:

Security and Privacy

Հարձակումները, որոնք ազդում են ամբողջականության և գաղտնիության վրա, դասակարգվում են հետևյալ կերպ՝

– Evasion հարձակումներ,

– Poisoning հարձակումներ,

–  Privacy հարձակումներ,

–  Abuse հարձակումներ:

 

Բացահայտումները տեղի ունեցան այն ժամանակ, երբ Միացյալ Թագավորությունը, ԱՄՆ-ն և 16 այլ երկրներ  հրապարակեցին արհեստական ինտելեկտի (AI) համակարգերի համար հատուկ մշակված ուղեցույցներ:

 

Աղբյուրը՝  https://thehackernews.com/