AI-ի ընդլայնվող դերը կիբերհարձակումներում

AI-ի ընդլայնվող դերը կիբերհարձակումներում

Արհեստական բանականության (AI) ներկայիս գործիքներն աջակցվում են Large language model (LLM)–երի կողմից և կարող են կիրառել տարբեր malwar-ներ, որոնք կարող են շրջանցել YARA-ի կանոնները:

«Արհեստական բանականության գեներացումը կարող է օգտագործվել YARA-ի կանոններից խուսափելու համար՝ ավելացնելով malware-ների source code–երն ու նվազեցնելով դրանց հայտնաբերման հավանականությունը», – ասվում է Recorded Future-ի նոր զեկույցում։

AI-ի նոր գործիքակազմն արդեն իսկ ակտիվորեն փորձարկվում է հաքերների կողմից՝ ֆիշինգային նամակներ ստեղծելու և հնարավոր թիրախների հետախուզում իրականացնելու համար:

Կիբերանվտանգության ոլորտի ընկերությունը նշել է, որ LLM-ին ներկայացրել է STEELHOOK կոչվող malware-ի մի կտոր, ինչն էլ անմիջապես կապված է APT28 հաքերային խմբի հետ։ Այն հմտորեն քողարկվում է հայտնաբերումից և source code է պարունակում։

Microsoft-ն ու OpenAI-ն դեռևս անցյալ ամիս նախազգուշացրել էին, որ APT28-ն օգտագործում է LLM-ները, որպեսզի ադապտացնի տեխնիկական ժամանակակից պարամետրերը։

Կազմակերպություններին խորհուրդ է տրվում մանրակրկիտ ուսումնասիրել հանրային հասանելիության նկարներն ու տեսանյութերը՝ համանման սպառնալիքներից բխող ռիսկերը մեղմելու համար:

Բացահայտումն արվեց այն բանից հետո, երբ մի խումբ գիտնականներ պարզեցին jailbreak LLM-ով աշխատող գործիքներով ինֆորմացիայի փոխանցումը ASCII art–ի տեսքով («*» նիշեերի ու բացատանիշերի կիրառում):

 

Աղբյուրը՝  https://thehackernews.com/