Արհեստական բանականության (AI) ներկայիս գործիքներն աջակցվում են Large language model (LLM)–երի կողմից և կարող են կիրառել տարբեր malwar-ներ, որոնք կարող են շրջանցել YARA-ի կանոնները:
«Արհեստական բանականության գեներացումը կարող է օգտագործվել YARA-ի կանոններից խուսափելու համար՝ ավելացնելով malware-ների source code–երն ու նվազեցնելով դրանց հայտնաբերման հավանականությունը», – ասվում է Recorded Future-ի նոր զեկույցում։
AI-ի նոր գործիքակազմն արդեն իսկ ակտիվորեն փորձարկվում է հաքերների կողմից՝ ֆիշինգային նամակներ ստեղծելու և հնարավոր թիրախների հետախուզում իրականացնելու համար:
Կիբերանվտանգության ոլորտի ընկերությունը նշել է, որ LLM-ին ներկայացրել է STEELHOOK կոչվող malware-ի մի կտոր, ինչն էլ անմիջապես կապված է APT28 հաքերային խմբի հետ։ Այն հմտորեն քողարկվում է հայտնաբերումից և source code է պարունակում։
Microsoft-ն ու OpenAI-ն դեռևս անցյալ ամիս նախազգուշացրել էին, որ APT28-ն օգտագործում է LLM-ները, որպեսզի ադապտացնի տեխնիկական ժամանակակից պարամետրերը։
Կազմակերպություններին խորհուրդ է տրվում մանրակրկիտ ուսումնասիրել հանրային հասանելիության նկարներն ու տեսանյութերը՝ համանման սպառնալիքներից բխող ռիսկերը մեղմելու համար:
Բացահայտումն արվեց այն բանից հետո, երբ մի խումբ գիտնականներ պարզեցին jailbreak LLM-ով աշխատող գործիքներով ինֆորմացիայի փոխանցումը ASCII art–ի տեսքով («*» նիշեերի ու բացատանիշերի կիրառում):
Աղբյուրը՝ https://thehackernews.com/