Փորձագետները ընդգծում են Google-ի Gemini AI-ի խոցելիությունը

Փորձագետները ընդգծում են Google-ի Gemini AI-ի խոցելիությունը

Google-ի Gemini մոդելը (LLM) անվտանգության տարբեր սպառնալիքների թիրախ է դարձել, որոնք կարող են կոտրել և հրապարակել համակարգի կոնֆիդենցիալ հաղորդագրությունները, փոփոխել ընթացիկ բովանդակությունն ու իրականացնել անուղղակի կոդային փոփոխություններ։

Բացահայտումներն արվել են HiddenLayer-ի կողմից։ HiddenLayer-ի տեղեկացմամբ խնդիրներն ազդում են այն օգտատերերի վրա, ովքեր օգտագործում են Gemini Advanced Google Workspace-ը և այն ընկերությունների վրա, որոնք օգտագործում են LLM API-ը։

Առաջին խոցելիությունը ներառում է անվտանգության պաշտպանիչ շերտի շրջանցումը, որը նախատեսում է LLM-ին հաղորդագրությունների փոխանցումը։

Խոցելիության երկրորդ դասը վերաբերում է «crafty jailbreaking» տեխնիկայի կիրառմանը։ Դրա կիրառումը հանգեցնում է Gemini մոդելներում ապատեղեկատվության գեներացմանը, ինչպիսիք են՝ ընտրությունները,  անօրինական և կեղծ ինֆորմացիան։

HiddenLayer-ի կողմից բացահայտվել է նաև թվով երրորդ խոցելիությունը, որը կարող է հանգեցնել LLM-ում կոնֆիդենցիալ տվյալների արտահոսքի։

 

«Մեր օգտատերերին խոցելիությունից պաշտպանելու համար մենք հետևողականորեն վարում ենք թիմային վերահսկողություն, որպեսզի պատրաստ լինենք ավելի համալիր և բարդ հարձակումներին», – The Hacker News-ին տված զեկույցում նշել է Google-ի ներկայացուցիչը:

Ակնկալվում է, որ այս մոտեցումը քաղաքական գործիչներին և ընտրություններում իրենց թեկնածությունն առաջադրած ներկայացուցիչներին, կուսակցություններին և նշանավոր պաշտոնյաներին զերծ կպահի անհարիր իրավիճակներից։

 

Աղբյուրը՝  https://thehackernews.com/