Protect AI erbjuder ett nytt skanningsverktyg för skadlig kod för AI-modeller med öppen källkod

Startuppen Protect AI lanserar AI-säkerhetslösningar lanserar idag en ny verktyg Guardian, som är utformat för att skydda öppen källkods AI-modeller från hackare som gömmer skadlig kod i dem. Verktyget fungerar genom att skanna modellerna innan de laddas ner och upptäcka eventuell dold trojansk malware eller andra tecken på manipulation. Protect AI har upptäckt tusentals modeller på plattformen Hugging Face som innehåller skadlig kod. Många företag som inte har resurserna att bygga sina egna modeller använder sig av öppen källkodsmodeller, vilket gör dem sårbara för cyberattacker.

Protect AI lanserar Guardian, ett nytt verktyg för att säkra ML-modeller

Protect AI, ett företag specialiserat på säkerhet inom artificiell intelligens (AI) och maskininlärning (ML), har nyligen lanserat Guardian, en säkerhetsgateway som är den första i sitt slag. Guardian är utformad för att hjälpa organisationer att tillämpa säkerhetspolicyer på ML-modeller för att förhindra att skadlig kod tränger in i deras miljöer.

Säkerhetsfunktioner och integration

Guardian kombinerar Protect AI:s öppen källkodsverktyg med företagsnivåens verkställande och hantering av modellsäkerhet, och utökar detta med egna skanningsfunktioner. Verktyget fungerar som en säkerhetsgateway som kopplar samman ML-utveckling och distribution, särskilt för modellrepositorier som Hugging Face.

För att ge säkerhetsteam fullständig kontroll, erbjuder Guardian avancerade kontrollfunktioner och instrumentpaneler som ger insikter i modellernas ursprung, skapare och licensiering. Guardian integreras också sömlöst med befintliga säkerhetsramverk och kompletterar Protect AI:s Radar för omfattande synlighet av hotytor inom AI och ML i organisationer.

Bekämpning av Model Serialization-attacker

En Model Serialization-attack inträffar när skadlig kod injiceras i en modell under serialisering och före distribution. Guardian använder proprietära sårbarhetsskannrar, inklusive en specialiserad skanner för Keras lambda-lager, för att proaktivt skanna öppen källkodsmodeller för skadlig kod.

Finansiering och engagemang

Protect AI har säkrat sin senaste finansiering på 35 miljoner USD i juli, med investerare som Evolution Equity Partners LLP och Salesforce Ventures LLC. Företaget är engagerat i att leda vägen mot en säkrare AI-drivna värld och att vara pionjärer inom adoptionen av MLSecOps-praxis.

Förra året lanserade Protect AI ModelScan, ett öppen källkod-verktyg för att skanna AI/ML-modeller för potentiella attacker för att hjälpa till att säkra system från leveranskedjeattacker. Sedan dess har Protect AI använt ModelScan för att utvärdera över 400 000 modeller som är värdade på Hugging Face för att identifiera osäkra modeller och uppdaterar denna kunskapsbas varje natt. Hittills har över 3300 modeller visat sig ha förmågan att utföra skadlig kod. Dessa modeller fortsätter att laddas ner och implementeras i ML-miljöer, men utan de säkerhetsverktyg som behövs för att skanna modeller för risker innan de antas.

För mer information om Guardian och dess funktioner, besök Protect AI:s hemsida https://protectai.com/guardian.

helpnetsecurity.com -protect-ai-guardian

msn.com – protect-ai-launches-guardian-to-safeguard-machine-learning-models-from-malicious-code

One comment

  1. […] Protect AI erbjuder ett nytt skanningsverktyg för skadlig kod för AI-modeller med öppen källkod, Protect AI lanserar AI-säkerhetslösningar lanserar idag en ny verktyg Guardian, som är utformat för att skydda öppen källkods AI-modeller från hackare som gömmer skadlig kod i dem. Verktyget fungerar genom att skanna modellerna innan de laddas ner och upptäcka eventuell dold trojansk malware eller andra tecken på manipulation.  […]

Leave a Reply

Din e-postadress kommer inte publiceras. Obligatoriska fält är märkta *