Meta lanserar Purple Llama säkerhetsverktyg i Llama AI-modell

Meta har lanserat ett projekt kallat Purple Llama som syftar till att främja en ansvarsfull och säker utveckling av generativa AI-modeller 1 11. Projektets fokus är att skapa verktyg och tekniker för att bedöma och förbättra säkerheten och förtroendet för dessa AI-modeller innan implementering.

Verktyg och Tekniker i Purple Llama

Initialt kommer Purple Llama att inkludera två huvudverktyg: Purple Llama Cybersec Eval och Llama Guard.

Purple Llama Cybersec Eval består av flera benchmarks som kan användas för att bedöma och förbättra cybersäkerheten för stora språkmodeller. Detta inkluderar att försvåra för applikationer som drivs av dessa modeller att generera skadlig kod som kan användas för cyberattacker.

Llama Guard är en förtränad modell som fungerar som en säkerhetsklassificerare för input och output-filtering. Det hjälper till att förhindra generativa AI-modeller från att producerar potentiellt riskabelt innehåll.

Samarbete med Andra Företag och Fortsatta Planer

För att lyckas med detta satsar Meta på att samarbeta med andra AI-applikationsutvecklare, inklusive molnplattformar som AWS och Google Cloud, chipdesigners som Intel, AMD och Nvidia, och mjukvaruföretag som Microsoft. Genom att samverka med dessa parter planerar Meta att fortsätta släppa nya verktyg och genomföra mer forskning inom området, med målet att skapa ett öppet ekosystem.

https://www.malwarebytes.com/blog/news/2023/12/metas-purple-llama-wants-to-test-safety-risks-in-ai-models

https://computersweden.idg.se/2.2683/1.780590/meta-startar-purple-llama-projekt-for-ansvarsfull-generativ-ai

Leave a Reply

Din e-postadress kommer inte publiceras. Obligatoriska fält är märkta *