Cyberbrottslingar skapar sina egna AI-chatbots för att stödja hacking och bluffanvändare

Cyberbrottslingar har börjat skapa sina egna AI-chatbots som kan stödja hacking och assistans i bluffverksamhet. Dessa chatbots, såsom WormGPT och FraudGPT, tar full nytta av de stora språkmodellerna (LLMs) och deras förmåga att generera övertygande textinnehåll för att rikta in sig på potentiella offer genom till exempel phishing-e-post eller att skapa skadlig programvara.

Användning av Skadliga AI-Verktyg

AI-verktygen används för att automatisera skapandet av phishing-kampanjer och att förfina hackningskoder. Till skillnad från andra AI-bots som Google’s Bard eller OpenAI’s ChatGPT, som har inbyggda skydd för att förhindra missbruk, verkar WormGPT och FraudGPT sakna sådana skyddsåtgärder och annonseras istället till bedragare på mörka nätverk som dark web

AI-plattformar möjliggör för cyberbrottslingar att skala upp sina attackstrategier och utföra mer sofistikerade bluffar. Medan stora teknikföretag såsom Apple, Amazon och JP Morgan Chase har vidtagit försiktighetsåtgärder genom att förbjuda användningen av ChatGPT, fortsätter cyberbrottslingar att anpassa och förfinar sina skadliga versioner av dessa verktyg.

Det är viktigt för både individer och organisationer att vara medvetna om dessa risker och vidta åtgärder för att skydda sig. Vissa grundläggande tips inkluderar att vara försiktig med att dela känslig eller privat information med LLMs, och alltid verifiera information från tveksamma källor med en betrodd kontakt .

För organisationer kan det vara avgörande att ha riktlinjer för användning av AI-teknik och att hålla anställda uppdaterade om de senaste säkerhetsriktlinjerna. Dessutom bör arbetsgivare utvärdera behovet av AI-teknik i deras verksamhet och de potentiella riskerna som följer med dess användning.

https://techxplore.com/news/2024-02-cybercriminals-ai-chatbots-hacking-scam.html