在发现现有工具如WormGPT等无法满足其高级入侵功能的需求后,网络骗子正在寻求开发自定义的恶意大型语言模型(LLM)。安全研究人员指出,地下论坛上充满了黑客讨论如何利用OpenAI和谷歌旗下Gemini开发的人工智能聊天机器人设置的护栏。例如,一位名为Poena的俄语威胁行为者在Telegram上发布了招聘人工智能和机器学习专家的广告,以开发恶意的LLM产品。此外,勒索软件和其他恶意软件运营商也显示出对这一趋势的兴趣。研究人员的报告强调了威胁行为者使用生成式AI来开发恶意软件和漏洞利用的情况,指出这些行为者可能使用AI来逃避LLM应用程序使用的检测工具。英国国家网络安全中心也提出了类似的观察结果,指出对人工智能资源的访问限制了低端威胁行为者的能力。尽管法学硕士制造商如ChatGPT通过限制生成恶意代码等活动来改进其防护措施,但私有GPT需要包括更多预防措施,因为它们更容易发生数据泄露。 https://www.recordedfuture.com/adversarial-intelligence-red-teaming-malicious-use-cases-ai
4 Microsoft Edge安全漏洞可能允许静默安装恶意扩展