根据一份新的预印本论文,微软研究人员测试了该公司 100 多种人工智能产品,得出的结论是人工智能系统永远不可能完全安全。这项由 26 位作者参与的研究(其中包括 Azure 首席技术官 Mark Russinovich)发现,大型语言模型会放大现有的安全风险并产生新的漏洞。虽然防御措施可能会增加攻击成本,但研究人员警告说,人工智能系统仍然容易受到从基于梯度的攻击到网络钓鱼界面操纵等更简单技术的威胁。
在 Slashdot 上阅读这个故事的更多内容。
翻译英文优质信息和名人推特
根据一份新的预印本论文,微软研究人员测试了该公司 100 多种人工智能产品,得出的结论是人工智能系统永远不可能完全安全。这项由 26 位作者参与的研究(其中包括 Azure 首席技术官 Mark Russinovich)发现,大型语言模型会放大现有的安全风险并产生新的漏洞。虽然防御措施可能会增加攻击成本,但研究人员警告说,人工智能系统仍然容易受到从基于梯度的攻击到网络钓鱼界面操纵等更简单技术的威胁。
在 Slashdot 上阅读这个故事的更多内容。