【资料图】
参考消息网8月30日报道据路透社8月30日报道,英国官员正在警告机构组织注意把人工智能聊天机器人整合到业务中的风险,称研究越来越多地显示,机构组织可能被诱骗从事有害的任务。
在计划于30日发布的两则博客文告中,英国国家网络安全中心(NCSC)称,专家们尚未着手处理与可以模仿人类互动的算法——即所谓的“大语言模型”(LLM)——相关的潜在安全问题。
人工智能工具目前正在以聊天机器人方式实现一些早期运用,一些企业设想它们将不仅可以取代互联网搜索,而且可以取代客户服务工作和接听销售电话。
NCSC称,这样做可能带来风险,尤其是如果此类模型被嵌入到机构组织业务所处理的其他要素中的时候。学者和研究人员已经多次找到了破坏聊天机器人的方法——通过给它们下达流氓指令或是欺骗它们绕过系统内置的防护措施。
例如,如果黑客恰到好处地组织其查询提问,那么某家银行启用的人工智能机器人可能会被诱骗执行一笔未经授权的交易。
NCSC在其博客发布的一则文告中说:“机构组织在利用大语言模型搭建服务时需要保持审慎,就像它们在使用处于测试阶段的产品或代码库的时候一样。它们不会让那种产品参与代表客户进行交易的工作,而且想必也不会完全信任这样的产品。同样的审慎态度也适用于大语言模型。”(编译/曹卫国)
关键词: