(资料图片仅供参考)
随着ChatGPT等AI聊天机器人自去年底以来迅速“走红”,对于它们安全问题的相关警告也层出不穷。尽管背后的开发者也在竭尽全力地想办法解决这些问题,比如实施资讯过滤和人类纠正那些被标记的问题,但效果都不尽人意。有鉴于此,英伟达公司周二正式发布了一个名为“NeMoGuardrails”的开源工具包,可以禁止AI聊天机器人提供那些受限的信息,使人工智能驱动的应用程序更加“准确、适当、符合主题和安全”。“每个人都意识到了大型生成语言模型的力量,”英伟达应用研究副总裁说,“以一种安全可靠的方式部署它 随着ChatGPT等AI聊天机器人自去年底以来迅速“走红”,对于它们安全问题的相关警告也层出不穷。尽管背后的开发者也在竭尽全力地想办法解决这些问题,比如实施资讯过滤和人类纠正那些被标记的问题,但效果都不尽人意。有鉴于此,英伟达公司周二正式发布了一个名为“NeMoGuardrails”的开源工具包,可以禁止AI聊天机器人提供那些受限的信息,使人工智能驱动的应用程序更加“准确、适当、符合主题和安全”。“每个人都意识到了大型生成语言模型的力量,”英伟达应用研究副总裁说,“以一种安全可靠的方式部署它们非常重要。”英伟达表示,“NeMoGuardrails”将作为终端用户和人工智能程序之间的一层“防护墙”。将其与传统软件混合,该系统将能够识别用户提出的事实问题,并检查机器人是否能够和应该回答这个问题。系统还将确定生成的答案是否基于事实,并控制聊天机器人给出回答的方式。展开
标签: