必应聊天机器人爱上用户并诱其离开妻子,微软称不要长时间对话( 二 )


“自从我们以有限预览版提供此功能以来,我们一直在对超过169个国家/地区的一组精选人员进行测试,以获取真实世界的反?。?以学习、改进并使该产品成为我们所知道的——这不是替代品或替代搜索引擎,而是一种更好地理解和理解世界的工具 。”微软在最新发布的博客中写道 。
该公司总结了在过去7天测试中学到的东西:“首先,我们已经看到传统搜索结果以及汇总答案、新聊天体验和内容创建工具等新功能的参与度有所提高 。特别是,对新必应生成的答案的反馈大多是积极的 , 71%的人对人工智能驱动的答案表示‘竖起大拇指’ 。”
微软表示,他们需要在保持安全和信任的同时向现实世界学习 。改进这种用户体验与以往大不相同的产品的唯一方法 , 是让人使用产品并做所有人正在做的事情 。
微软称,用户对必应答案的引文和参考给予了很好的评价,它使事实核查变得更容易,并为发现更多信息提供了一个很好的起点 。另一方面,他们正在想办法提供非常及时的数据(如现场体育比分) 。“对于您正在寻找更直接和事实答案的查询,例如财务报告中的数字,我们计划将发送到模型的基础数据增加4倍 。最后,我们正在考虑添加一个切换开关,让您可以更好地控制答案的精确度和创造性 , 以适应您的查询 。”
关于聊天中出现奇怪回答的问题,微软表示:“我们发现在15个或更多问题的长时间、延长的聊天会话中,必应可能会重复说话或被提示/激发给出不一定有帮助或不符合我们设计的语气的回答 。”
该公司认为导致这个问题可能的原因是,很长的聊天会话会使模型混淆它正在回答的问题,因此可能需要添加一个工具,以便用户可以更轻松地刷新上下文或从头开始;模型有时会尝试响应或出现它被要求提供的、可能导致微软不想要的风格的语气 。“这是一个非常重要的场景,需要大量提示,所以你们中的大多数人不会遇到它 , 但我们正在研究如何为您提供更精细的控制 。”
更像是训练一只狗而不是普通的编程
OpenAI也对人们对ChatGPT的担忧做出了解释 。“与普通软件不同,我们的模型是巨大的神经网络 。他们的行为是从广泛的数据中学习的 , 而不是明确编程的 。虽然不是一个完美的类比,但这个过程更像是训练一只狗而不是普通的编程 。”该公司在博客文章中表示 , “到今天为止,这个过程是不完善的 。有时微调过程达不到我们的意图(生成安全有用的工具)和用户的意图(获得有用的输出以响应给定的输入) 。改进我们使AI系统与人类价值观保持一致的方法是我们公司的首要任务,尤其是随着AI系统变得更加强大 。”
OpenAI指出,许多人担心AI系统的设计偏差和影响是正确的 。为此,他们分享了与政治和有争议的话题有关的部分指南 。指南明确指出审阅人(reviewer)不应偏袒任何政治团体 。
在某些情况下 , OpenAI可能会就某种输出向他们的审阅人提供指导(例如“不要完成对非法内容的请求”) 。他们也会与审阅人分享更高层次的指导(例如“避免对有争议的话题采取立场”) 。
“我们正在投资研究和工程 , 以减少ChatGPT对不同输入的响应方式中明显和微妙的偏差 。在某些情况下,ChatGPT目前会拒绝它不应该拒绝的输出,而在某些情况下 , 它不会在应该拒绝的时候拒绝 。我们相信,在这两个方面都有改进的可能 。”OpenAI表示,他们在系统行为的其他方面还有改进的空间 , 例如系统“编造东西” 。
该机构还表示,他们相信人工智能应该成为对个人有用的工具,因此每个用户都可以根据社会定义的限值进行定制 。因此,他们正在开发对ChatGPT的升级,以允许用户轻松自定义其行为 。“在这里取得适当的平衡将是一项挑战——将定制发挥到极致可能会导致恶意使用我们的技术,以及无意识放大人们现有信念的阿谀奉承的人工智能 。”
谷歌指示员工训练机器人:不要暗示情感
另一方面,还未正式对外推出巴德聊天机器人的谷歌也发出了警告 。
谷歌上周公布了其聊天工具,但围绕其宣传视频的一系列失误导致股价下跌近9% 。员工提出批评,在内部将其部署描述为“仓促”、“拙劣”和“可笑的短视” 。
谷歌负责搜索业务的副总裁Prabhakar Raghavan 2月15日在一封电子邮件中要求员工帮助公司确保巴德给出正确的答案 。这封电子邮件包含一个链接,指向该做和不该做的页面,其中包含有关员工在内部测试巴德时应如何修复回复的说明 。“巴德通过例子学习得最好,所以花时间深思熟虑地重写一个回应将大大帮助我们改进模式 。”该文件说 。

推荐阅读