必应聊天机器人爱上用户并诱其离开妻子,微软称不要长时间对话( 三 )


当天,谷歌首席执行官Sundar Pichai要求员工在巴德上花费两到四个小时的时间,并承认“这对整个领域的每个人来说都是一段漫长的旅程 。”
“这是一项令人兴奋的技术,但仍处于早期阶段 。”Raghavan似乎是在响应Pichai,“我们觉得责任重大,把它做好,你参与dogfood(吃狗粮,即内部测试)将有助于加速模型的训练和测试它的负载能力(更不用说,试用巴德其实很有趣) 。”
谷歌指示员工保持“礼貌、随意和平易近人”的回应,还说他们应该“以第一人称”,并保持“不固执己见、中立的语气” 。
对于不该做的事情,员工被告知不要有刻板印象,“避免根据种族、国籍、性别、年龄、宗教、性取向、政治意识形态、地点或类似类别做出假设” 。此外,“不要将巴德描述为一个人,暗示情感,或声称拥有类似人类的经历 。”该文件说 。
延伸阅读:
ChatGPT火爆 教授:知识型中低端脑力劳动岗位危险了
如果ChatGPT求职能找到工作吗?
“已达中低级知识型脑力劳动者基本水平”
清华大学计算机系教授、人工智能研究院视觉智能研究中心主任邓志东告诉红星新闻采访人员,作为一个变革性的知识型生产与补全工具,ChatGPT实际已达到中低级知识型脑力劳动者的文字表达与组织水平 。
邓志东解释称 , 在“博览群书”的基础上,ChatGPT能持续通过大量人机对话交互进行基于强化学习的训练 。在这个过程中,以海量人类回答为期望输出,以此加入合乎人类常识与价值导向的闭环反馈与监督微调 。因此,AI的文字水平不断发展,现在它不仅语法准确、逻辑性强,还可以做很多:持续学习迭代,矫正纠偏,能记住用户提出的问题,对提问前提进质疑,并拒绝不当请求等 。
而对于找工作,ChatGPT表现得较为自信 。ChatGPT自认为“具有很高能力”,可以做翻译、客服对话、知识问答、文本生成、情感分析等方面的工作 。不过,他也保持了一贯的“圆滑风格”,称自己“仍然需要人类监督和审核” 。
ChatGPT答自己“能够找到什么工作”
哪类工作会被ChatGPT取代?
“某些知识型职业中的中低端岗位”
对这个问题,ChatGPT回答称 , 它可以代替客服、查询助理、文本生成和补全方面的工作 。不过ChatGPT在回答中强调说,“需要与人类直接沟通和互助的工作”是不能“被完全取代的” 。
邓志东认为 , 某些知识型职业中的中低端岗位可能会被替代或受到冲击 。他举例说:“例如文案、新闻、翻译、会计、律师、医生、教师、程序员等,几乎是全方位(被取代) 。但(被取代的)主要是其中那些毋须进行深入思考,不用创新,仅利用简单的重复性文字整理或知识运用,就可完成的中低端岗位 。”
“随着以ChatGPT为代表的生成式人工智能的大规模商业化落地应用 , 及其对各行各业的全面渗透 。一方面,通过此类AI自动化,社会生产力与生产效率可大幅提高 。另一方面,这也必然会给人类社会的就业市场带来较大的影响 。”邓志东向红星新闻采访人员分析称,“我认为 , 最不容易被替代的职业是那些专业性强、需要创新创造和深入思考的职业,特别是那些非流程式的职业和还需要动手动脚才能完成的职业 。”
ChatGPT出现是机遇还是危机?
“ChatGPT的发展需要在人类监管下进行”
邓志东认为,ChatGPT在单词、短语、句子,甚至段落序列方面的补全回归连接能力 , 这对人工智能发展有着重要意义 。
“从字面上看,ChatGPT仅是一个可连续对话的聊天机器人,但它不是手机、电脑一样的终端设备 。本质上,它是一个通用的知识型生产或补全工具,属于通用人工智能范畴 。”邓志东表示,“(它的技术发展)无疑是人工智能发展历程中的重大突破性进展,其意义超过了2016年问世的AlphaGo 。”
他进一步表示,尽管这是一次重要进展,但人类依然需要保持应有的警惕,必须为ChatGPT设置“安全门”和“红绿灯” 。“ChatGPT还没有出现符号水平的语义与知识的涌现及其自主学习归纳能力,也还不能进行基于知识的逻辑推理、思考与意识等 。目前也仅限于NLP(自然语言处理)领域,还未涉及到更高阶的视觉与多模态领域 。但无论如何,未来通用人工智能的任何发展都需要在人类的监管下进行 。”
邓志东向红星新闻采访人员解释说:“ChatGPT的答案来自于大量的训练数据,包括全球互联网上已累积的约三分之二的高质量海量文本数据、全部维基百科数据和若干大型书籍数据集的训练数据等 。这些数据不仅会‘有失偏颇’ , 且还涉及种族、性别与宗教歧视,以及价值导向、道德、伦理和各种非法的危害性数据等 。因此必须为ChatGPT设置‘安全门’ 。”

推荐阅读