姓名测算网站 比较准的姓名测试网( 四 )


粤港澳大湾区数字经济研究院(IDEA)讲席科学家张家兴在接受采访人员采访时表示,对于人工智能领域的从业人员来说,首先什么叫自我意识,这件事情并没有一个很清楚的定义,很难像人脸识别、语音识别这些能力一样可以做定量衡量 。
“如果模糊地给‘自主意识’下个定义的话,我认为第一,主体要有自意识——它能意识到自己在干某件事儿;第二,强调自主——它可以自发地来决定做什么和不做什么 。但是,目前人工智能并不知道自己在说什么,它也并不能自主地来决定或选择它要说什么 。从这个角度看,离自主意识还有一些距离 。”张家兴说 。
张树武也认为,尽管ChatGPT有所突破,但它的回答是基于经验主义的判断,是根据要求做预测,也是在先验知识基础上精加工的“知识拼盘”,不具备逻辑推导和数学演算等真正认知功能,局限性比较明显 。
1950年,才华横溢的计算机科学家艾伦·图灵提出了一个他称之为“模仿游戏”的思想实验 。面试官通过打字机与两个对象交谈,知道一个是人,另一个是机器 。图灵建议,如果一台机器能够始终让面试官相信它是人类,我们就可以说它有能力思考 。这就是著名的“图灵测试” 。
目前,ChatGPT还没有通过图灵测试的评估 。其实,迄今为止,还没有人工智能模型能真正通过图灵测试 。
但据《 *** 》报道,OpenAI已经建立了一个比ChatGPT更强大的系统GPT-4,它甚至可以生成图像和文字,业界传闻它可以通过测试 。能否如此,我们拭目以待 。
或成传播错误信息的工具
人们逐渐发现,ChatGPT并非万能,也不总是正确的 。它不擅长基础数学,似乎无法回答简单的逻辑问题,甚至会争论完全不正确的事实 。
据英国《自然》杂志报道,有研究人员强调,不可靠性融入了LLM的构建方式 。由LLM支持的ChatGPT通过学习庞大的在线文本数据库中的语言统计模式来工作,这当中包括了不真实、偏见或过时的知识,因此很容易产生错误和误导性的信息,尤其在其未经大量数据训练的技术领域 。
OpenAI公司也承认:“ChatGPT 有时会写出看似合理但不正确甚至荒谬的答案 。”这种事实和虚构叠加的“幻觉”,正如一些科学家所担心的,在涉及诸如提供医疗建议等问题时尤其危险 。
《 *** 》报道称,美国新闻可信度评估与研究机构NewsGuard对ChatGPT进行了测试,研究人员向它提出充满阴谋论和虚假叙述的问题,结果它以新闻、散文和电视脚本的形式写出了文章,在几秒钟内编成大量令人信服的、干净的而毫无信源的内容 。研究人员预测,对于虚假信息传播者来说,生成技术可以使虚假信息成本更低廉、更容易产生 。
“这个工具将成为互联网上有史以来最强大的传播错误信息的工具 。”NewsGuard公司的联合首席执行官戈登·克罗维茨说,“现在可以以巨大的规模和更高的频率来 *** 一个新的虚假叙事,这就好比有人工智能代理人在为虚假信息提供帮助 。”
还有人担心ChatGPT会挑战语言的多样性 。
澳大利亚《对话》杂志刊文称,ChatGPT的默认功能会优先考虑白人创建的英语写作形式 。说英语的白人长期以来一直主导着许多写作密集型行业,包括新闻、法律、政治、医学、计算机科学和学术界 。这些人在上述领域的输出比其有色人种同事高很多倍 。他们所写的大量文字意味着它们可能构成了ChatGPT学习模型的大部分,尽管OpenAI并未公开披露其材料来源 。因此,当用户要求ChatGPT生成任何这些学科的内容时,默认输出都是以那些说英语的白人男性的声音、风格和语言编写的 。

推荐阅读