facebook|Facebook 对元宇宙做了什么?( 四 )


也许其中“替身”部分可能有不同分支 , 比如将分流出其他一些平台 , 允许人们前台和后台都使用完全匿名和不绑定现实的假身份;也许有的小型服务难以支撑 NFT 所需要的算力及确权成本 , 因此会选择其它数字资产形态 。但“元宇宙”的载体主要是 VR / AR 而不是嗑药或脑后插管 , 在未来十几年乃至几十年里都将是板上钉钉 。
“元宇宙”曾经是一只薛定谔的猫 , 未经观测 , 说它是什么的人都有 。而 Meta(Facebook)的大胆定义 , 则让“此花颜色一时明白起来” , 这个名词的指代范围“坍缩”了 。
为什么说将“元宇宙”的概念由原先的天马行空 , “坍缩”到 VR / AR 是很重要的一环?想想我们现在家喻户晓的“人工智能”概念经历了什么 。
1943 年最早的人工神经元模型被提出 , 1956 年达特茅斯会议引出人工智能概念 , 作为“人工智能元年”载入史册 。而“符号主义”(Symbolicism)和“联结主义”(Connectionism)成为主要的两大派系 。前者认为“认知”的含义是“输入-输出”的推导计算过程 , 主张用决策树等显式的公理和逻辑体系搭建人工智能系统 。后者则希望以仿生学的角度研究人类的认知方法 , 用神经元的连接机制实现人工智能 , 也就是对人脑进行“逆向工程” 。
从“符号主义”和“联结主义”出发 , 人工智能分别结出两个硕大的果实 , 就是专家系统和机器学习 。专家系统将人类已经掌握的某部分知识成体系地输入电脑 , 并规定丰富的人类语义知识 , 以模拟人基于现有知识推理的过程 。机器学习则是在神经网络这个大“黑箱”里面“炼丹” , 其运算效率非常受到算力的影响 , 结果是“看天吃饭”以及“看数据量吃饭” 。
其结果就是 , 在算力有限的 1950-1970 年代 , 专家系统首先开始发展 , 也最先遇到瓶颈 。然后机器学习的理论研究取得突破 , 在 90 年代到 2000 年代蛰伏 , 等待 2010 年代的算力爆炸式增长 。
谷歌在 2012 年首度发布的知识图谱 , 是结构化的语义知识库 。这是典型的“符号主义”案例 , 但却采用了机器学习的方式来自动化实现 , 省略了大量人力参与 。其容纳的数据量从人工录入能达到的数万-数十万级 , 骤增到十亿-百亿级别 。
这就意味着 , 从那时开始直到今天 , 我们嘴里说的“人工智能”概念几乎全等于机器学习 。黑箱进 , 黑箱出 。谁也不知道某个基于某种出发点而生的算法 , 是否真的能走向设想的结果 , 也不知道某个一直以来行之有效的算法如果出了问题 , 可能出自哪里以及可以如何解决 , 只能各种地方都改一改 , 哪个好使了就用哪个 。然而 , 就是这么个我们还不彻底了解其中原理的机制 , 构成了近几年来技术发展的一大主旋律 , 甚至城市运行 , 地面交通 , 防灾应急等等重要事宜 , 也都部分或全部交由它处理 。
2020 年人们约定俗成的“人工智能”和 1970 年的“人工智能”是完全不同的两种东西 , 它用这几十年完成了从指代专家系统到指代机器学习的蜕变 , 并将在未来一段时间稳定下来 。同样 , 这次“元宇宙”的概念也明确为基于 VR / AR , 相信也会主导未来数十年的定义 。因为以肉眼可见的观测 , 让人沉浸式进入虚拟世界的各种方式里面 , VR / AR 终归还是最靠谱的 。

推荐阅读