Meta 发文庆祝 AI 创新 10 周年 + AR/VR 的未来

Meta 发文庆祝 AI 创新 10 周年 + AR/VR 的未来

Meta 发文庆祝 AI 创新 10 周年 + AR/VR 的未来

今年是Meta 基础人工智能研究 (FAIR) 团队成立 10 周年。这是一个令人兴奋的里程碑,FAIR 本身也通过引入涵盖音频生成翻译多模态感知的新模型、数据集和更新来庆祝这一里程碑。这是一个很好的提醒,尽管人工智能可能是当下的热门话题,但多年来它也一直是 Meta DNA 的一部分。

Meta CTO 兼现实实验室负责人 Andrew“Boz”Bosworth 表示:“从 Facebook 成立之初就很明显,人工智能将成为我们公司最重要的技术之一,甚至可能是最重要的技术。”也恰好是该公司第一位人工智能员工。

“我能够设计和构建我们的第一个基于启发式的 News Feed 系统,然后使用 Coefficient 设计和构建我们的机器学习系统,”Bosworth 回忆道。“但是,当然,我的人工智能知识很快就过时了。你必须记住,当我教马克时,神经网络被认为是死胡同。我们把它当作一项曾经伟大的技术来教授,但其局限性已经暴露出来。当然,几年后,当我开始从事广告工作时,神经网络的革命已经成熟。我很高兴在那里监督团队致力于稀疏神经网络和 Pytorch 的首次实现。”

在人工智能的早期,整个科技行业都非常兴奋,正如一场名副其实的建立尖端人工智能团队的竞赛所表明的那样,但马克·扎克伯格很早就决定在公司的核心建立一个基础人工智能研究实验室。人工智能的努力

“从 2013 年开始,FAIR 为人工智能行业研究实验室制定了新标准,”Bosworth 指出。“我们优先考虑公开工作,与整个研究社区合作,我们发布和开源我们的大部分工作,这加速了每个人的进步。”

一年内,FAIR 开始发布其工作成果,2017 年 PyTorch 开源,它迅速成为用于在研究和生产中构建尖端人工智能的通用框架。人工智能已经继续影响 Meta 的业务和最重要的战略优先事项,从 Feed 排名和内容推荐到相关广告的交付、图像和贴纸生成,以及可以与之交互的人工智能,包括 Meta AI。

“尽管这项工作令人兴奋,但它仍处于起步阶段,”博斯沃思说。“它将不仅在我们今天拥有的产品中发挥重要作用,而且还将在以前不可能的产品中发挥重要作用,当然包括可穿戴设备和增强现实领域的产品。我们在这些领域的愿景实际上取决于人工智能,它能够真正理解我们周围的世界并预测我们的需求。我们相信这种情境化的人工智能将成为自个人电脑本身以来第一个真正的新型计算平台的基石。”

“过去十年的大部分时间我都在领导研究工作,以创建一种基于 AR/VR 的新型计算平台,而 Reality Labs 的其他成员则致力于使该平台成为现实,”首席科学家 Michael Abrash 补充道。“这是 Meta 对未来技术的两大长期押注之一,另一个当然是人工智能。在我们庆祝 FAIR 成立 10 周年之际,我非常兴奋地看到这两个长期赌注如何以一种在我开始的那天看起来像是科幻小说的方式结合在一起。”

1957 年,JCR Licklider 首次提出了人机共生的愿景,即计算机与人类合作完成人类不擅长的工作,从而使我们能够发挥更大的创造力。这一愿景最终随着 Xerox PARC 的人才聚集和 1973 年 Alto 的诞生而达到顶峰,随后又于 1984 年推出了 Mac。

“这场以人为本的计算革命已经变得如此全面,我什至不必问——我确信你们每个人都在 Alto 的直系后代上开展工作,并且随身携带一个微型版本现在,”亚布拉什说。“我们生活在利克莱德创造的世界里。尽管人机交互模型非常强大,但相对于人类吸收信息和行动的方式来说,它仍然受到严重限制。”

虽然人类通过六种感官从周围的 3D 环境接收信息,但数字世界往往只能通过尺寸小得可怜的 2D 屏幕来访问。

“今天的 2D 模型仅仅触及了我们能够感知和执行的事物的表面,”Abrash 解释道。“相比之下,AR 眼镜和 VR 耳机可以以接近现实的方式驱动你的感官。这有可能使人类无论距离如何都能真正地在一起。到了极限,有一天它可能会让人类获得他们能够拥有的任何体验。这本身就会改变世界——但还有更多。”

借助上下文 AI(永不疲倦、随时可用的主动助手),AR 眼镜和 VR 耳机可以帮助您实现目标,增强您的感知、记忆和认知,让您的生活几乎神奇地变得更轻松、更高效。

“这在以前是不可能的,因为以前从来没有任何设备能够从你的角度看待你的生活,”亚伯拉什指出。“我相信这最终可能是 AR/VR 革命最重要的方面。正如图形用户界面 (GUI) 是我们今天与数字世界交互的方式一样,情境 AI 将成为未来的人机界面,它将比 GUI 更具变革性,因为它直接触及数字世界的核心。帮助我们按照自己想要的方式生活。”

这种转变现在就开始发生——经过十年的研究,各个部分正在整合在一起。当我们明年将多模态人工智能引入雷朋智能眼镜时,以及用于视频和多模态感知研究的 Ego-Exo4D 基础数据集时,您将看到未来。但这只是开始。未来的完整情境人工智能系统需要当今根本不存在的各种技术。

“在我看来,在情境人工智能工作图的顶部,总是有一个框写着,‘然后奇迹就会发生,’”Abrash 说。“然后在过去的几年里,奇迹发生了。大型语言模型 (LLM) 出现了,它具有处理理解用户目标所需的多模态推理的潜力,并帮助他们根据上下文和历史实现这些目标。关键是法学硕士有潜力跨视觉、音频、语音、眼动追踪、手部追踪、肌电图和其他上下文输入、你的历史和广泛的世界知识进行推理,然后采取行动帮助你实现你的目标。目标,根据需要引导或消除歧义。法学硕士需要提升到一个不同的水平才能实现这一潜力,而 FAIR 是实现这一目标的理想团队。总的来说,FAIR 的人工智能研究与 Reality Labs 的 AR/VR 研究的融合汇集了创建上下文人工智能界面所需的所有元素,这将充分实现 Meta 的未来愿景。”

来源:Meta

(0)
上一篇 2023年12月7日 上午10:59
下一篇 2023年12月8日 下午3:33

相关推荐

发表回复

登录后才能评论