
自2020年启动以来,Aria研究计划通过提供前沿硬件设备及开源数据集、模型与工具,持续推动全球机器感知与人工智能技术发展。今日,Meta正式发布第二代Aria智能眼镜,这款迭代产品将在机器感知、第一视角人工智能及机器人技术等领域开启全新研究维度。
相较于初代设备,Aria Gen 2眼镜的技术突破集中体现在三大核心升级:
多模态传感系统革新
在保留RGB摄像头、六自由度SLAM定位摄像头、眼动追踪摄像头、空间麦克风阵列等配置基础上,鼻托部位新增两大生物传感器:用于实时监测心率的PPG光电容积传感器,以及能区分佩戴者与周围人声的接触式麦克风。这种嵌入式设计在确保全天候佩戴舒适度的同时,实现了非侵入式生命体征监测。
本地化AI算力突破
依托Meta自研芯片,设备可在本地完成同步定位与建图(SLAM)、眼动追踪、手势识别及语音指令处理,无需依赖云端计算。这种超低功耗的本地化机器感知处理能力,使研究者能够构建实时闭环的人机交互系统。
全天候研究工具优化
整机重量控制在75克,折叠式镜腿设计提升便携性,电池续航延长至6-8小时持续工作。开放式耳道力消除扬声器的引入,允许研究者在真实环境声场中实现用户反馈系统的原型开发。
过去三年间,初代Aria设备已催生多项里程碑成果。由卡内基梅隆大学开发的NavCog室内导航系统,成功帮助视障人士实现复杂场景定位;宝马研发团队利用其空间感知数据探索智能座舱的增强现实集成方案;FAIR实验室发布的Ego-Exo4D数据集更成为机器人视觉训练的重要基准。
新一代设备正开启更广阔的应用图景。专注无障碍技术的Envision公司正基于Aria Gen 2开发集成空间音频的Ally AI助手,通过本地SLAM定位与骨传导技术,为视障群体构建三维环境感知系统。佐治亚理工学院的研究团队则尝试利用其多模态数据流,训练人形机器人完成家庭协助任务。
Meta现实实验室研究负责人强调,Aria项目的核心价值在于构建开放研究生态。通过向全球200余所合作机构提供硬件与数据支持,该项目已积累超过200万小时的多模态研究数据。第二代设备将于未来数月内逐步向学术及商业研究伙伴开放申请,持续推动人机交互、环境智能等前沿领域的突破性创新。
来源:meta