当前位置:搞趣网 >Meta 开源多感官人工智能模型 ImageBind,整合文本、音频等数据

Meta 开源多感官人工智能模型 ImageBind,整合文本、音频等数据

近日,Meta 公开一个新的开源人工智能模型ImageBind,该模型能够将六种类型的数据整合在一起,包括视觉(以图像和视频形式呈现);热量(红外图像);文本;音频;深度信息;以及最有趣的——由惯性测量单元(IMU)生成的运动读数。

该模型目前只是研究项目,还没有直接的消费者或实际应用,但它展示了未来生成式人工智能系统的可能性,这些系统能创造出沉浸式、多感官的体验。

同时,该模型也表明了 Meta 公司在人工智能研究领域的开放态度,而其竞争对手如 OpenAI 和谷歌则变得越来越封闭。

【责任编辑:网络】

免责声明:本文图片引用自网络,如有侵权请联系我们予以删除

搞趣网发布此文仅为传递信息,不代表搞趣网认同其观点。