Meta近日发布了TRIBE v2,这是一款旨在通过视觉、声音和语言预测人类大脑活动的人工智能模型。公司同时公开了相关论文、代码、模型权重以及交互式演示。
据Meta介绍,该模型基于超过700名健康志愿者的功能磁共振成像(fMRI)扫描数据训练而成。这些志愿者在扫描过程中观看了图像、收听了播客、观看了视频并阅读了文本。Meta表示,TRIBE v2能够针对新的受试者、语言和任务进行“零样本”预测,并宣称其分辨率相比同类方法提高了约70倍。
该模型及代码遵循知识共享署名-非商业使用(Creative Commons BY-NC)许可协议发布,允许在注明出处的前提下用于非商业目的。
56 0
登陆后参与评论
2026-03-27 10:43:10
2026-03-27 10:21:53
2026-03-27 10:01:05
2026-03-27 09:49:52
2026-03-26 09:53:26
2026-03-26 08:55:56
2026-03-25 10:17:30
2026-03-25 10:10:51
2026-03-25 09:01:38
2026-03-25 08:53:32
2026-03-24 10:05:35
2026-03-24 10:00:51