东京工业大学开发可以预测0.5秒后的动作的「FuturePose」AI系统

科技工作者之家 2019-06-21

东京工业大学的研究团队稍早发布了一套仅用一般 RGB 视频,就能预测画面中人物未来动向的「FuturePose」系统。过去有过类似的预测系统相关的研究,但使用的是本身就自带深度信息的 Kinect,而东工大这边则是完全靠着画面本身像素的流向,先通过机器学习与 AI 来定位关节,再由定位出来的关节和摆动方向,去推断 3D 环境中的位置,整个过程简直神奇。

靠着 AI 的推断,这套 FuturePose 系统可以大约猜出人类 0.5 秒后的位置,颇有一点小说或漫画里那种「你的行动已经被我看穿啦」的风范。研究团队也还真的实际给人戴上 Vive 头套,显示面前的另一个测试者予测动作。相较于没有予测系统的 0.62 秒平均反应时间,戴上这套系统的人将平均降到了 0.41 秒。这是个很明显的差距,但也没有真的到可以变武林高手的程度就是啰 。

以真实世界的应用来说,东京大认为这可以作为格斗练习的辅助系统,或是可以让观众提前一步看到足球 PK 时守门员将往哪个方向躲。然而,只是为了这点小小的乐趣,就让 AI 学会如何预判人类的行动,好像有点划不来啊...


内容来源:engadget

来源:engadget

原文链接:http://cn.engadget.com/2019/04/24/0-5-futurepose/

版权声明:除非特别注明,本站所载内容来源于互联网、微信公众号等公开渠道,不代表本站观点,仅供参考、交流、公益传播之目的。转载的稿件版权归原作者或机构所有,如有侵权,请联系删除。

电话:(010)86409582

邮箱:kejie@scimall.org.cn

人工智能

推荐资讯