科技工作者之家
科技工作者之家APP是专注科技人才,知识分享与人才交流的服务平台。
科技工作者之家 2019-06-21
东京工业大学的研究团队稍早发布了一套仅用一般 RGB 视频,就能预测画面中人物未来动向的「FuturePose」系统。过去有过类似的预测系统相关的研究,但使用的是本身就自带深度信息的 Kinect,而东工大这边则是完全靠着画面本身像素的流向,先通过机器学习与 AI 来定位关节,再由定位出来的关节和摆动方向,去推断 3D 环境中的位置,整个过程简直神奇。
靠着 AI 的推断,这套 FuturePose 系统可以大约猜出人类 0.5 秒后的位置,颇有一点小说或漫画里那种「你的行动已经被我看穿啦」的风范。研究团队也还真的实际给人戴上 Vive 头套,显示面前的另一个测试者予测动作。相较于没有予测系统的 0.62 秒平均反应时间,戴上这套系统的人将平均降到了 0.41 秒。这是个很明显的差距,但也没有真的到可以变武林高手的程度就是啰 。
以真实世界的应用来说,东京大认为这可以作为格斗练习的辅助系统,或是可以让观众提前一步看到足球 PK 时守门员将往哪个方向躲。然而,只是为了这点小小的乐趣,就让 AI 学会如何预判人类的行动,好像有点划不来啊...
来源:engadget
原文链接:http://cn.engadget.com/2019/04/24/0-5-futurepose/
版权声明:除非特别注明,本站所载内容来源于互联网、微信公众号等公开渠道,不代表本站观点,仅供参考、交流、公益传播之目的。转载的稿件版权归原作者或机构所有,如有侵权,请联系删除。
电话:(010)86409582
邮箱:kejie@scimall.org.cn
人工智能就在我们身边——解析世界人工智能大会
强人工智能
人机融合智能:人工智能3.0
人机融合智能:人工智能3.0
人工智能是什么?人工智能将带来什么改变?
省人工智能学会人工智能教育专业委员会成立 人工智能专家携手培养专业人才
人工智能
人工智能遇上大数据-数博会人工智能国际论坛
世界人工智能大会 “双马对话”纵论人工智能
人工智能测评员