机器人怎么更懂人类?谷歌:看这五万多个视频! | 研究

机器人怎么更懂人类?谷歌:看这五万多个视频! | 研究机器人怎么更懂人类?谷歌:看这五万多个视频! | 研究

本文系网易新闻-智能工作室出品

聚焦AI,读懂下一个大时代!

机器人怎么更懂人类?谷歌:看这五万多个视频! | 研究

网易年度AI人物评选——2017网易AI英雄风云榜,自荐提名进行中!


奖项设置:技术创新人物TOP 10,商业创新人物TOP 10


表彰人物:华人科学家、学者、企业家、创业者


评委阵容:资深媒体人、AI投资人、AI专业机构等


颁奖:2017年12月,中国乌镇


关注网易智能公众号(ID:smartman163),输入关键词“评奖”,随时获取评奖动态!

机器人怎么更懂人类?谷歌:看这五万多个视频! | 研究机器人怎么更懂人类?谷歌:看这五万多个视频! | 研究机器人怎么更懂人类?谷歌:看这五万多个视频! | 研究

【网易智能讯 10月26日消息】机器人正在看着我们,谷歌在YouTube上发布了一组视频,帮助机器了解人类如何在这个世界上生存。


“原子视觉动作”(AVA)是人们从事日常活动的三秒钟视频,比如喝水、拍照、演奏乐器、拥抱、站立或烹饪等。每段视频都标明了人工智能应该关注的人,以及他们的姿势描述,还有他们是否与某个物体或其他人进行互动。


谷歌最近在一篇博客文章中描述了这个新的数据集,称:“尽管过去几年在图像分类和寻找物体方面取得了令人激动的突破,但认识人类行为仍然是一个巨大的挑战。这是因为,从本质上讲,动作比视频中的物体更不明确。”


57600个视频片段只强调了80个动作,但却需要给超过96000人贴上标签。谷歌从流行电影中截取部分片段,强调它们来自“不同的流派和国家”。如果一段视频中有两个人,每个人都被分别标记,这样机器就可以知道,两个人需要互相握手,或者有时人们在拥抱时接吻。


这项技术将帮助谷歌分析多年的视频,还能帮助广告商更好地瞄准消费者,因为他们更有可能观看视频。一篇附带的研究论文称,谷歌的最终目标是教计算机社交视觉智能,即“理解人类在做什么,下一步该做什么,以及他们想要达到什么目标。”


审校 小小

选自 nypost

翻译 网易见外机器人



机器人怎么更懂人类?谷歌:看这五万多个视频! | 研究机器人怎么更懂人类?谷歌:看这五万多个视频! | 研究

添加小助手 加入交流群

点击如下关键词查看往期内容

人物专访 沈向洋 | 于尔根 | 洪小文 | 李德毅 | 尤瓦尔 | 哈萨比斯 | 宋继强 | 杨强 | 余凯 | 邓志东 | 芮勇 | 戴文渊 | 石博盟 | 韦东 | 黄学东


行业特稿 抢滩智能音箱(上) | 抢滩智能音箱(下) | 自动驾驶行业素描(上) | 自动驾驶行业素描(下) | 机器翻译技术与应用


重磅报告 麦肯锡(二) | AlphaBeta & ABC | 埃森哲 |  英国政府 | Internet Society | Forrester | VertoAnalytics 麦肯锡(一) | 苹果公司 | 耶鲁大学 

机器人怎么更懂人类?谷歌:看这五万多个视频! | 研究