TwentyBN筹集了1000万美元,用于帮助AI学习解释人类行为
2018年09月27日 由 浅浅 发表
47585
0
机器人是工业的主要产品。国际机器人联合会预测到2020年将有170万个机器人在全球工厂车间工作。但机器人大多缺乏对人类行为的直观理解。为了与人员一起安全有效地工作,它们必须精心学习规则,以解释它们可能遇到的每种潜在情况。
TwentyBN是一家在柏林和加拿大设有办事处的创业公司,它宣布了由微软风险基金M12领导的1000万美元融资,由Coparion,Creative Edge和MFV Partners参与。
首席执行官兼首席科学家Roland Memisevic表示,该公司将利用新资本扩大业务规模。“从成立的第一天起,我们一直致力于将AI和交互式计算机视觉领域数十年的进步推向世界的每个角落,无论是家庭,办公室,商店还是机器人的大脑。”
TwentyBN的新型计算机视觉系统可以与人类互动,同时只使用现成的RGB相机观察它们。它的AI不仅响应基本行为,还考虑到每个参与的环境和背景,提供类似人类的情境意识。
Memisevic认为,虽然AI图像分类系统非常适合检测物体,但它们并不接近人类自治。他说,真正认知理解的关键在于能够理解行动。
TwentyBN技术的核心是一个众包的视频剪辑数据库,TwentyBN称其是同类中最大的。多年来,它从一个志愿者网络中采购了大约200万个片段,这些片段已经演出了数十万个场景,其中一个场景是免费提供的。
其“Something Something”数据集包括人们使用日常对象执行基本操作,其Jester数据集显示人类在网络摄像头前执行预定义的手势。
在数据集上训练的精密机器学习模型可以为汽车、智能家居和零售应用提供无触点、基于手势的界面。一个模型SuperModel检测身体动作和人与物体的相互作用。另外两个,鼠标和手势识别,共同识别30多个动态的手动作,并在空中追踪手指的运动。
客户通过与各种平台兼容的软件开发工具包来利用这些模型,包括Docker,RIS,Vuforia和Wikitude。在AirMouse和手势识别的情况下,它们与各种硬件兼容,包括嵌入式系统,台式机和移动设备。
M12总经理萨米尔库马尔说:“TwentyBN正在推进基于学习的模型如何识别描述视觉场景的名词和动词。当从人群代理数据集中派生这些模型以在物联网边缘设备上高效运行时,新的智能相机体验成为可能。”