近日,来自布朗大学的、包括亚裔科学家在内的科学家团队成功开发出了一个听得懂“人话”的机器人系统,这意味着机器人语言正与自然语言接轨,未来在家庭、工作中,用口语和机器人进行交互有望成为现实。
几十年来,科学家们一直致力于让机器人听/读懂人类的自然语言。他们建立了许多语言模型,试图让机器人从命令单词及句子结构中获得识别提示,继而推断出人类期望的操作,触发解决任务的规划算法。但这不是一件容易的事,因为人类的语言不完全是具体的,其中包含不少抽象因素。仓库中,工作人员向机器人叉车下达命令:“抓住托盘!”这就是一个非常抽象的命令,通常含有不少子步骤:把叉子放在托盘下——把它抬起来。
这还只是最基础的。在生活中,我们的命令通常更琐碎,也更细致,如“叉子再斜一点”,这是一个简单的动作,但在语言层面却是一个难以解释的行为。依据现有的模型和算法,机器人需要从这些简单指令过渡到下一个子步骤,甚至更多子步骤,这就大大增加了无法完成任务的风险,即使机器人最终完成了任务,它也需要经过一段折磨人的“长考”。
布朗大学新推出的机器人系统能更高效地“理解”语言。该系统在原有语言模型的基础上增添了一项新功能——机器人能通过分析语言推断出不同的抽象层次。研究团队并没有透露具体的模型细节,但他们表示,面对一些在理解能力范围内的任务,他们的机器人有90%的概率能在1秒内做出回答。如果机器人没能推测出任务的特异性水平,那这个回应时间就会在20秒以上。
看起来这个系统还亟待完善,但对比以往的机器人,这个进步还是比较可观的。毕竟如果机器人能直接理解自然语言,它就不需要在语言转换上浪费计算,这或许也能给自然语言处理学科带来新思路。