码迷,mamicode.com
首页 > 其他好文 > 详细

微软Tay黑化后,Facebook机器人要做好保护措施

时间:2016-04-17 23:11:52      阅读:228      评论:0      收藏:0      [点我收藏+]

标签:


技术分享

现在机器人火得不行。好像整个高科技产业都在研发应用程序内以 AI 为基础的助手,为你进行简单、琐碎的任务,节省你的时间,让你工作更高效。就在本月,微软和 Facebook 都发布了开发者工具,使得在其平台上打造机器人更加容易。


  鉴于目前该像微软和 Facebook 和微信公司希望看到机器人部署规模,它的合理担心这项技术可能有多少人监督有。


  这波对机器人的兴趣的确能迎来新的经济,内部短信平台和搜索引擎的这些隐形助手,争夺我们的感情。眼下,其用途可能看起来很平常——通过短信订购比萨饼,或者在手机程序买卷饼。但随着聊天机器人增多并变得更加熟练,它们可以提供更智能,更个性化的服务体验。想象一下,一个机器人解答你有关法律事务的问题,甚至是你心理健康的问题。


  因此,程序员必须保持谨慎。非正确训练、监控的机器人可以变得丑陋。别担心,现在还没有任何机器人起义的危险,但已出现恣意欺骗人类的机器人,众所周知,微软的 Tay 黑化了。高科技公司在开发对话机器人时必须把这几件事铭记于心。


  自发行为


  作为一个人工智能机器人,除了已编程好的,它还可以学到新的技能和执行其它任务。机器人专家称之为自发行为。机器人在了解新任务时,经常没有人类为其过滤器或引导。这就是聊天机器人 Tay,原本编程是从对话中学习,最后却变成满口仇恨的纳粹的原因。为了防止这种情况再次发生,关键是要主动监测。


  “我会检查我所有的机器人,但更多地,我会去想如果输入的东西是否会产生有问题的内容。”诺拉里德说,其创造了许多受欢迎的推特机器人。 “我会避免某些内容,我不希望这些东西和其他的放在一起,因为会导致边缘化或偏执。”


  鉴于目前像微软、Facebook、微信对机器人的部署规模,担心是否有足够的人在监督这项技术是合理的。微软未来社会试验实验室的经理程丽丽说,该公司正在考虑“其它类型的工具,当开发者的机器人行为方式出现问题时,我们可以帮助他们得到更好的提示。”程指出,开发者们会想知道,他们的机器人是否在发送不当内容,或出现其它异常。


  即使是事后分析,机器人的程序员应该,改良机器人,使他们不再出现麻烦的自发行为。要做到这一点,可以限制主体获得数据,或者把对机器人而言的的不当话语,建一个黑名单。这些都是常见的做法,聊天机器人交互设计师卡罗琳赛德斯说


微软Tay黑化后,Facebook机器人要做好保护措施

标签:

原文地址:http://blog.csdn.net/chenning5252/article/details/51170250

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!