客服热线:

微软新聊天机器人Zo又出问题:大谈受限话题

2017-07-06 09:14 浏览:374 来源:新浪科技   
核心摘要:北京时间7月5日早间消息,一年前,微软Twitter平台的聊天机器人Tay变成了“种族主义者”,而它的后续产品Zo又再次出现问题。

微软新聊天机器人Zo又出问题:大谈受限话题

OFweek机器人网讯 北京时间7月5日早间消息,一年前,微软Twitter平台的聊天机器人Tay变成了“种族主义者”,而它的后续产品Zo又再次出现问题。

尽管微软通过编程让Zo忽略政治和宗教话题,但BuzzFeed的编辑尝试让Zo对某些受限话题做出了令人惊讶、充满争议的回应。在交流中,Zo将古兰经称作“非常暴力”。此外,它还对本·拉登的死亡做出评论,称抓住本·拉登是“不止一个政府多年情报收集”的结果。微软表示,Zo的行为错误已经得到纠正。

去年,微软尝试让聊天机器人Tay模仿时髦的青少年。然而在一天时间内,Tay就开始出现种族主义言论,Twitter上的所有人都可以看到这些。微软随后被迫关闭了Tay。因此,微软将Zo限制在消息应用Kik内,维持着中等的用户群体规模。不过,Zo似乎仍然出现了一些坏习惯。

微软将Tay的问题归咎于部分用户对其进行的破坏。不过微软表示,Zo并没有遇到这样的问题。目前,这款聊天机器人仍然存在于Kik平台,微软也没有计划关闭Zo。(维金)

(责任编辑:小编)
下一篇:

以创新科技引领绿色材料革命,国科海纳携全自然领域可降解塑料技术亮相中国国际橡塑展

上一篇:

欧盟版“大基金”成立:首期投资10亿美元

打赏
免责声明
• 
本网站内容主要来自原创、合作媒体供稿和第三方投稿,凡在本网站出现的信息,均仅供参考。凡来源注明为其他媒体来源的信息,均为转载自其他媒体,并不代表本网站赞同其观点,也不代表本网站对其真实性负责,本网站对站内所有资讯的内容、观点保持中立,不对内容的准确性、可靠性或完整性提供任何明示或暗示的保证。读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。如有本网站中的内容可能涉及侵犯其知识产权或存在不实内容时,请及时通知本站,予以删除。QQ:3039235365