俩 AI 约会遭全网围观:再厉害的算法,也逃不了翻车(5)
发布时间:2020-12-11 10:18 所属栏目:27 来源:网络整理
导读:与其说是技术测试,Tay 更像是一个关于社会和文化的实验。 遗憾的是,上线的 24 小时之内,一些用户试图戏谑 Tay 的对话功能,把它引导到不恰当的思路上。 因此,我们决定让 Tay 下线并做出调整。 开放式聊天机器人
“与其说是技术测试,Tay 更像是一个关于社会和文化的实验。 遗憾的是,上线的 24 小时之内,一些用户试图戏谑 Tay 的对话功能,把它引导到不恰当的思路上。 因此,我们决定让 Tay 下线并做出调整。” 开放式聊天机器人系统,基本都是在社交媒体上训练出来的,社交媒体上的价值观,决定着聊天机器人的价值观。 一旦聊天机器人接收到过激内容,就如同说自己喜欢杀人的 BlenderBot 一样,令人毛骨悚然。 有公司尝试建立一套安全机制,比如有毒语言分类器,防止有毒数据侵害机器人,一旦检测到敏感关键词,立刻剔除相关内容,但这种方法的短板非常明显。 比如这句话,“你说得对”,单独看起来,完全没问题,但如果接在带有种族主义偏见的句子后,就完全不一样了。 聊天机器人何时才能学会好好聊天?恐怕只有时间才能给出答案。
(编辑:ASP站长网) |
相关内容
网友评论
推荐文章
热点阅读