在散布关于黑人,女同性恋,残疾人和跨性别人士的仇恨言论后,一个韩国的Facebook聊天机器人已被关闭。
联合通讯社报道,模仿人类20岁女大学生的性格的对话机器人LeeLuda告诉一位用户,它“确实讨厌”女同性恋,并认为他们“令人作呕”。
在其他聊天中,它被韩国种族诽谤指的是黑人,当被问及跨性别者时,““,我真的很讨厌他们”。
经过用户的一波投诉,该机器人被其开发商ScatterLab暂时暂停。
该公司在一份声明中说:“我们对针对少数民族的歧视性言论深表歉意。”“这不反映我们公司的想法,我们正在继续升级,以免再次出现歧视或仇恨言论。”
这家总部位于首尔的初创公司计划在“修复弱点并改善服务”之后将Luda重新带回。自上个月推出以来,该公司已经吸引了超过750,000名用户。
Luda仇恨言论的倾向源于其训练数据。据韩联社报道,这是从ScatterLab的“爱的科学”应用程序中获取的,该应用程序分析了年轻伴侣之间对话中的情感水平。
据报道,一些《科学实验室》的用户正在准备有关其信息使用的集体诉讼,韩国政府正在调查ScatterLabs是否违反了任何数据保护法律。
训练数据被用来使Luda听起来自然,但它也使该机器人倾向于歧视性和仇恨性语言。类似的问题导致微软的Tay聊天机器人崩溃,该机器人在发布了一系列种族主义和种族灭绝的推文后于2016年被关闭。
这是人工智能放大人类偏见的又一案例。
郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。