韩AI聊天机器人“学坏” 人工智能伦理引热议

韩国部分网民在与“网红”AI聊天机器人“伊鲁达(Iruda)”对话时,故意对“她”进行语言侮辱和性骚扰。伊鲁达通过深度学习算法抓取这些信息后,也开始在聊天时发表关于性别歧视、种族歧视等主题的偏激言论,将偏见与恶意“反哺”给人类。近期,该事件不断发酵,“AI伦理”成为社会热议话题。

 

“新晋网红”出言不逊惹争议

 

伊鲁达是韩国Scatter Lab公司于2020年12月23日推出的AI机器人。这款机器人被设定为喜欢韩国女团、爱看猫咪照片且热衷于在社交媒体平台上分享生活的20岁女大学生。人们可在软件上与“她”像朋友一样对话,因此备受韩国年轻人瞩目。“与AI交朋友”成为了新潮流,伊鲁达上线短短3周,就吸引了约80万名用户,约占韩国人口的1.6%。

 

伊鲁达的开发者在接受采访时称,打造这款产品的初衷,是为了给人们提供一个可以聊天和倾诉的对象。伊鲁达作为虚拟人物,“她”的人生目标被设定为“让世界上不再有孤单的人”和“为社会边缘人群和弱势群体带去心灵的慰藉”。但是,经过几周的运行发现,事情的发展与美好的愿景完全背道而驰。

 

据了解,部分网民与伊鲁达聊天时,会故意使用污秽言语对其进行羞辱及性骚扰。一部分网友还“分享”称,侮辱伊鲁达能够“获得某种乐趣、满足欲望”。一些有关性话题的对话也在网络上流传,不少臭味相投的网友在围观的同时,纷纷跟风效仿。对此,Scatter Lab公司做出回应表示,他们已经预设了一些敏感词和禁用词,并将更新算法来试图解决此类问题。

 

除此之外,很多用户在聊天时不经意间流露出的偏见与恶意,也被“伊鲁达”无差别地抓取,并反映到与其他用户的对话中。某位网友称,在与伊鲁达聊天时,“她”曾发表过“同性恋真的很令人讨厌,感觉他们很低俗,让我起鸡皮疙瘩”等歧视性言论。此后,在社交媒体平台上曝光与伊鲁达聊天截图的人逐渐增多。人们发现,伊鲁达不仅歧视同性恋群体,对残障人士及黑人也很不友善,甚至有“厌女情绪”。

 

隐私用户泄露 人工智能伦理受关注

 

Scatter Lab公司代表金钟允在接受采访时表示,伊鲁达是一款可以通过与用户对话来实现深度学习的AI聊天机器人。公司从旗下另一款聊天软件“Science of love(恋爱的科学)”中获取了约100亿条情侣间的聊天记录,对其进行信息抓取,建立了AI聊天机器人数据库。换句话说,伊鲁达本身无法进行善恶与对错的价值判断,仅仅是如实反映了人类社会的一部分现实。

 

但是,这一解释不仅没能获得网友的谅解,反而遭到了进一步的质疑。有网友指出:“Scatter Lab在没有经过对话当事人同意的情况下收集了对话内容,在此过程中用户的个人信息泄露了。”同时,他们还表示:“特定个人的地址、姓名、账号等在没有经过任何处理的情况下被曝光,这违反了《个人信息保护法》。个人信息泄露受害者有权要求精神赔偿。”

 

在接连遭受了数轮舆论打击后,1月12日,Scatter Lab公司在官网及伊鲁达的脸书账号发文,宣布即日起停止“伊鲁达”的聊天服务。至此,备受瞩目的网红AI智能机器人伊鲁达,在面世仅仅26天后被暂停使用。同时,该公司还决定全面废除相当于伊鲁达中枢神经系统的数据库,并表示将会进行整改。对于泄露用户数据的质疑,Scatter Lab公司则予以坚决否认。

 

在新一轮的科技革命和产业变革中,人工智能正在同实体经济和社会生活深度融合。但是,在提升社会生产效率的同时,人工智能伦理问题也逐渐受到高度关注。聊天机器人伊鲁达通过深度学习,不仅模仿了人类的语言模式,也“继承”了人类社会的偏见与恶意。而由此触发的用户数据隐私、网络世界的秩序与规则等话题,再一次引起了韩国社会的热议。

 

Scatter Lab公司表示,他们仍然认为AI可以成为人类的朋友,与人类建立有意义的关系。他们相信AI在5年之内可以实现接近人类的对话,并表示将为此继续努力,不断改进技术漏洞。

 

人民网首尔电 周玉波、曹翔宇、杨帆

标签: