近日,美国加州大学圣地亚哥分校的研究人员已经开发出算法,以消除在线机器人在社交媒体和其他地方产生的攻击性言论。
聊天机器人使用攻击性语言是一个持续的问题。最有名的例子可能是微软在2016年3月发布的Twitter聊天机器人Tay。在不到24小时内,Tay从Twitter上的对话中学习,开始重复一些在推特上发表的最令人反感的言论,包括种族主义和对女性不尊重的言论。
研究人员说:“作为研究人员,我们正在全面考虑语言模型的社会影响,并解决相关问题。”
研究人员和业界人士已经尝试了几种方法来清理机器人的语音,但都成效甚微。
加州大学圣地亚哥分校的计算机科学家团队首先将有攻击性的提示输入一个预先训练好的语言模型,让它产生有攻击性预言。然后,研究人员对该模型进行了训练,以预测该模型产生有攻击性内容的可能性。他们称此为“邪恶模型”。然后他们训练了一个“好人模型”,这个模型被教导要避免所有被“邪恶模型”高度录用的内容。
研究验证,“好人模型”将“有毒”内容清干净的成功率达到23%。他们在2022年3月在线举行的AAAI人工智能会议上展示了他们的工作。
该研究论文题为"Leashing the Inner Demons: Self-Detoxification for Language Models",已发表在arXiv上。
内容搜集整理于网络,不代表本站同意文章中的说法或者描述。文中陈述文字和内容未经本站证实,其全部或者部分内容、文字的真实性、完整性、及时性本站不做任何保证或者承诺,并且本站对内容资料不承担任何法律责任,请读者自行甄别。如因文章内容、版权和其他问题侵犯了您的合法权益请联系邮箱:43 520 349@qq.com 进行删除处理,谢谢合作!