怎样消除机器人的“偏见”?先从消除人的偏见做起

你有没有想过这样的问题:Alexa、Siri、Cortana(小娜)、Google Assistant 等等虚拟语音助手,性别都是女的?

在西南偏南大会上,几位从事对话人工智能 (conversational AI) 行业的女性专家告诉我,这当中既有偏见,又有道理。

偏见的部分指的是,当一个助手在和你对话时,大部分人会更习惯这个助手的性别是女的。因为人们期待“她”比男助手更加顺从、体贴。

至于道理的部分,基于社会学和语言学的研究发现,在说话时男性普遍更直接,女性普遍更婉转;男性普遍更武断 (assertive),女性普遍更配合 (supportive)。

多年以来,对于同一种语言,男人和女人们普遍形成了风格迥异运用方式。从某种程度上讲,它最初也是因为偏见的逐渐积累,形成了长期的结构性差异。

虚拟助手性别采用女性,符合这种差异。

偏见 (bias),更具体来说,聊天机器人等对话式 AI 的偏见问题,是西南偏南大会本场论坛的切入点。

除了性别之外,在虚拟语音助手和聊天机器人身上所能够找到的偏见,还有许多的种类。比如种族歧视、基于政治立场的偏见等等。

而专家指出,无论是哪一种偏见,几乎都是人自己偏见的映射。

IBM 沃森人工智能的首席产品经理阿娜米塔·古哈 (Anamita Guha) 举例,“如果你一直用叫喊的方式训练人工智能,那么她学到的只会是叫喊。”

科技公司 Pandorabot 创始人兼 CEO 劳伦·坤泽 (Lauren Kunze) 认为,微软早年的英语聊天机器人 Tay 是一个人类偏见投射到聊天机器人最典型的案例。

Tay 和微软小冰有所类似,是一个话题不限制的闲聊式机器人。Tay 采用无监督学习的方式,有一天突然被微软的工程师上线到 Twitter 上,任何人都可以跟她对话,教她东西——结果几天下来,坤泽形容,Tay 被训练成了一个“崇拜希特勒的性爱机器人”。

“Tay 所变成的样子,不就是互联网的样子吗?”她说,发生这样的情况,人们担心的不应该是聊天机器人的偏见,而是自己的偏见。

劳伦·坤泽
劳伦·坤泽

人的偏见是根深蒂固的,很难被刨除。甚至连开发 AI 的人不注意都会表达出这种偏见。

坤泽有次跟微软集团副总裁、杰出科学家程丽丽 (Lili Cheng) 一起出席一个对话人工智能的闭门会议,是会上唯二的女性面孔。当有人问起 IBM 沃森的声音为什么是男性时,有人在台下吆喝,“因为男人更睿智。”坤泽说,当时自己和程丽丽都气的直抓桌布。

其实,沃森是一套基于深度学习,面向开发者/企业端的 API,在语音输出时可以集成24种不同的声音。

像沃森这样多样化地设计对话人工智能的思路,已经逐渐被业界采纳。

Dashbot 的高级开发客户经理贾斯丁娜·阮 (Justina Nguyen) 指出,她的客户很多是非科技行业的大品牌公司。在设计聊天机器人用作客服、营销等用户的时候,这些公司并不是说一定要用女性的声音,而是它们需要确保这个聊天机器人和企业一直以来的形象保持一致。

就像《水形物语》中女主角去的那家甜品店,男服务生为了配合甜品店品牌的亲民形象,装出一种南方乡巴佬的口音,其实自己的老家明明是加拿大。

“你的聊天机器人采用哪种声音,具有什么风格,是由你的品牌的形象 (persona),由你想让消费者获得何种体验决定的,”阮表示。

阿娜米塔·古哈和贾斯丁娜·阮
阿娜米塔·古哈和贾斯丁娜·阮

既然聊天机器人的偏见来自于人的偏见,而这种偏见在现阶段又很难避免,我们有什么可以做的,有哪些规则可以被设立起来,确保开发出的聊天机器人是安全、尽量减少偏见的呢?

坤泽的建议是:如果你做的模型是无监督学习,那么千万不要拿到 Twitter 这样的社交网络上去训练。

阮认为,与其说我们要给聊天机器人(或者开发它的公司)设定规则,我们更应该给用户设定规则,告诉他们应该怎样跟聊天机器人正确地对话。

古哈也很同意这个观点,“现在的小朋友们可以说是跟虚拟助手,跟聊天机器人一起长大的。

我们可以做一个设置,如果用户发出一句指令后不加一个‘请’字,Alexa 就不执行,你们说好不好啊?”