人(rén)工智能机器人(rén)没有感情,也(yě)会区别(bié)对待(dài)人类?
人有七情六欲,所以在对待一些事情(qíng)上,很多虽然说好是秉公办理,公事(shì)公办,但多少都(dōu)会有所偏差,会(huì)感情用(yòng)事,这个无可避免,智能尽(jìn)量减少,但在大众的认知中,人工(gōng)智能(néng)的决策都是绝对(duì)理性与(yǔ)客观的,因为我(wǒ)们(men)知道背(bèi)后驱使它的是(shì)冷冰冰却比千(qiān)言万语更接近事实(shí)的数据,然而,近(jìn)期专(zhuān)家(jiā)发(fā)现,人工智(zhì)能其实也会带着有(yǒu)色眼镜(jìng)去看人。
据国外媒体报道,斯坦福(fú)大学的(de)一(yī)项研究显示,亚马逊(xùn)、苹果、谷歌、IBM和微软的语音识别系统存(cún)在(zài)种(zhǒng)族(zú)差(chà)异(yì),在白人用户(hù)中出现的错误,要比在黑人用户中少得(dé)多。
研究显示,这五大科技公司(sī)的语(yǔ)音识(shí)别系统在白(bái)人(rén)中错误识别单词的概率为(wéi)19%。而在黑人用户中,则提升(shēng)至35%。此外,大约(yuē)2%的白人音(yīn)频片段被这些系统认为是不可读的(de)。而在(zài)黑人用户中,这一比例却(què)高达20%。
美国国家标准与技术研究所(NIST)也曾测试了两种(zhǒng)最常见的人脸识别算法,得出了(le)四点结论:
1. 在(zài)一对一匹配中,大多(duō)数系统对亚裔和非裔美国人(rén)比对白人面孔的假阳性(xìng)匹配率更高,有时是10倍甚(shèn)至100倍。
2. 这种情况在亚洲(zhōu)国家发展的人脸识别算法中有所(suǒ)改变,在亚洲和白人(rén)之(zhī)间,假(jiǎ)阳性的差异非常小。
3.美国(guó)开发(fā)的算法始终不擅长匹(pǐ)配亚(yà)洲、非(fēi)洲裔美国(guó)人和美洲原住民(mín)的面(miàn)孔(kǒng)。美(měi)国(guó)原住(zhù)民得(dé)到(dào)的是错(cuò)误率最高。
4. 在一对多的配对(duì)中,非裔(yì)美国女性(xìng)的假阳(yáng)性率(lǜ)最低,这使(shǐ)她们被错误指控犯(fàn)罪(zuì)的风险(xiǎn)最高。
事(shì)实上,早在(zài)2015年就已经存在计算机视觉技术犯错的例子,表明(míng)人工智能技术(shù)存在对(duì)女性和有色人种的(de)偏见,实例包括Google 等科(kē)技(jì)业巨头所(suǒ)提供的高人(rén)气网(wǎng)络服务,Google 照片(piàn)应用程序(Google Photos app)被发现将非裔美国人标记为「大猩猩」,谷歌(gē)曾也为此进行公开道(dào)歉。
在探(tàn)讨如何消除人工智(zhì)能的(de)不客观(guān)之前,我们先(xiān)来看(kàn)看AI的有色眼镜(jìng)到底从何(hé)而来。
数(shù)据(jù)是“罪魁祸首”
现阶段让AI提升认知世界能(néng)力的最(zuì)有效途径仍然是监督学(xué)习(xí),而目前(qián)AI算法能学习的(de)数据,几乎全部(bù)都是通(tōng)过(guò)人(rén)力(lì)逐一进行标(biāo)注而得来的,数据集(jí)质量的高(gāo)低(dī)直接决定最终模型的效果。
数(shù)据标注者通常是人类,而人(rén)类是“复杂”的生物。这也(yě)是导致AI产生偏见的(de)一(yī)个(gè)主要因素(sù),大多(duō)数机器学习任(rèn)务都是使用(yòng)大型、带标注的数(shù)据集来训(xùn)练(liàn),AI会基于(yú)开发(fā)者提供的训练(liàn)数据推断出规律,再将规律套(tào)用在某(mǒu)些资料中。
打个比方,在人脸识(shí)别应用(yòng)中,如(rú)果用于训练(liàn)的数据(jù)里白人(rén)男性比黑(hēi)人(rén)女性更多,那白人(rén)男性(xìng)的识别(bié)率将会更高。
导(dǎo)致AI产生偏见另一个原因可以归于(yú)算法本身,一个常见的机器(qì)学习(xí)程序会试图最大化(huà)训练数据集的整体预测准确(què)率。
有缺(quē)陷的(de)算法还会造(zào)成(chéng)恶性循环,使偏见越(yuè)发严(yán)重。例如谷歌(gē)翻译,会默认使(shǐ)用男性代词,这(zhè)是(shì)因为英(yīng)语语料库中男性代(dài)词对女性代词的比例为2:1。
算法(fǎ)的原则是由AI自行进行(háng)学(xué)习,乍看之下很有效率。不过,一(yī)但提供的(de)资料不够全面,或开(kāi)发者没有想方设法(fǎ)避免(miǎn)歧视,AI推(tuī)导出的结果便很(hěn)容(róng)易带(dài)有偏见。
AI并不(bú)理解“偏见”
偏(piān)见(jiàn)这(zhè)个词是人类(lèi)创造的,也是人类定义的,AI并不能(néng)理解(jiě)偏见的含义。
机器学习的方法会(huì)让AI带上了有色眼镜,但是改变 AI 学(xué)习的方式也不是好的解决方式(shì)。
或许我们应该(gāi)从自己(jǐ)身上找找原因(yīn),毕(bì)竟导(dǎo)致AI产生偏见(jiàn)的原因,有部分要归咎于他们所使用的(de)语言。人(rén)们需要弄清楚什么是偏见,以及偏见(jiàn)在语言(yán)中的传递过程,避免这些偏见在日益强大的 AI 应用中更大(dà)范围的传播。
前(qián)微软副总裁沈向洋(yáng)博士曾在公开课《打造(zào)负责任的(de)AI》中指出:“人工智能(néng)已经开始做出人类无法理解的决定(dìng)了(le),我们需要开启人工智能(néng)的黑箱,了解AI做出决定背后的原因。”
算(suàn)法之所以会对人类进(jìn)行区别对待(dài),原因(yīn)在于训练算法用的基(jī)准数据集通常是来自新闻和网页的(de)数据,就存在着由语言习惯造成的“性别偏见(jiàn)”,算法也(yě)自(zì)然“继承”了人类对这些词汇理解(jiě)的性别差异。
AI技(jì)术距离完全消除技术(shù)偏见还(hái)有很(hěn)长的一段路,但各大巨(jù)头也已(yǐ)经在技(jì)术层(céng)面做出努力。
谷歌开(kāi)源了(le)一项(xiàng)名为“What-If Tool”的探测(cè)工具(jù),IBM将研发的偏见(jiàn)检测工具—AI Fairness 360 工具包开源,包括超过 30 个公(gōng)平性指标(fairness metrics),和 9 个偏差缓解算法,研究(jiū)人员和开发者可将工具整(zhěng)合至自己的机(jī)器(qì)学习(xí)模型里(lǐ),检测并减少可能产生的偏见和歧视。
人类的行为是收到外界影响的,而(ér)这种语言(yán)传统中出现的偏见,是在人文历史中(zhōng)不断加深嵌入的,在“偏(piān)见”通过代码传播之际,我们必须弄清楚(chǔ),是否简单的(de)语言学习就足以解释我们观察(chá)到传播中出现的(de)偏见。
最重(chóng)要的是大众需(xū)要(yào)了解“偏见”从何而来,从而(ér)在社会(huì)中消除这(zhè)种不文明的“偏(piān)见”。