英国《新科学家》周刊网站8月7日(rì)文(wén)章,原题(tí):人工智能聊天机器人能否受到“说(shuō)真话”法(fǎ)律义务的约束人们(men)能要求人工智能讲真话吗?或许(xǔ)不能,但一个(gè)伦理学家团队表示,从法律上来(lái)说,人工智能开发(fā)商应(yīng)该承担减少犯错风险的责(zé)任(rèn)。“我(wǒ)们只(zhī)是在尝试创建一种(zhǒng)激励构(gòu)架,让公司(sī)在创(chuàng)建(大语言模型)系统时更重视真实性或(huò)准确性,”牛津大学(xué)伦理学家布伦特·米特尔施塔特说。
基于对大量文本的统计分析,大语言模型聊(liáo)天机器人(rén),例如ChatGPT能对用(yòng)户提出的问(wèn)题生成(chéng)类似人类的回答。然而,尽管它们的答案通常看起来令(lìng)人信(xìn)服,但(dàn)也容(róng)易出错,这是一种被称为“幻觉”的(de)缺陷。米(mǐ)特尔施塔特说:“我(wǒ)们拥(yōng)有这些极其令人印象深刻的生成式人工智能系统(tǒng),但它们也会频繁出错,从我们(men)对这种系统基本机能的(de)了(le)解来看(kàn),没有根(gēn)本的解(jiě)决(jué)方(fāng)法。”
米特(tè)尔施(shī)塔(tǎ)特表示,对大语言模型系统来说(shuō),这是(shì)一个重大问题,因(yīn)为它们(men)正在被应(yīng)用于政府决策(cè),在这种(zhǒng)情况下(xià),它们诚实地承认自己的知识(shí)局限性就变(biàn)得至关重要。为(wéi)解(jiě)决(jué)这个问题,他们提(tí)出(chū)一系(xì)列应对措(cuò)施:当被问及与事实有(yǒu)关的问题时,人(rén)工智能应该像(xiàng)人一(yī)样(yàng)。这意味着它们要诚实,秉持“知之为知之,不知(zhī)为(wéi)不知,是知也”的态(tài)度。“要点在于采取(qǔ)必要步骤(zhòu),让它们真正(zhèng)做到谨言慎(shèn)行,”米特尔施(shī)塔特说,“如(rú)果对(duì)某(mǒu)件(jiàn)事不确定,它们不要只是为(wéi)了(le)让人们信服而编造一些东西。相(xiàng)反,它们应(yīng)该说,‘嘿,你(nǐ)知道吗(ma)?我不(bú)知道(dào)。让我(wǒ)来研究一下。我会回复你的。’”
这似(sì)乎是(shì)一个值得称赞的目(mù)标,但在英国德蒙(méng)福特大学网(wǎng)络(luò)安全教(jiāo)授伊尔克·鲍(bào)伊腾看来,伦理(lǐ)学家提出的这(zhè)些要求在技术上未必可行。开发商正尝试让人工智能实事求(qiú)是,但到目(mù)前为止,事实证明这是一项极(jí)其“劳动密集型”的任务,甚至(zhì)不切实(shí)际(jì)。“我不明白,他们(men)怎么期望法律(lǜ)要求强制执(zhí)行这种命令,我认为这(zhè)在技术上根本行不通,”鲍(bào)伊腾说。
为(wéi)此,米特(tè)尔施(shī)塔特及(jí)其同事们提出一些更直接的措施,可(kě)能使(shǐ)人工(gōng)智能更(gèng)“诚实”。他说,这些模型应(yīng)该(gāi)列(liè)出答案的信息源,目前许多模(mó)型都在这样做以证明它们给出答案的可信度,此外(wài),更广(guǎng)泛地使用一种被(bèi)称(chēng)为“检索增强(qiáng)”的技术来给出答案,也可(kě)能限制这(zhè)些模(mó)型产生(shēng)“幻觉”的可能性。他还(hái)认为(wéi),应(yīng)该(gāi)缩减在政府决策等高(gāo)风险领域部(bù)署人工智能的规模,或(huò)者应该限制模型可利用的信息源。“如果我们有(yǒu)一个仅在医学中使用的(de)语言模型,我们(men)就应该(gāi)限制它(tā),让(ràng)它只能在高质量(liàng)医(yī)学期刊上(shàng)搜索学术文章。”
米特尔施(shī)塔特(tè)声称,改变观念(niàn)也很重要,“如果我(wǒ)们能摆脱所谓(大(dà)语言模型)善(shàn)于回答事(shì)实性问题、或者(zhě)它们至(zhì)少(shǎo)会给(gěi)你一个可靠答(dá)案(àn)的想法(fǎ),而是认为它(tā)们有助于为你提供更(gèng)多相关的信息,那(nà)就太好了。”
但荷(hé)兰乌得勒(lè)支大学法学院副教(jiāo)授卡塔琳娜·戈安塔表示,这些研(yán)究人员过(guò)于关注技术,因此对(duì)公共话语中长期存(cún)在的谎言问题关(guān)注不够。“在(zài)这种背景下,仅将矛头指向(xiàng)大语言模型会(huì)制(zhì)造一种假象,即人类非常勤奋(fèn)细致,永远不会犯此类错误。问问你遇到(dào)的任何(hé)法官,他(tā)们都遇(yù)到过律师玩忽职守的可怕经历(lì),反之亦然——这并非一个机器(qì)的问题。”(作者克里斯·斯托克(kè)尔-沃克,王会聪(cōng)译)