“我們的研究表明,人工智能可能成為人們避免為指控別人說(shuō)謊的后果負(fù)責(zé)的借口!
目前的人工智能(AI)在語(yǔ)言理解和交互方面已經(jīng)取得了令人矚目的成績(jī)。這些程序不僅能夠理解對(duì)話(huà)的內(nèi)容,作出合適的回答,還能夠?qū)π畔⑦M(jìn)行解讀和判斷。有人認(rèn)為,有了人工智能的參與,未來(lái)社會(huì)中人們的交往、互動(dòng)乃至整個(gè)社會(huì)的規(guī)范都有可能發(fā)生變化。
近日一項(xiàng)研究指出,人工智能的出現(xiàn)或許會(huì)改變?nèi)藗兇链﹦e人謊言的方式——當(dāng)人工智能判斷一些言論是撒謊時(shí),即便沒(méi)有提供新的證據(jù)和解釋?zhuān)藗円哺锌赡軙?huì)聽(tīng)取它的建議,對(duì)撒謊進(jìn)行指責(zé)。這一發(fā)現(xiàn)有助于深入了解使用人工智能系統(tǒng)進(jìn)行測(cè)謊的社會(huì)影響,并在實(shí)施類(lèi)似技術(shù)時(shí)為相關(guān)政策的制定提供參考。
這項(xiàng)研究于6月27日發(fā)表在細(xì)胞出版社(Cell Press)旗下期刊iScience(《交叉科學(xué)》)上,作者是來(lái)自德國(guó)馬克思·普朗克人類(lèi)發(fā)展研究所(Max Planck Institute for Human Development)、法國(guó)圖盧茲高等研究所(Institute for Advanced Study Toulouse)等機(jī)構(gòu)的Nils K?bis、Alicia von Schenk、Victor Klockmann等五名科學(xué)家。
該研究認(rèn)為,戳穿謊言是要承擔(dān)一定的社會(huì)風(fēng)險(xiǎn)的。錯(cuò)誤的指控不僅會(huì)讓被指控者蒙受不白之冤,也會(huì)讓指控者落得個(gè)“糊涂判官”的壞名聲。除此之外,之前科學(xué)家們已經(jīng)發(fā)現(xiàn),人類(lèi)識(shí)別謊言的能力很差,從概率上來(lái)說(shuō)跟亂猜區(qū)別不大——成功率不超過(guò)50%。
因此,人們對(duì)質(zhì)疑別人的謊言常常有所保留,也就形成了社會(huì)中信任他人、默認(rèn)別人講的都是真話(huà)的傾向!拔覀兊纳鐣(huì)對(duì)撒謊指控有著牢固而完善的規(guī)范。”論文通訊作者、德國(guó)杜伊斯堡-埃森大學(xué)行為科學(xué)家Nils K?bis在接受細(xì)胞出版社采訪(fǎng)時(shí)說(shuō),“公開(kāi)指責(zé)別人撒謊需要很大的勇氣和堅(jiān)實(shí)的證據(jù)!
在該研究中,研究者們想要知道,如果人們有更加“權(quán)威”的AI測(cè)謊“專(zhuān)家”幫助,這種相對(duì)謹(jǐn)慎的揭穿謊言的習(xí)慣會(huì)不會(huì)改變。
研究者們首先招募了986名參與者對(duì)他們下周末的活動(dòng)計(jì)劃寫(xiě)一份真實(shí)和一份虛假的描述,要求都要超過(guò)150字。最終,他們從768名作者那里收集到了1536份描述。
然后,該團(tuán)隊(duì)用這些數(shù)據(jù)在谷歌的開(kāi)源語(yǔ)言模型BERT的基礎(chǔ)上訓(xùn)練了一種算法,開(kāi)發(fā)出一種人工智能測(cè)謊模型。該模型識(shí)別真假陳述的準(zhǔn)確率能達(dá)到66%,明顯高于普通人的水平。
接下來(lái),該團(tuán)隊(duì)從之前的陳述樣本中挑選出510個(gè),并招募了2040人作為評(píng)委,每個(gè)人隨機(jī)閱讀一份并決定真假。根據(jù)是否以及如何接受AI測(cè)謊的幫助,研究人員將參與者分為四組——“基線(xiàn)”(Baseline)組、“強(qiáng)迫”(Forced)組、“封鎖”(Block)組和“選擇”(Choice)組。
在基線(xiàn)組中,參與者在沒(méi)有人工智能幫助的情況下回答“對(duì)”或“錯(cuò)”。在強(qiáng)迫組中,參與者在做出自己的判斷之前會(huì)強(qiáng)制收到AI預(yù)測(cè)。在封鎖組和選擇組中,參與者可以選擇是否接受人工智能生成的預(yù)測(cè)。但封鎖組的人即便選擇了AI幫助也不會(huì)收到預(yù)測(cè)反饋,而選擇組的人會(huì)收到。
研究者們發(fā)現(xiàn),基線(xiàn)組的參與者在判斷真假時(shí)的準(zhǔn)確率為46%。盡管事先已經(jīng)被告知有50%的陳述一定是假,最終也只有19%的人作出了指控。研究認(rèn)為,這證實(shí)了人們傾向于避免指責(zé)別人撒謊的保守傾向。
在強(qiáng)迫組中,不管參與者是否想要,他們都得到了人工智能預(yù)測(cè)結(jié)果,因此超過(guò)1/3的參與者認(rèn)為陳述是虛假的。這一比例明顯高于基線(xiàn)組和未接受人工智能預(yù)測(cè)的封鎖組。
盡管沒(méi)有提供具體解釋?zhuān)斯ぶ悄艿呐袛啾旧砭湍茏寘⑴c者們“跟風(fēng)”投票。當(dāng)人工智能預(yù)測(cè)某句話(huà)是真的時(shí),只有13%的參與者認(rèn)為這句話(huà)是假的。然而,當(dāng)人工智能預(yù)測(cè)一個(gè)陳述為假時(shí),超過(guò)40%的參與者認(rèn)為該陳述是假的。
此外,在要求并收到人工智能預(yù)測(cè)的參與者中,84%的人接受了預(yù)測(cè)結(jié)果,并在人工智能說(shuō)陳述是錯(cuò)誤的時(shí)候提出了指控。
“這表明,一旦人們手頭有了這樣的算法,他們就會(huì)依賴(lài)它,并可能改變他們的行為。如果算法認(rèn)為某件事是謊言,人們就會(huì)欣然接受。這是相當(dāng)令人擔(dān)憂(yōu)的,這表明我們應(yīng)該非常謹(jǐn)慎地對(duì)待相關(guān)技術(shù)!盞?bis在采訪(fǎng)中表示。
但有趣的是,人們似乎不愿意使用人工智能作為測(cè)謊工具。在封鎖組和選擇組中,只有1/3的參與者選擇接受人工智能預(yù)測(cè)。這個(gè)結(jié)果讓研究小組感到驚訝,因?yàn)檠芯咳藛T事先告訴參與者,該算法比人類(lèi)更能發(fā)現(xiàn)謊言。K?bis說(shuō):“這可能是因?yàn)槿藗儗?duì)自己的測(cè)謊能力過(guò)于自信,盡管人類(lèi)在這方面真的很糟糕。”
盡管該研究中的人工智能測(cè)謊僅有66%的正確率,它已經(jīng)能以“權(quán)威”的面貌出現(xiàn)并影響參與者的判斷。實(shí)際上人工智能經(jīng)常犯錯(cuò),遠(yuǎn)非客觀。它不僅會(huì)“一本正經(jīng)地胡說(shuō)八道”,還會(huì)因?yàn)橛?xùn)練數(shù)據(jù)的結(jié)構(gòu)問(wèn)題而強(qiáng)化內(nèi)容中的刻板印象。鑒于AI測(cè)謊技術(shù)可能會(huì)在不久的將來(lái)在社交媒體等領(lǐng)域被廣泛應(yīng)用,該研究團(tuán)隊(duì)在文章最后呼吁政策制定者應(yīng)當(dāng)完善相關(guān)的政策和法律框架,呼吁對(duì)AI測(cè)謊技術(shù)進(jìn)行監(jiān)管。
“人工智能被大肆宣傳,許多人認(rèn)為這些算法非常強(qiáng)大,甚至是客觀的。我很擔(dān)心這會(huì)讓人們過(guò)度依賴(lài)它,即使它的效果并不好!盞?bis表示,“我們的研究表明,人工智能可能會(huì)成為人們避免為指控別人說(shuō)謊的后果負(fù)責(zé)的借口!