英國《新科學(xué)家》周刊網(wǎng)站8月7日文章,原題:人工智能聊天機(jī)器人能否受到“說真話”法律義務(wù)的約束人們能要求人工智能講真話嗎?或許不能,但一個倫理學(xué)家團(tuán)隊表示,從法律上來說,人工智能開發(fā)商應(yīng)該承擔(dān)減少犯錯風(fēng)險的責(zé)任。“我們只是在嘗試創(chuàng)建一種激勵構(gòu)架,讓公司在創(chuàng)建(大語言模型)系統(tǒng)時更重視真實性或準(zhǔn)確性,”牛津大學(xué)倫理學(xué)家布倫特·米特爾施塔特說。
基于對大量文本的統(tǒng)計分析,大語言模型聊天機(jī)器人,例如ChatGPT能對用戶提出的問題生成類似人類的回答。然而,盡管它們的答案通常看起來令人信服,但也容易出錯,這是一種被稱為“幻覺”的缺陷。米特爾施塔特說:“我們擁有這些極其令人印象深刻的生成式人工智能系統(tǒng),但它們也會頻繁出錯,從我們對這種系統(tǒng)基本機(jī)能的了解來看,沒有根本的解決方法。”
米特爾施塔特表示,對大語言模型系統(tǒng)來說,這是一個重大問題,因為它們正在被應(yīng)用于政府決策,在這種情況下,它們誠實地承認(rèn)自己的知識局限性就變得至關(guān)重要。為解決這個問題,他們提出一系列應(yīng)對措施:當(dāng)被問及與事實有關(guān)的問題時,人工智能應(yīng)該像人一樣。這意味著它們要誠實,秉持“知之為知之,不知為不知,是知也”的態(tài)度。“要點在于采取必要步驟,讓它們真正做到謹(jǐn)言慎行,”米特爾施塔特說,“如果對某件事不確定,它們不要只是為了讓人們信服而編造一些東西。相反,它們應(yīng)該說,‘嘿,你知道嗎?我不知道。讓我來研究一下。我會回復(fù)你的。’”
這似乎是一個值得稱贊的目標(biāo),但在英國德蒙福特大學(xué)網(wǎng)絡(luò)安全教授伊爾克·鮑伊騰看來,倫理學(xué)家提出的這些要求在技術(shù)上未必可行。開發(fā)商正嘗試讓人工智能實事求是,但到目前為止,事實證明這是一項極其“勞動密集型”的任務(wù),甚至不切實際。“我不明白,他們怎么期望法律要求強(qiáng)制執(zhí)行這種命令,我認(rèn)為這在技術(shù)上根本行不通,”鮑伊騰說。
為此,米特爾施塔特及其同事們提出一些更直接的措施,可能使人工智能更“誠實”。他說,這些模型應(yīng)該列出答案的信息源,目前許多模型都在這樣做以證明它們給出答案的可信度,此外,更廣泛地使用一種被稱為“檢索增強(qiáng)”的技術(shù)來給出答案,也可能限制這些模型產(chǎn)生“幻覺”的可能性。他還認(rèn)為,應(yīng)該縮減在政府決策等高風(fēng)險領(lǐng)域部署人工智能的規(guī)模,或者應(yīng)該限制模型可利用的信息源。“如果我們有一個僅在醫(yī)學(xué)中使用的語言模型,我們就應(yīng)該限制它,讓它只能在高質(zhì)量醫(yī)學(xué)期刊上搜索學(xué)術(shù)文章。”
米特爾施塔特聲稱,改變觀念也很重要,“如果我們能擺脫所謂(大語言模型)善于回答事實性問題、或者它們至少會給你一個可靠答案的想法,而是認(rèn)為它們有助于為你提供更多相關(guān)的信息,那就太好了。”
但荷蘭烏得勒支大學(xué)法學(xué)院副教授卡塔琳娜·戈安塔表示,這些研究人員過于關(guān)注技術(shù),因此對公共話語中長期存在的謊言問題關(guān)注不夠。“在這種背景下,僅將矛頭指向大語言模型會制造一種假象,即人類非常勤奮細(xì)致,永遠(yuǎn)不會犯此類錯誤。問問你遇到的任何法官,他們都遇到過律師玩忽職守的可怕經(jīng)歷,反之亦然——這并非一個機(jī)器的問題。”(作者克里斯·斯托克爾-沃克,王會聰譯)