|
隨著科研人員邁入高級(jí)對(duì)話AI的新世界,出版機(jī)構(gòu)必須認(rèn)可它們的合法使用,并為防止濫用制定清晰準(zhǔn)則。 多年來(lái),人工智能(AI)已能熟練使用語(yǔ)言,生成的文本與人類(lèi)組織的語(yǔ)言難分伯仲。去年,《自然》報(bào)道過(guò)一些科研人員將對(duì)話機(jī)器人作為科研助手,幫助組織他們的想法,生成對(duì)工作的反饋,協(xié)助寫(xiě)代碼,以及匯總研究文獻(xiàn)(Nature 611, 192–193; 2022)。 然而,11月推出的對(duì)話AI ChatGPT,將這類(lèi)統(tǒng)稱為大型語(yǔ)言模型(LLM)的工具帶到了更多用戶的面前。開(kāi)發(fā)該工具的美國(guó)加州公司OpenAI讓 ChatGPT免費(fèi)使用,即使不懂技術(shù)的用戶也能輕松上手。這個(gè)軟件的用戶已達(dá)上百萬(wàn)乃至上千萬(wàn),產(chǎn)生了大量有趣甚至?xí)r而令人害怕的寫(xiě)作實(shí)驗(yàn),激發(fā)了人們對(duì)這些工具日漸增長(zhǎng)的激動(dòng)和畏懼情緒。 ChatGPT能寫(xiě)出漂亮的學(xué)生論文,概括論文摘要,回答問(wèn)題的水平能通過(guò)醫(yī)學(xué)專(zhuān)業(yè)考試,還能生成有意義的程序代碼。ChatGPT編寫(xiě)的研究摘要已經(jīng)好到科研人員也難以發(fā)現(xiàn)作者竟然是計(jì)算機(jī)。但人類(lèi)社會(huì)需要擔(dān)心的是,ChatGPT也會(huì)讓垃圾郵件、勒索軟件等惡意內(nèi)容更容易產(chǎn)生。雖然OpenAI已經(jīng)嘗試對(duì)ChatGPT的能力范圍進(jìn)行限制,但用戶顯然找到了突破這些限制的方法。 科研圈面臨的一個(gè)嚴(yán)重問(wèn)題是,學(xué)生和科研人員會(huì)謊稱LLM生成的文章是他們自己寫(xiě)的,或是以過(guò)分簡(jiǎn)化的方式利用LLM(如很片面的文獻(xiàn)綜述)來(lái)產(chǎn)出很不可靠的工作。已有多篇預(yù)印本論文和正式發(fā)表的論文以正式署名的方式來(lái)承認(rèn)ChatGPT的貢獻(xiàn)。 這便是為何研究人員和出版機(jī)構(gòu)應(yīng)當(dāng)立即制定準(zhǔn)則,規(guī)定如何使用LLM才是合乎道德的?!蹲匀弧泛退惺┢樟指瘛ぷ匀坏钠诳贫艘韵聝蓷l準(zhǔn)則,并加入了我們最新版的作者指南(見(jiàn)go.nature.com/3j1jxsw,或掃描文末二維碼)中。根據(jù)《自然》新聞團(tuán)隊(duì)的報(bào)道,其他科研出版機(jī)構(gòu)也會(huì)采取類(lèi)似立場(chǎng)。 第一條,不接受任何LLM工具作為對(duì)研究論文有貢獻(xiàn)的作者。這是因?yàn)槭鹈麢?quán)意味著對(duì)研究負(fù)有責(zé)任,而AI工具無(wú)法擔(dān)負(fù)這種責(zé)任。 第二條,使用LLM工具的研究人員應(yīng)在方法或致謝單元里聲明。如果論文中沒(méi)有這兩個(gè)單元,也可以在前言或其他合適的部分說(shuō)明對(duì)LLM的使用。 模式識(shí)別 編輯和出版機(jī)構(gòu)能發(fā)現(xiàn)哪些內(nèi)容是由LLM生成的嗎?現(xiàn)在的回答是“有可能”。如果仔細(xì)檢查,ChatGPT生成的原始內(nèi)容是有蛛絲馬跡的,尤其是在涉及多個(gè)段落且主題與科研內(nèi)容有關(guān)的時(shí)候。這是因?yàn)長(zhǎng)LM主要根據(jù)訓(xùn)練數(shù)據(jù)中的統(tǒng)計(jì)關(guān)聯(lián)和它們看到的“提示”(prompt)來(lái)歸納詞匯模式,意味著它們輸出的內(nèi)容可能會(huì)淡而無(wú)味,還會(huì)出現(xiàn)低級(jí)錯(cuò)誤。此外,他們也無(wú)法索引輸出內(nèi)容的來(lái)源。 但在將來(lái),AI研究人員或能找到克服這些問(wèn)題的辦法,已有一些實(shí)驗(yàn)在嘗試結(jié)合對(duì)話機(jī)器人和引用來(lái)源的工具,還有一些實(shí)驗(yàn)在訓(xùn)練對(duì)話機(jī)器人處理專(zhuān)業(yè)性的科學(xué)文本。 有些工具或能用來(lái)分辨出由LLM生成的內(nèi)容,而《自然》的出版機(jī)構(gòu)——施普林格·自然也是正在開(kāi)發(fā)這些技術(shù)的出版社之一。但LLM還會(huì)升級(jí),而且進(jìn)步速度非常快。有人希望LLM的發(fā)明者能以某種方式在其生成內(nèi)容上加水印,但這在技術(shù)上也不能保證萬(wàn)無(wú)一失。 從最初開(kāi)始,科學(xué)的運(yùn)作就需要對(duì)方法和證據(jù)保持開(kāi)放和透明,無(wú)論時(shí)下風(fēng)靡哪種技術(shù)。如果研究人員和他們的同事使用以根本上不透明的方式工作的軟件,他們就應(yīng)該問(wèn)問(wèn)自己:產(chǎn)生知識(shí)的過(guò)程所依賴的透明度和可信度還能在多大程度上得到保證? 這也是為何《自然》要在現(xiàn)在推出這些準(zhǔn)則:歸根結(jié)底,科研必須在研究方法上保持透明,還需要作者堅(jiān)持科研誠(chéng)信和真理。因?yàn)榈筋^來(lái),這才是科學(xué)賴以進(jìn)步的根本。 原文以Tools such as ChatGPT threaten transparent science; here are our ground rules for their use標(biāo)題發(fā)表在2023年1月24日《自然》的社論版塊上 ? nature doi: 10.1038/d41586-023-00191-1 |
|
|