以ChatGPT為代表的人工智能生成技術(shù)帶來(lái)的變革,將對基于現有研究范式的科研誠信建設提出新挑戰。應從人、政策、技術(shù)三個(gè)維度引導學(xué)術(shù)工作者合理使用技術(shù),加強科研誠信監管。
ChatGPT是人工智能生成技術(shù)AIGC(Artificial Intelligence Generated Content)的一款具體應用和產(chǎn)品,是一款人工智能對話(huà)系統,自2022年11月30日被推出以來(lái),引起科技工作者對AIGC技術(shù)的廣泛關(guān)注。AIGC技術(shù)是通過(guò)人工智能算法使用大量數據訓練的模型自動(dòng)生成文本、音頻、圖像、視頻等內容的技術(shù),可完成文本交互、AI繪圖、視頻編輯、生成代碼等任務(wù),目前已在媒體、設計與制圖、在線(xiàn)教育、游戲開(kāi)發(fā)等多個(gè)領(lǐng)域都有應用,實(shí)現了圖像、文本之間的跨模態(tài)數據的生成,未來(lái)將會(huì )有更多跨模態(tài)的應用。
AIGC技術(shù)為科研人員提供了功能強大的工具,助力科學(xué)研究
AIGC人工智能生成技術(shù)可實(shí)現跨學(xué)科、跨語(yǔ)種、跨模態(tài)的數據資源的訪(fǎng)問(wèn)與處理,通過(guò)與科研人員的對話(huà)不斷學(xué)習、優(yōu)化,輔助科研人員開(kāi)展科學(xué)研究,快速解決相關(guān)科研任務(wù):
頭腦風(fēng)暴:AIGC技術(shù)具備大數據快速處理能力,可實(shí)現已有數據的檢索、推薦、發(fā)現和融合,為科研人員提供靈感、素材或信息支持等,有助于挖掘潛在的、更具深度的研究?jì)热莺退悸贰?/span>
文獻綜述:AIGC技術(shù)具備跨學(xué)科、多模態(tài)知識的關(guān)聯(lián)處理等能力,可以輔助科研人員更加全面地理解知識,快速提煉核心內容。
內容生成與編輯:AIGC等人工智能技術(shù)能根據科研人員的要求快速生成文本、代碼、圖像等工作,輔助完成自動(dòng)摘要、關(guān)鍵詞提取、語(yǔ)言潤色、機器翻譯等工作。
可視化和智能互動(dòng):AIGC技術(shù)支持可視化呈現及建立多樣化的智能模型,實(shí)現人機互動(dòng),有助于將復雜信息以更易于理解和交流的形式呈現,輔助研究人員直觀(guān)、互動(dòng)式地展示研究樣品、分析數據、研究成果等。
AIGC技術(shù)對科研誠信建設提出新挑戰
科學(xué)技術(shù)是一把雙刃劍。3月底,埃隆·馬斯克等2800多人簽名的一封公開(kāi)信認為,當前人工智能研究未能正視阿西洛馬人工智能原則,并提出了若干令人深刻思考的問(wèn)題。AIGC技術(shù)帶來(lái)研究范式的變革將對基于現有研究范式的科研誠信建設提出新挑戰。
AIGC等人工智能技術(shù)的實(shí)現基礎和使用過(guò)程均缺乏透明度。AIGC技術(shù)應用依賴(lài)于大量的數據,而數據源缺乏透明度必然會(huì )引起人們對于結論的懷疑。AIGC生成的內容缺乏對于數據源的引用,影響了科學(xué)研究的透明性,一方面這可能會(huì )引發(fā)生成內容的抄襲剽竊與知識產(chǎn)權糾紛,另一方面,AIGC技術(shù)的濫用或非誠信的使用,可能導致科研人員簡(jiǎn)單地將AIGC生成的內容作為自己的研究成果,抑制了真正的科技創(chuàng )新。
AIGC技術(shù)生成內容的真實(shí)性和可靠性讓人擔憂(yōu)。AIGC技術(shù)僅僅是一個(gè)統計模型,無(wú)法產(chǎn)生原創(chuàng )性想法,因此不能完全或者深入理解提示內容的含義,因此可能會(huì )生成看似合理實(shí)則虛假的信息,并產(chǎn)生道德層面的問(wèn)題,使科研的創(chuàng )新性和可靠性受到抑制。如2022年12月,一個(gè)程序員互問(wèn)互答的熱門(mén)論壇Stack Overflow臨時(shí)禁用了ChatGPT,因為管理者發(fā)現一些用戶(hù)上傳了大量由大型語(yǔ)言模型生成的回答,錯誤率很高。
AIGC技術(shù)的濫用可能引發(fā)更為嚴重的科研失信行為。AIGC技術(shù)可以通過(guò)排列組織預訓練數據生成文本、圖像、數據、代碼、視頻等,這些內容可能會(huì )形成論文或項目申請書(shū),存在觀(guān)點(diǎn)剽竊等隱患,也極易引發(fā)新形式的論文代寫(xiě)、抄襲剽竊、洗稿等學(xué)術(shù)不端行為。根據Retraction Watch的數據統計,自2021年截止到2023年7月6日共有914篇因“Randomly Generated Content(隨機生成的內容)”原因被撤稿,約占近三年來(lái)撤稿論文總數的8.34%。
AIGC技術(shù)對科研失信行為的識別和科研誠信監管形成新挑戰。當下的AIGC技術(shù)生成內容無(wú)法明確知識來(lái)源,加上更加隱蔽的虛假數據“成果”,洗稿、新形式的論文代寫(xiě)等學(xué)術(shù)不端行為,原有的相似度查重和圖像識別等技術(shù)逐漸失效,加大了識別這些學(xué)術(shù)不端行為的難度。AIGC生成內容具有迷惑性,可能會(huì )在已發(fā)表的文獻中引入虛假或剽竊的內容,而同行評議專(zhuān)家具備的知識存儲與核查精力是有限的,可能無(wú)法檢測到AIGC技術(shù)生成的內容。在最近的一項研究中,學(xué)術(shù)評議專(zhuān)家僅能發(fā)現63%由ChatGPT創(chuàng )建的摘要。
科技界教育界出版界制定政策采取措施應對快速發(fā)展的AIGC技術(shù)
ChatGPT及人工智能生成技術(shù)給科學(xué)研究帶來(lái)多重便利與挑戰被社會(huì )各界熱議,對于教育界和出版界的影響最為直接。
學(xué)校與教育機構發(fā)表聲明、出臺規范,引導規范使用ChatGPT及人工智能生成技術(shù)。據調查,全球已有超過(guò)20所大學(xué)或教育機構對ChatGPT的使用作出回應。多數機構針對ChatGPT的使用標準進(jìn)行界定,一些機構對于涉及ChatGPT的引用與署名標準、使用指南等發(fā)表相關(guān)聲明與建議。如,美國普林斯頓大學(xué)、德國赫蒂管理學(xué)院及澳大利亞昆士蘭大學(xué)等一致肯定了人工智能生成工具對教育領(lǐng)域產(chǎn)生的積極影響,鼓勵教員與學(xué)生嘗試使用人工智能工具,以創(chuàng )新的方式獲取和組織知識。與此同時(shí),從人工智能使用范圍、使用規范及方法等方面進(jìn)行規范,強調應如何負責任地使用ChatGPT。香港大學(xué)對ChatGPT使用條款和條件進(jìn)行界定,聲明ChatGPT的使用僅限于工作與研究用途。此外,英國劍橋大學(xué),強調在學(xué)術(shù)成果中闡明人工智能貢獻的必要性,加拿大滑鐵盧大學(xué)等對如何引用人工智能生成工具進(jìn)行規范。
出版機構對ChatGPT持謹慎態(tài)度。眾多國際知名出版機構對于ChatGPT署名問(wèn)題表達了否定態(tài)度。《自然》和《科學(xué)》雜志都已明確,ChatGPT不符合列為作者的標準。物理科學(xué)預印本平臺arXiv的董事會(huì )已經(jīng)進(jìn)行了內部討論,一致認為軟件工具不能成為提交內容的作者。施普林格·自然(Springer Nature)于2023年1月24日在《自然》發(fā)表社論稱(chēng)“ChatGPT等工具威脅著(zhù)科學(xué)的透明性”;愛(ài)思唯爾(荷蘭多媒體出版集團)制定《關(guān)于人工智能和人工智能輔助技術(shù)在科研寫(xiě)作中的應用政策》,設定相關(guān)技術(shù)的使用邊界。國際出版倫理委員會(huì )(COPE)發(fā)表了“關(guān)于使用AI工具的立場(chǎng)聲明”,指出“作者如果在撰寫(xiě)稿件、制作圖片或論文中的圖形元素、或收集和分析數據時(shí)使用了AI工具,必須在論文的材料和方法(或類(lèi)似部分)中明確說(shuō)明如何使用AI工具以及使用了哪種AI工具。” 美國心理學(xué)協(xié)會(huì )和現代語(yǔ)言協(xié)會(huì )分別給出了引用ChatGPT及生成式人工智能工具生成內容的APA格式和MLA格式的引用規范。
科技界努力研發(fā)“AI生成內容”的檢測工具,防范技術(shù)濫用。在應對AIGC技術(shù)對科研誠信建設帶來(lái)的挑戰時(shí),有一個(gè)關(guān)鍵的技術(shù)問(wèn)題:AI生成的內容是否能被發(fā)現?許多科研人員正在進(jìn)行這方面的研究,目前主要有兩種解決思路,一種是研發(fā)能夠識別AI生成內容的軟件。美國Turnitin公司研制一款合成文本檢測器,其表示該工具經(jīng)過(guò)學(xué)術(shù)寫(xiě)作訓練,可以識別由ChatGPT生成的97%的文本,誤報率為1%。斯坦福大學(xué)開(kāi)發(fā)了“DetectGPT”來(lái)檢測文章是否由AI生成,普林斯頓大學(xué)開(kāi)發(fā)出了針對ChatGPT生成內容的檢測工具——“GPT歸零”(GPTZero)。另一種比較簡(jiǎn)單的方法是給AI內容加水印。2022年11月,Aaronson宣布其和OpenAI正在研究給ChatGPT生成的內容加水印的方法。近日,新華網(wǎng)聯(lián)合中科院計算所等行業(yè)機構共同研發(fā)打造的“生成式人工智能內容安全與模型安全檢測平臺” (AIGC-Safe)已經(jīng)公開(kāi)邀請測試,該平臺可對文本、圖片、音頻、視頻等多模態(tài)AI生成或偽造的素材進(jìn)行檢測。
從科研人員、政策、技術(shù)三個(gè)維度引導合理使用AIGC技術(shù)加強科研誠信監管
針對AIGC技術(shù)對科研誠信建設帶來(lái)的新挑戰,筆者從自律為本,政策先行,技術(shù)防范三個(gè)方面提出建議,積極應對挑戰。
自律為本,加強教育,強化科技工作者的責任意識和誠信意識。人工智能時(shí)代,學(xué)術(shù)不端行為更加隱蔽,形式更加多樣,加強科研人員的自律意識是加強科研誠信建設的根本。引導科研人員自覺(jué)遵守道德規范,秉持實(shí)事求是、追逐真理的科學(xué)精神,誠實(shí)、透明地使用人工智能工具,提高科研人員的自律意識。
政策先行,加強指引,引導AIGC技術(shù)的合理、透明使用。建議組織科研誠信、人工智能技術(shù)開(kāi)發(fā)等相關(guān)學(xué)科專(zhuān)家力量開(kāi)展專(zhuān)題研究,圍繞科技活動(dòng)全流程,制定AIGC技術(shù)的合理使用邊界,促使政策層面靠前發(fā)力,引導人們科學(xué)、合理、透明地使用AIGC技術(shù),規避、防范可能引發(fā)的誠信風(fēng)險,防止技術(shù)的誤用與濫用。
技術(shù)防范,加強約束,借助AI技術(shù)推動(dòng)科研誠信建設。“以子之矛,攻子之盾”。采取“以技術(shù)打敗技術(shù)”的戰術(shù),鼓勵開(kāi)發(fā)人工智能生成內容的檢測工具,為識別和鑒定“AI生成內容”提供抓手和依據,對于恣意使用人工智能生成內容形成一定震懾作用。同時(shí),探索借助人工智能技術(shù)用于識別買(mǎi)賣(mài)論文、掠奪性期刊、套牌會(huì )議等學(xué)術(shù)不端行為的識別,助力科研誠信建設。