国产精品美女久久久久网,国产欧美日韩精品在线,日本久久一区二区,日本欧美韩国专区

學(xué)術(shù)界人工智能使用亟待科學(xué)規(guī)范
2024年10月16日 10:46 來源:《中國社會科學(xué)報(bào)》2024年10月16日第2993期 作者:本報(bào)記者 練志閑

  生成式人工智能正以其獨(dú)特的能力和廣泛的應(yīng)用前景,深刻改變著各行各業(yè)。學(xué)術(shù)領(lǐng)域應(yīng)當(dāng)如何應(yīng)對生成式人工智能帶來的影響?我們是否真正理解了生成式人工智能的本質(zhì)?又該如何在科學(xué)研究中合理、規(guī)范地使用這一技術(shù)以確保科學(xué)的誠信與責(zé)任不受侵蝕?圍繞這些問題,本報(bào)記者采訪了愛爾蘭都柏林圣三一學(xué)院計(jì)算機(jī)科學(xué)與統(tǒng)計(jì)學(xué)院兼職助理教授阿貝巴·比爾哈內(nèi)(Abeba Birhane),從理解生成式人工智能出發(fā),探討新技術(shù)對科研的影響、學(xué)術(shù)界對規(guī)范該技術(shù)所做的努力,以及未來的責(zé)任歸屬等問題。

  深刻理解生成式人工智能本質(zhì)

  生成式人工智能是一項(xiàng)顛覆性的技術(shù),學(xué)術(shù)界是受此影響最大的領(lǐng)域之一。對于追求效率的研究者而言,生成式人工智能或許是一個(gè)節(jié)省時(shí)間的利器。但是,比爾哈內(nèi)對記者表示,學(xué)者需要清楚科學(xué)研究的核心價(jià)值在于促使學(xué)者進(jìn)行深入的學(xué)術(shù)思考、闡釋研究結(jié)果并創(chuàng)造社會價(jià)值,而非單純追求出版物的數(shù)量。因此,盲目依賴生成式人工智能產(chǎn)出內(nèi)容,與科學(xué)的可信性原則背道而馳。

  在科研中能否運(yùn)用生成式人工智能是一個(gè)具有爭議性的話題。一方面,人們認(rèn)為生成式人工智能具備強(qiáng)大的數(shù)據(jù)處理與分析能力,能夠迅速處理海量信息,輔助科學(xué)家發(fā)現(xiàn)新模式、新趨勢等,從而加速科研進(jìn)程。另一方面,也有人擔(dān)憂生成式人工智能的廣泛應(yīng)用會削弱科研的嚴(yán)謹(jǐn)性與創(chuàng)新性。

  針對這個(gè)問題,比爾哈內(nèi)認(rèn)為首要任務(wù)是深刻理解生成式人工智能的本質(zhì),而非盲目輕信那些從該技術(shù)中獲利的公司或個(gè)人所宣揚(yáng)的夸大之詞。全面認(rèn)識并正視生成式人工智能存在的多種問題,例如高額能源消耗、數(shù)據(jù)泄露風(fēng)險(xiǎn)、對人工勞動補(bǔ)償不足以及技術(shù)本身的不穩(wěn)定性,是理解該技術(shù)不可或缺的一環(huán)。唯有如此,科學(xué)家、學(xué)者及相關(guān)機(jī)構(gòu)才能就這一技術(shù)在學(xué)術(shù)領(lǐng)域的運(yùn)用作出明智的抉擇。

  比爾哈內(nèi)表示,要評估生成式人工智能對于學(xué)術(shù)研究的利弊,需要將其視為一個(gè)過程(該過程資源密集且勞動力密集)和一個(gè)產(chǎn)品(關(guān)注其產(chǎn)出的質(zhì)量),同時(shí)考慮哪些科學(xué)研究領(lǐng)域可能因生成式人工智能的融入而獲益或受到損害。

  生成式人工智能系統(tǒng)需要大量的訓(xùn)練數(shù)據(jù),比爾哈內(nèi)表示,遺憾的是,現(xiàn)在出現(xiàn)許多相關(guān)法律訴訟,說明訓(xùn)練數(shù)據(jù)的方式可能觸及法律底線,既未經(jīng)數(shù)據(jù)所有者的許可,也未給予他們應(yīng)有的補(bǔ)償,系統(tǒng)擅自將他們的數(shù)字足跡與互動信息搜集起來成為訓(xùn)練素材。這些數(shù)據(jù)本身也存在很多問題,例如編碼偏見、歷史和社會成見等。更為嚴(yán)峻的問題是,系統(tǒng)運(yùn)行消耗巨額的電力。美國高盛集團(tuán)近期一份分析報(bào)告將這種前所未有的能源需求形容為“近幾十年來未曾目睹的電力激增”。

  比爾哈內(nèi)在采訪中強(qiáng)調(diào),在評估生成式人工智能是否帶來效益時(shí),不能忽視其巨大的能源消耗,因?yàn)檫@實(shí)際上加劇了破壞環(huán)境的步伐。同時(shí),由于存在近乎非法的數(shù)據(jù)采集行為,這些系統(tǒng)的訓(xùn)練數(shù)據(jù)來源以及背后所涉及的勞動力剝削問題,都未能得到有效解決。

  比爾哈內(nèi)表示,科學(xué)研究的基石在于透明度、可重復(fù)性、可驗(yàn)證性、可復(fù)現(xiàn)性以及問責(zé)制。這些核心原則構(gòu)成了科學(xué)知識可信度的牢固基礎(chǔ),然而在生成式人工智能(既作為過程也作為產(chǎn)品)中,這些原則幾乎并不存在。多數(shù)生成式人工智能系統(tǒng)的訪問受到限制,因此對其進(jìn)行嚴(yán)格評估變得困難重重,進(jìn)而難以準(zhǔn)確判斷這類系統(tǒng)對科學(xué)研究的真正價(jià)值。此外,生成式人工智能系統(tǒng)的不可靠性也廣泛存在。它們所生成的文本看似真實(shí),實(shí)則根本不存在,這種現(xiàn)象被學(xué)者們稱作“幻覺”。盡管當(dāng)前生成式人工智能在科學(xué)研究中的應(yīng)用正在迅速增多,但是科研人員對于其優(yōu)勢、弊端及后續(xù)影響的研究仍然較為匱乏。

  規(guī)范科研中人工智能的使用

  為了在人工智能時(shí)代更好地保護(hù)科學(xué)誠信和維護(hù)科學(xué)責(zé)任,一些高校和組織已經(jīng)開始制定指南來規(guī)范科研中生成式人工智能的使用。例如2024年3月,歐洲學(xué)術(shù)界制定了一套關(guān)于在研究中使用生成式人工智能的指導(dǎo)方針,荷蘭拉德堡德大學(xué)也明確了生成式人工智能使用規(guī)范,以及學(xué)者在確保研究嚴(yán)謹(jǐn)性方面所承擔(dān)的責(zé)任。

  近期,美國國家科學(xué)院和賓夕法尼亞大學(xué)安納伯格公共政策中心等機(jī)構(gòu)共同召集了一個(gè)由學(xué)術(shù)界、政府部門和其他行業(yè)經(jīng)驗(yàn)豐富的專家組成的跨學(xué)科小組,成員包括行為和社會科學(xué)、倫理學(xué)、生物學(xué)、物理學(xué)、化學(xué)、數(shù)學(xué)和計(jì)算機(jī)科學(xué)領(lǐng)域的專家,以及高等教育、法律、管理、科學(xué)出版和傳播領(lǐng)域的領(lǐng)導(dǎo)者。他們共同探討在研究中使用生成式人工智能所帶來的挑戰(zhàn)。隨后,該小組在《美國國家科學(xué)院院刊》上發(fā)表的社論中,提出要在人工智能時(shí)代保護(hù)科學(xué)的完整性,呼吁學(xué)術(shù)界堅(jiān)定不移地遵守科學(xué)的指導(dǎo)準(zhǔn)則和價(jià)值觀。他們在先前研究的基礎(chǔ)上,公布了在科學(xué)研究中使用生成式人工智能應(yīng)遵循的一些原則。

  第一,公開透明,學(xué)者應(yīng)明確在研究中使用生成式人工智能的情況,包括所使用的具體工具、算法及配置細(xì)節(jié);區(qū)分貢獻(xiàn),準(zhǔn)確說明文本及想法的來源是人類還是人工智能,區(qū)分兩者及其各自的貢獻(xiàn);準(zhǔn)確引用,確保即使在生成式人工智能未提供引用的情況下,也能識別并引用人類專家的知識和已發(fā)表文獻(xiàn)。對于模型的開發(fā)者而言,應(yīng)當(dāng)提供可公開獲取的模型細(xì)節(jié),包括用于訓(xùn)練或改進(jìn)模型的數(shù)據(jù);仔細(xì)管理和發(fā)布有關(guān)模型及其衍生版本的信息,以便為學(xué)者提供具體引用特定模型的方法;提供模型的長期存檔,便于進(jìn)行復(fù)制研究;在生成內(nèi)容的歸屬不明確時(shí)主動披露;在學(xué)習(xí)、推理和信息檢索機(jī)制方面進(jìn)行創(chuàng)新,幫助用戶追蹤人工智能生成內(nèi)容的數(shù)據(jù)來源和作者。

  第二,學(xué)者需對使用生成式人工智能模型所獲得的數(shù)據(jù)、圖像及推論的準(zhǔn)確性承擔(dān)全部責(zé)任。學(xué)者不但應(yīng)當(dāng)采用恰當(dāng)?shù)尿?yàn)證方法來確保生成式人工智能形成的推論的準(zhǔn)確性和可靠性,而且應(yīng)持續(xù)監(jiān)測和測試生成式人工智能算法及其輸出,以識別和糾正可能影響研究結(jié)果或解釋的偏差。對于模型開發(fā)者而言,應(yīng)公開系統(tǒng)在驗(yàn)證人工智能生成內(nèi)容真實(shí)性方面的能力限制,當(dāng)無法核實(shí)生成內(nèi)容的真實(shí)性時(shí),模型輸出應(yīng)附帶清晰、校準(zhǔn)準(zhǔn)確的置信度評估。模型開發(fā)者還應(yīng)主動識別、報(bào)告并采取措施糾正生成式人工智能算法中存在的可能影響研究結(jié)果或解釋的偏差。

  第三,記錄人工智能生成的數(shù)據(jù)。在使用人工智能生成的數(shù)據(jù)、推論和圖像時(shí),學(xué)者需要注明來源和人工智能扮演的角色,確保讀者不會將其誤認(rèn)為實(shí)際觀測結(jié)果。同時(shí),學(xué)者自己也應(yīng)避免將人工智能生成的內(nèi)容誤認(rèn)為是真實(shí)世界收集的實(shí)際數(shù)據(jù)。模型開發(fā)者則應(yīng)識別、標(biāo)注訓(xùn)練過程中數(shù)據(jù)的來源,確保數(shù)據(jù)的可追溯性,同時(shí)還要監(jiān)控在后續(xù)模型訓(xùn)練中重復(fù)使用生成內(nèi)容可能引發(fā)的問題、關(guān)注點(diǎn)及行為模式。

  第四,科學(xué)家與模型開發(fā)者應(yīng)采取有效措施,確保生成式人工智能的應(yīng)用能產(chǎn)出科學(xué)上合理且對社會有益的結(jié)果,并采取措施降低潛在風(fēng)險(xiǎn)。科學(xué)家與模型開發(fā)者應(yīng)遵守生成式人工智能使用的道德規(guī)范,并在構(gòu)建與使用生成式人工智能系統(tǒng)時(shí)發(fā)現(xiàn)并減少潛在偏見。他們還應(yīng)該持續(xù)關(guān)注生成式人工智能進(jìn)一步開發(fā)與應(yīng)用可能帶來的其他社會影響,并更新實(shí)踐與規(guī)則,以促進(jìn)有益使用且降低社會危害的可能性。科學(xué)家、模型開發(fā)者與政策制定者應(yīng)共同推動生成式人工智能系統(tǒng)在解決問題與滿足需求方面的公平性,讓更多的社區(qū)都能有效利用人工智能系統(tǒng)。研究人員呼吁學(xué)術(shù)界要建立相關(guān)的監(jiān)管機(jī)構(gòu),在把握生成式人工智能為科學(xué)領(lǐng)域帶來契機(jī)的同時(shí),警惕其存在的風(fēng)險(xiǎn)。

  共同承擔(dān)責(zé)任

  學(xué)術(shù)界應(yīng)有主動捍衛(wèi)科學(xué)規(guī)范與價(jià)值觀的責(zé)任,并恪守現(xiàn)行指導(dǎo)原則與法規(guī),同時(shí)積極參與公共與私人領(lǐng)域的生成式人工智能治理規(guī)則的制定。其中,治理工作必然包含公眾教育,提升公眾對生成式人工智能在科學(xué)中應(yīng)用的認(rèn)知與價(jià)值理解。比爾哈內(nèi)堅(jiān)信,當(dāng)大學(xué)與研究機(jī)構(gòu)在學(xué)術(shù)探索中引入生成式人工智能時(shí),必須制定一套指導(dǎo)原則。該原則應(yīng)細(xì)致規(guī)劃哪些研究階段或領(lǐng)域能得益于生成式人工智能的輔助,同時(shí)明確哪些環(huán)節(jié)應(yīng)堅(jiān)決規(guī)避其使用,比如構(gòu)思創(chuàng)意、文獻(xiàn)回顧、內(nèi)容提煉、數(shù)據(jù)解析、情境構(gòu)建及文稿撰寫等。大學(xué)與研究機(jī)構(gòu)需清晰界定并論證生成式人工智能系統(tǒng)在科學(xué)研究各階段的應(yīng)用價(jià)值及其潛在風(fēng)險(xiǎn)。尤為重要的是,要揭開生成式人工智能的“神秘面紗”,向年輕一代及青年學(xué)者普及相關(guān)知識,并闡述為何過度依賴此類系統(tǒng)可能會侵蝕科學(xué)研究的根本原則,即獨(dú)立思考、深刻理解、對前人成果的尊重以及對個(gè)人研究的責(zé)任感。鑒于當(dāng)前生成式人工智能產(chǎn)業(yè)的蓬勃發(fā)展主要驅(qū)動力在于宣傳炒作,揭露炒作背后的真相、教育青年學(xué)者具備批判性思維,顯得尤為迫切與重要。

  美國國家科學(xué)院和賓夕法尼亞大學(xué)安納伯格公共政策中心等機(jī)構(gòu)組成的研究小組也提到,要規(guī)范學(xué)術(shù)研究中人工智能的使用,同時(shí)科學(xué)家應(yīng)攜手產(chǎn)業(yè)界、政府和民間組織的代表,持續(xù)監(jiān)測和評估人工智能對科學(xué)進(jìn)程的影響,并在確保透明度的前提下,根據(jù)需要調(diào)整策略以保持科學(xué)誠信。鑒于人工智能技術(shù)的飛速發(fā)展,學(xué)術(shù)界需要持續(xù)研究其能力、局限性和影響。人工智能科學(xué)家也應(yīng)致力于提高人工智能在科學(xué)領(lǐng)域的有效性,解決數(shù)據(jù)真實(shí)性、歸屬和透明度等挑戰(zhàn)。不但在各部門內(nèi)部開展工作,還要進(jìn)行跨部門合作,持續(xù)研究人工智能在科學(xué)領(lǐng)域的應(yīng)用現(xiàn)狀和趨勢。在人工智能開發(fā)、應(yīng)用和監(jiān)管的各個(gè)階段,應(yīng)采取有意義的方式吸引公眾的參與和介入,確保技術(shù)發(fā)展與社會價(jià)值觀和需求相一致。最終,這些參與和研究的成果應(yīng)當(dāng)?shù)玫綇V泛傳播,以增進(jìn)社會對這些成果的整體理解和認(rèn)知。

責(zé)任編輯:張晶
二維碼圖標(biāo)2.jpg
重點(diǎn)推薦
最新文章
圖  片
視  頻

友情鏈接: 中國社會科學(xué)院官方網(wǎng)站 | 中國社會科學(xué)網(wǎng)

網(wǎng)站備案號:京公網(wǎng)安備11010502030146號 工信部:京ICP備11013869號

中國社會科學(xué)雜志社版權(quán)所有 未經(jīng)允許不得轉(zhuǎn)載使用

總編輯郵箱:zzszbj@126.com 本網(wǎng)聯(lián)系方式:010-85886809 地址:北京市朝陽區(qū)光華路15號院1號樓11-12層 郵編:100026