国产精品美女久久久久网,国产欧美日韩精品在线,日本久久一区二区,日本欧美韩国专区

促進(jìn)人工智能在法律領(lǐng)域安全發(fā)展
2023年08月16日 14:24 來(lái)源:《中國社會(huì )科學(xué)報》2023年8月16日第2714期 作者:翁榕

  近年來(lái),人工智能技術(shù)在很多國家的法律領(lǐng)域得到不同范圍、不同深度的使用和發(fā)展,引發(fā)了各國法學(xué)界的熱烈討論,成為法學(xué)領(lǐng)域的熱點(diǎn)議題和法學(xué)期刊的熱點(diǎn)選題。人工智能在法律領(lǐng)域的適用必須接受法律本身的規范和治理。圍繞人工智能,特別是以ChatGPT為代表的通用人工智能給法律領(lǐng)域帶來(lái)的風(fēng)險和法律對這些風(fēng)險的回應,以及人工智能時(shí)代法律本身、法律職業(yè)、法學(xué)教育的發(fā)展等問(wèn)題,本報記者采訪(fǎng)了馬克斯·普朗克創(chuàng )新與競爭研究所高級研究員達莉亞·金(Daria Kim),美國商業(yè)雜志《福布斯》專(zhuān)欄作家、人工智能專(zhuān)家蘭斯·艾略特(Lance Eliot),明尼蘇達大學(xué)法學(xué)教授蔡曉峯(Jonathan H. Choi)。

  法律具有滯后性

  達莉亞·金在采訪(fǎng)中表示,在涉及可能對諸多領(lǐng)域產(chǎn)生變革性影響的新興技術(shù)時(shí),政策和立法決策有著(zhù)不可避免的滯后性。GPT-4在ChatGPT 3.5發(fā)布后僅幾個(gè)月便面世,但是,這種仍處于早期版本的技術(shù)以及一般意義上的大型語(yǔ)言模型(LLMs)可能會(huì )對社會(huì )互動(dòng)、創(chuàng )意寫(xiě)作、語(yǔ)言多樣性等造成什么樣的影響,人們了解得還不夠多。有些人認為,在某種程度上,突破性技術(shù)使得現有的監管框架變得過(guò)時(shí)或不再適用。但這種結論是基于“目的適用性”評估得出的,即將現有監管與法律框架對標政策目標所得出的結論。原則上,技術(shù)監管是為了最大限度地降低技術(shù)風(fēng)險,同時(shí)為社會(huì )帶來(lái)最大的技術(shù)效益。為此,政策制定者需要充分了解這些風(fēng)險和效益分別是什么。在新興技術(shù)領(lǐng)域,對新技術(shù)與現有法律法規的適用性評估所得出的結果具有或然性。沒(méi)有哪項技術(shù)是絕對安全的,就算進(jìn)行了大量試驗測試的技術(shù)也一樣,比如新推出的藥品。因此,歸根結底還是要花時(shí)間進(jìn)行包容性討論,在技術(shù)風(fēng)險和技術(shù)效益之間達到某種平衡。

  她表示,為了找到這樣一種平衡,需要花費一定的時(shí)間并進(jìn)行廣泛的討論。同時(shí),政策制定者和立法者需要在社會(huì )利益和風(fēng)險、生成式人工智能應用所帶來(lái)的監管挑戰、各國的政策目標以及合適的政策措施等方面達成共識。這是極具挑戰性的,歐盟人工智能法案的立法過(guò)程就是一個(gè)很好的例子,它表明,在如何貫徹安全可信賴(lài)人工智能理念、最佳水平的安全監管應當是什么,以及如何處理人工智能的通用技術(shù)特性等問(wèn)題上達成共識,需要花費漫長(cháng)的時(shí)間。但與此同時(shí),生成式人工智能領(lǐng)域的發(fā)展卻是躍進(jìn)式的,新技術(shù)不會(huì )等待社會(huì )達成共識。

  達莉亞·金說(shuō),不久前,曾有1000多名相關(guān)專(zhuān)家簽署聯(lián)名信強調了人工智能系統的潛在危險,包括其對社會(huì )、經(jīng)濟、政治的潛在影響和破壞,呼吁立即停止發(fā)展人工智能。像大型語(yǔ)言模型這樣的應用程序具有廣泛影響,其使用將影響人類(lèi)生活中涉及語(yǔ)言的所有領(lǐng)域。鑒于人工智能應用廣泛存在,試圖禁止使用人工智能可能會(huì )像用網(wǎng)捕捉風(fēng)一般徒勞無(wú)功。更可能的情況是,包括政策制定者和監管者在內的社會(huì )各界需要摸著(zhù)石頭過(guò)河,邊使用人工智能邊解決問(wèn)題。

  關(guān)于立法者是否應制定或修改法律以應對新挑戰的問(wèn)題,還需要在法律領(lǐng)域內進(jìn)行全面而有針對性的評估。由于像ChatGPT這樣的機器學(xué)習應用具有“通用技術(shù)”的特點(diǎn),無(wú)法就可能需要加以監管的使用行為進(jìn)行窮盡列舉。因此,很難為其設計監管框架。例如,生成式人工智能在知識產(chǎn)權法領(lǐng)域引發(fā)了一系列問(wèn)題,包括以訓練人工智能系統為目的對受知識產(chǎn)權保護的內容的可訪(fǎng)問(wèn)性,以及機器學(xué)習模型和人工智能輸出內容的可保護性問(wèn)題。在人工智能生成文本的使用方面,其合法性可能要受到著(zhù)作權法之外的其他法律法規的約束,如透明度、錯誤信息和誹謗方面的法律法規的約束。無(wú)論涉及哪個(gè)領(lǐng)域,都需要制定與人工智能應用透明度相關(guān)的特定規則。這些規則應能幫助人們了解人工智能在特定情況下會(huì )發(fā)揮什么作用,以及相應的法律后果??偟膩?lái)說(shuō),鑒于這一領(lǐng)域技術(shù)發(fā)展的動(dòng)態(tài)特性、政策和立法的發(fā)展,以及對人工智能形成更廣泛的社會(huì )理解,將會(huì )是一個(gè)持續性的過(guò)程。

  人工智能進(jìn)入知識產(chǎn)權領(lǐng)域

  達莉亞·金表示,在立法者改革專(zhuān)利法之前,有必要甄別那些暗示計算系統具有“獨立”代理能力的假設。首先,這種假設傾向于將人工智能系統視為擁有“獨立自主”的能力,并以“擬人化”的方式描述人工智能。特別是,認為人工智能系統具有做決策、確定實(shí)現目標的手段,以及自主完成任務(wù)和目標的能力。這種做法可能會(huì )令人困惑,尤其是對于那些對人工智能理解有限的人來(lái)說(shuō)。如果我們假設人工智能系統能夠“自主”,就意味著(zhù)這些以人工智能為基礎的系統具有“推理”“決策”和“行為”能力,而人類(lèi)對于這種“決策”過(guò)程的控制力有限或毫無(wú)控制力。這些假設給各種法律和監管框架帶來(lái)挑戰,包括侵權責任、消費者保護、透明度監管等領(lǐng)域。在專(zhuān)利法領(lǐng)域,假設人工智能“自主”帶來(lái)了許多問(wèn)題。人們可能會(huì )認為發(fā)明的行為被簡(jiǎn)單地移交給了人工智能系統,是人工智能系統在“自主”發(fā)明。因此,在“人工智能驅動(dòng)”發(fā)明的情況下,將專(zhuān)利權歸屬于人類(lèi)用戶(hù)可能不再能被證成。這個(gè)問(wèn)題成為了全球范圍內訴訟案例的核心。目前,法院的主流立場(chǎng)是,只有人類(lèi)才能被指定為發(fā)明人。然而,我們仍需澄清人工智能系統究竟是否能夠“自主”發(fā)明。

  她進(jìn)一步解釋道,在關(guān)于人工智能的日常話(huà)語(yǔ)和技術(shù)文獻中,“自主”(autonomy)和“自動(dòng)化”(automation)這兩個(gè)術(shù)語(yǔ)經(jīng)常被混用。然而,它們在概念上和技術(shù)上存在顯著(zhù)差異。雖然“自主”尚不存在人們廣泛接受的定義,但這個(gè)詞通常與自我管理和自我決定聯(lián)系在一起,也涉及行使自由意志的能力(表現為能夠自己做決策和做出某個(gè)行為)。人工智能系統并不能自主,它無(wú)法“決定”違背人類(lèi)的設定,不能創(chuàng )造先前不存在于數據或者無(wú)法從數據中推衍出的信息?!白詣?dòng)化”意味著(zhù)在執行過(guò)程中無(wú)需人類(lèi)直接干預即可完成任務(wù)。然而,在實(shí)現自動(dòng)化之前,還需要人類(lèi)來(lái)配置和設置計算過(guò)程。

  人工智能系統可以進(jìn)行自動(dòng)化計算,即在算法實(shí)施過(guò)程中無(wú)需人類(lèi)直接參與,人工智能就可以自動(dòng)執行數據和信息處理等操作。盡管隨機化在機器學(xué)習技術(shù)中得到了廣泛應用,但仍然具有確定性,即在輸入內容相同和條件相同的情況下,機器學(xué)習系統會(huì )輸出相同的內容。系統或計算模型的復雜性和隨機化的使用可能導致內容輸出的變化和出人意料的效果。此外,通過(guò)傳感器感知的與現實(shí)世界的互動(dòng)可能導致人工智能系統的設計者或用戶(hù)失去對人工智能系統的控制,但控制的缺失應歸因于環(huán)境的不可預測性,而非計算機具有的“自主決策”能力。

  達莉亞·金說(shuō),主張改革專(zhuān)利法的評論者往往是基于人工智能系統中存在“獨立”代理人的假設。但她認為人工智能技術(shù)更像是計算工具和解決問(wèn)題的工具,雖然專(zhuān)利制度可能需要改革,但要想知道該如何改變,我們得進(jìn)一步了解人工智能技術(shù)對創(chuàng )新過(guò)程的影響,以及專(zhuān)利法的目標和功能。這樣,我們才能更好地確定推動(dòng)創(chuàng )新的最佳方案。

  厘清何為“人工智能驅動(dòng)”的發(fā)明

  達莉亞·金提出,有關(guān)發(fā)明權的歸屬問(wèn)題,應當先明確“人工智能驅動(dòng)”的發(fā)明到底是什么。盡管人工智能應用程序很強大,但它目前只是一種可被用于發(fā)明創(chuàng )造的工具。在歐洲專(zhuān)利法的語(yǔ)境下,一項發(fā)明可被理解為解決技術(shù)問(wèn)題的技術(shù)方案。機器學(xué)習的基礎是數學(xué)優(yōu)化,這也許可以解釋為什么它可廣泛用于解決技術(shù)和工程問(wèn)題,比如藥物開(kāi)發(fā)中應用機器學(xué)習來(lái)識別和優(yōu)化分子的結構活性關(guān)系。只要人工智能是作為工具被使用的,就應當適用發(fā)明權和創(chuàng )造性(即非顯而易見(jiàn)性)相關(guān)規則。在大多數法律制度中,發(fā)明權的歸屬明確要求或隱含推定某項發(fā)明或其貢獻的背后具有創(chuàng )造性或智能構思。為了滿(mǎn)足這一要求,在發(fā)明構思階段,創(chuàng )造者的參與方式不應當只是提出抽象想法,而讓另一端簡(jiǎn)單地執行他人提出的想法。創(chuàng )造過(guò)程應該在智能和創(chuàng )造性的層面上進(jìn)行,而不是在金融、物質(zhì)或僅僅是執行層面上開(kāi)展。

  她表示,發(fā)明的概念化涉及抽象思維。盡管機器學(xué)習系統或計算模型能夠模仿人類(lèi)的認知過(guò)程,但它們的性能仍然依賴(lài)于人類(lèi)在設計和應用這些建模技術(shù)時(shí)的思考和決策行為。應用計算模型來(lái)解決技術(shù)和工程問(wèn)題需要人類(lèi)來(lái)設置計算過(guò)程。為此,人要能準確把握問(wèn)題所在,并深入了解相關(guān)的工作設想、底層數學(xué)結構、潛在的局限和陷阱等。因此,她并不認為技術(shù)已經(jīng)達到足以讓人類(lèi)可以簡(jiǎn)單“外包”發(fā)明任務(wù)的程度。在使用人工智能進(jìn)行發(fā)明創(chuàng )造的情況下,一種可能比較合適的做法是將“如何運用人工智能技術(shù)解決手頭的技術(shù)問(wèn)題”的決策本身作為衡量發(fā)明構思中“智能參與”行為的一大指標。誰(shuí)將是具體決策者則視個(gè)案情況而定。

  達莉亞·金補充道,毫無(wú)疑問(wèn),某些技術(shù)發(fā)明比其他發(fā)明更容易實(shí)現,且發(fā)明者可能會(huì )使用不同工具來(lái)解決問(wèn)題或進(jìn)行研究,如基因組學(xué)或數學(xué)優(yōu)化技術(shù)。這種情況下,發(fā)明性的要求,即發(fā)明的非顯而易見(jiàn)性變得非常關(guān)鍵。原則上,只有那些比相關(guān)領(lǐng)域“平均”水平專(zhuān)業(yè)人士解決某種技術(shù)問(wèn)題能力更強的發(fā)明才能被視為“非顯而易見(jiàn)”,從而取得專(zhuān)利權。一些評論者認為,人類(lèi)在這種發(fā)明過(guò)程中扮演的角色太微不足道。也有人認為,評估發(fā)明性現在需要參照“平均”水平的人工智能系統而非熟練技術(shù)人員。但她認為,目前人工智能算法和系統的作用仍然是工具,因此,熟練技術(shù)人員的概念仍然可作為判斷發(fā)明“顯著(zhù)性”的相關(guān)指標。她也不認為人工智能系統能使任何問(wèn)題的解決方案變得顯而易見(jiàn),因為將人工智能應用于解決復雜問(wèn)題可能需要人工智能系統的設計者和用戶(hù)做出復雜的決策。在運用人工智能驅動(dòng)創(chuàng )新的情況下,盡管在確定發(fā)明者和發(fā)明的非顯而易見(jiàn)性方面的實(shí)體性規則仍然有效,但其實(shí)際應用可能面臨挑戰,因此有必要進(jìn)行更詳盡的分析。

  力爭采用均衡恰當的監管方式

  艾略特在接受記者采訪(fǎng)時(shí)表示,我們必須關(guān)注生成式人工智能的出現和使用所引發(fā)的保密風(fēng)險和隱私問(wèn)題。生成式人工智能應用越普及,私人數據和機密電子材料遭受侵犯的風(fēng)險就越大。侵犯隱私的情況通常有以下兩種。第一種是,生成式人工智能程序的數字訓練內容來(lái)自互聯(lián)網(wǎng)上發(fā)布的數字內容,網(wǎng)站和其他在線(xiàn)發(fā)布內容會(huì )被秘密瀏覽與抓取。在此過(guò)程中,網(wǎng)站的所有者并不知悉人工智能的瀏覽行為,也沒(méi)有人事先征得他們的明確許可。隨后,生成式人工智能程序會(huì )利用瀏覽過(guò)的內容生成復雜的模式匹配編碼結構。人工智能收集到的私人或機密數據可能會(huì )永久存在于這些結構中,在生成式人工智能用戶(hù)的請求下被調取利用。第二種是,在使用生成式人工智能應用程序時(shí),用戶(hù)可能會(huì )輸入私人或機密數據。人們通常以為除了用戶(hù)本人之外,沒(méi)有其他人可以訪(fǎng)問(wèn)他們輸入的數據。實(shí)際上,大多數生成式人工智能程序并未提供這樣的保證。相反,制作或部署人工智能的公司保留使用用戶(hù)輸入內容的權利。用戶(hù)應仔細審查與他們希望使用的生成式人工智能應用相關(guān)的許可條件。因此,只有在明確知曉系統所聲明的保護措施或所缺乏的保護措施的情況下,用戶(hù)才應該考慮使用生成式人工智能程序。

  艾略特認為,律師在使用包括ChatGPT在內的生成式人工智能時(shí)具有雙重職責。一方面,律師應該就如何正確使用生成式人工智能應用程序向客戶(hù)提供建議,例如,如何進(jìn)行數據保密和隱私保護。另一方面,律師必須遵守自己的建議,同樣要注意在使用ChatGPT等應用程序時(shí)不能涉及任何與客戶(hù)有關(guān)的隱私或保密信息。為了履行這些職責,律師必須迅速了解生成式人工智能。如果一名律師對生成式人工智能的運作方式不了解,他可能會(huì )被認為在法律盡職調查方面做得不夠,而他服務(wù)的客戶(hù)將無(wú)法獲得充分的法律保障。更糟糕的是,律師在使用生成式人工智能時(shí)可能會(huì )因為不知道自己在做什么而無(wú)意中暴露客戶(hù)的私人數據或機密數據。

  此外,他觀(guān)察到,生成式人工智能還伴隨著(zhù)其他法律問(wèn)題和挑戰。例如,ChatGPT等人工智能應用可能會(huì )輸出不當言論,包含各種偏見(jiàn)言論乃至仇恨言論。如果某家公司選擇使用生成式人工智能來(lái)服務(wù)消費者,那么它輸出的內容就有可能包含某些具有法律損害性的表述。受到冒犯的消費者看到了可能會(huì )反過(guò)來(lái)抨擊這家公司,甚至對該公司提起訴訟。為了遏制生成式人工智能的負面影響,各國立法者都在努力掌握最恰當的管控力度。約束性較強的法律可能會(huì )限制人工智能的發(fā)展,削弱人工智能帶來(lái)的預期效益,而采用較為寬松的監管方式或索性不設立相關(guān)法律則可能會(huì )縱容甚至變相鼓勵人工智能擾亂社會(huì )。每個(gè)國家的立法者都需要思考他們想達到何種平衡。

  法律職業(yè)和法學(xué)教育應及時(shí)自我調整

  艾略特認為,人工智能必將滲透到法律實(shí)踐的各個(gè)方面。人們已經(jīng)在使用人工智能篩選和分析案件材料。人工智能通常是律師事務(wù)所使用的合同生命周期管理(CLM)軟件包的重要組成部分,可以被用于起草、審查合同以及其他與合同相關(guān)的法律事務(wù)等。法學(xué)院的學(xué)生需要了解各類(lèi)人工智能應用,并在初涉法律行業(yè)時(shí)便開(kāi)始使用最新的人工智能應用。法學(xué)院應確保學(xué)生在畢業(yè)后進(jìn)入職場(chǎng)時(shí)擁有足夠的使用人工智能的經(jīng)驗,從而不至于在職場(chǎng)中處于劣勢。法學(xué)院會(huì )意識到有必要將人工智能納入法律課程中,同時(shí),未來(lái)的學(xué)生在擇校時(shí)也會(huì )傾向于選擇設置相關(guān)課程的院校。

  蔡曉峯對記者表示,雖然有朝一日人工智能模型最終可能會(huì )替代法律從業(yè)者,但距離這一天的到來(lái)還有很長(cháng)時(shí)間。這是因為人工智能目前為止還不夠可靠,而法律實(shí)務(wù)涉及的問(wèn)題往往與人們的切身利益攸關(guān),因此較為重要。短期內最有可能發(fā)生的還是人類(lèi)與人工智能合作。

  在蔡曉峯看來(lái),機器將逐漸覆蓋基礎性的法律工作,但律師不應該想著(zhù)與機器競爭,而是應該把精力放在機器完成不了的工作任務(wù)上,比如提升判斷力與發(fā)現法律問(wèn)題的能力,這兩個(gè)技能是人工智能目前尚未掌握的。聊天機器人帶來(lái)了很多法律問(wèn)題。例如,從知識產(chǎn)權的角度看,使用受版權保護的材料來(lái)訓練機器人是否侵犯著(zhù)作權?讓人工智能法律助理在未經(jīng)授權的情況下從事法律實(shí)務(wù)工作是否存在風(fēng)險?一旦人工智能模型犯下代價(jià)高昂的錯誤,誰(shuí)應承擔法律責任?這些問(wèn)題都沒(méi)有確切的答案。ChatGPT是一個(gè)多用途工具,目前并沒(méi)有專(zhuān)門(mén)為法律領(lǐng)域做出優(yōu)化調整,但已經(jīng)有不少公司開(kāi)始著(zhù)手這項工作。也許在幾年甚至幾個(gè)月內,我們就能看到法律實(shí)務(wù)專(zhuān)用的新的工具。有些公司還在嘗試將人工智能模型嵌入現存的工具中。

  蔡曉峯認為,隨著(zhù)ChatGPT的到來(lái),法學(xué)院的學(xué)生應該產(chǎn)生危機感,因為人工智能可以顯著(zhù)提升律師的工作效率,而這也意味著(zhù)不及時(shí)調整適應的從業(yè)者將被遠遠甩在同行后面。但我們也應該樂(lè )觀(guān)看待科技進(jìn)步,因為人工智能模型能夠接手律師最不感興趣的工作,比如檢查文件、復制草稿等,這使得法律從業(yè)者能夠更好地投入到更復雜、價(jià)值感更高的工作當中。

責任編輯:崔博涵
二維碼圖標2.jpg
重點(diǎn)推薦
最新文章
圖  片
視  頻

友情鏈接: 中國社會(huì )科學(xué)院官方網(wǎng)站 | 中國社會(huì )科學(xué)網(wǎng)

網(wǎng)站備案號:京公網(wǎng)安備11010502030146號 工信部:京ICP備11013869號

中國社會(huì )科學(xué)雜志社版權所有 未經(jīng)允許不得轉載使用

總編輯郵箱:zzszbj@126.com 本網(wǎng)聯(lián)系方式:010-85886809 地址:北京市朝陽(yáng)區光華路15號院1號樓11-12層 郵編:100026