电竞比分网-中国电竞赛事及体育赛事平台

分享

生成式人工智能的應用與治理

 非著名問天 2024-05-22 發(fā)布于上海

生成式人工智能是一種能夠生成新的數(shù)據(jù)或內容的人工智能(AI)技術,通過深度學習模型生成文本、圖像、視頻等內容,顯著提升人機交互的效率,極大擴展人工智能的應用場景,已成為科技進步的新高地、產(chǎn)業(yè)升級的新賽道、經(jīng)濟發(fā)展的新引擎,是加快發(fā)展新質生產(chǎn)力的關鍵要素。

一、生成式人工智能的應用場景

在數(shù)字化時代,人工智能(AI)正迅速成為創(chuàng)新和生產(chǎn)力提升的關鍵驅動力。特別是生成式AI,它通過模仿學習現(xiàn)有數(shù)據(jù)模式,創(chuàng)造出全新的內容,從而拓展了人類創(chuàng)造力的邊界,目前已被廣泛應用于智能辦公、生產(chǎn)制造、數(shù)字教育、政務服務等多領域場景。

(一)辦公場景

隨著人工智能技術的飛速發(fā)展,生成式人工智能正逐漸成為辦公室和會議室中的得力助手,通過文字、語音和圖像處理能力的躍遷革新傳統(tǒng)的工作流程,使得辦公和會議活動更加智能化和高效。

智能辦公方面,基于大模型的解決方案能夠覆蓋日常辦公中的多樣化需求。無論是文案撰寫、演示文稿美化,還是復雜數(shù)據(jù)分析,均可以通過簡單的自然語言交由智能系統(tǒng)處理。

智能會議方面,從會議的策劃階段開始,大模型就能夠根據(jù)會議的主題和其他提示詞,自動生成包括會議環(huán)節(jié)、分論壇設置、時間安排到預算編制在內的完整策劃方案。會議進行時,大模型支持準確及時的同聲傳譯。

此外,通過AI處理后的會議記錄結構清晰、要點明確,極大地提升了會后信息回顧和決策的效率。

(二)教育場景

生成式人工智能正以其強大的數(shù)據(jù)處理和學習能力,在教育領域引發(fā)革命性的變化。通過將大模型融入教學和科研過程之中,既提高了教學科研的效率,也極大地擴展了教育視野。

在科研領域,大模型能夠快速分析大量實驗數(shù)據(jù),預測實驗結果。在某些情況下,能夠在短時間內提出比傳統(tǒng)實驗方法更為簡潔且成本效益高的解決方案。通過自動化的設計和模擬過程,縮短科研項目從構思到實驗的周期,降低研發(fā)成本,從而加速科研成果的產(chǎn)出和轉化。在教學方面,生成式人工智能作用同樣不容小覷。不僅可用于生成定制化的學習材料,幫助學生理解復雜概念,還能夠輔助教師制定教學大綱、生成講義、設計課堂活動。

(三)政務場景

生成式人工智能已成為改善公共服務的重要工具,能有效提升政府服務的效率和質量,優(yōu)化公共治理體系、提升政務服務能力。

以大模型為代表的生成式人工智能技術可作為政民互動虛擬助手替代部分政務服務人員的工作,能夠根據(jù)具體場景更加精準高效地提供個性化的回復和服務,大大降低人工成本。

在行政執(zhí)法的過程中,借助生成式人工智能通用大語言模型的基本特質及其大數(shù)據(jù)分析能力,有利于對不同情境中的同類行為進行比對和辨識,進而根據(jù)法律規(guī)定做出相應的行政行為。

二、生成式人工智能的發(fā)展堵點與風險挑戰(zhàn)

(一)算力需求與算力成本增加引發(fā)的算力瓶頸

算力是AI大模型的關鍵基礎設施,算力決定了模型的“智商”。大模型通常包含數(shù)億,甚至數(shù)千億的參數(shù),需要大量的算力來訓練和運行。這些模型的訓練過程涉及大量的數(shù)據(jù)和復雜的計算,導致對高性能計算資源的需求不斷攀升。例如,華為預計到2030年,全球數(shù)據(jù)年新增1YB;通用算力增長10倍到3.3ZFLOPS,AI算力增長500倍超過100ZFLOPS。

據(jù)人民網(wǎng)財經(jīng)研究院發(fā)布的報告,以ChatGPT為例,微軟Azure云服務為其提供了1萬顆英偉達A100GPU,這個算力也正是國內云計算技術人士共識的AI大模型門檻。同時,訓練和運行AI大模型需要巨大的經(jīng)濟投入。例如,訓練一個大型模型可能需要使用上萬顆GPU,單次模型訓練成本可能超過千萬美元。這其中不僅涉及昂貴的硬件成本,同時需要大量的電力和散熱系統(tǒng)支持,初期投資巨大。為了解決算力瓶頸問題,行業(yè)仍需探索包括改進模型結構、訓練方法的優(yōu)化、使用新型計算架構如DPU、大數(shù)據(jù)技術的應用等多種技術創(chuàng)新和優(yōu)化途徑。

(二)工具不當使用帶來的虛假信息誤導和欺詐問題

AI大模型的火爆使其被廣泛應用于生產(chǎn)生活之中,在帶來便利的同時也使得部分虛假信息“以假亂真”,由于大模型尚不能完美辨別用戶請求的合法性與正當性,當其被不當使用或惡意利用時,可能會帶來一系列安全風險,擾亂公共服務秩序。例如,AI換臉和擬聲技術的發(fā)展使得視頻內容真假難辨,增加了欺詐行為的隱蔽性,同時也使得詐騙行為“批量化”,通過生成虛假的電子郵件或短信等形式,偽裝成信譽良好的機構或個人進行詐騙。

此外,生成式AI技術的濫用還可能對社會秩序和國家安全構成威脅。一些不法分子利用AI技術編造虛假事件,制造社會恐慌,或者借社會熱點造謠炒作,干擾公眾視聽。例如,中國互聯(lián)網(wǎng)聯(lián)合辟謠平臺對2023年10月網(wǎng)絡謠言的梳理分析,當月網(wǎng)上數(shù)據(jù)監(jiān)測和網(wǎng)民舉報顯示,臆測編造民生政策、利用AI虛構案事件、借社會熱點造謠炒作等傳謠現(xiàn)象較為突出,自媒體利用網(wǎng)民對社保、醫(yī)療等民生話題的關切,編造涉公共政策、社會民生領域不實信息,這類迷惑性強的信息在“三人成虎”的傳播效應下,嚴重干擾了社會認知和預期。這就要求我們在技術創(chuàng)新的同時,認識到其所帶來的內外部風險挑戰(zhàn),最大化地發(fā)揮AI技術的正面作用,防范和減少其潛在的負面影響。

(三)現(xiàn)有法律體系下對內容所有權和責任歸屬的重新審視

現(xiàn)有的法律體系可能難以適應AI生成內容的所有權和責任歸屬問題。傳統(tǒng)的版權法是為了保護人類創(chuàng)作者的智力成果而設計的。AI作為一個非人類主體,其生成的內容是否應該享有版權,以及誰應該擁有這些權利(AI開發(fā)者、用戶、還是AI本身),目前尚無明確的法律規(guī)定。

在創(chuàng)作性質方面,許多法律體系要求作品必須是人類智力勞動的結果才能獲得版權保護。AI生成的內容雖然可能具有創(chuàng)造性,但其“創(chuàng)作”過程是由算法和數(shù)據(jù)驅動的,這是否符合法律對“創(chuàng)作”的定義存在疑問。

在責任歸屬方面,當AI生成的內容涉及誹謗、侵犯隱私或其他違法行為時,確定責任歸屬變得復雜,是由AI開發(fā)者負責,還是由使用AI工具的使用者負責,抑或是AI本身是否能成為責任主體,這些問題在現(xiàn)有法律框架下難以解答。

此外,現(xiàn)行合同法尚未能適應AI生成內容在商業(yè)交易中應用的新情況,即當AI生成的內容被用于廣告或產(chǎn)品描述,而內容不準確或具有誤導性時,合同中的責任和義務的分配問題。應對這些挑戰(zhàn),尚需要法律專家、技術開發(fā)者、政策制定者和社會各界人士的共同努力,推動法律與時俱進,確保AI技術的健康發(fā)展,保護個人和公共利益。

(四)學術工作原創(chuàng)性、真實性、安全性的新挑戰(zhàn)

生成式人工智能的快速發(fā)展和應用,雖為學術研究和知識生產(chǎn)帶來了便利,但同時也對學術誠信提出了前所未有的挑戰(zhàn)。學生和研究人員可以通過AI工具生成論文或文章,這不僅導致學術成果的原創(chuàng)性受到質疑,而且可能引起廣泛的剽竊和抄襲問題。

AI工具能快速生成大量文本,這使得傳統(tǒng)的學術不端行為檢測方法變得不再有效,學術機構必須重新考慮如何確保學術工作的誠信和質量。面對這一挑戰(zhàn),全球范圍內的學術機構對AI工具的使用持謹慎態(tài)度。例如,加利福尼亞大學伯克利分校明確表示ChatGPT等AI工具并非學校支持的工具,并強調教師在使用這些工具時需要自行審查其可訪問性、隱私性和安全性。

為了應對AI工具可能帶來的風險,一些學校已經(jīng)采取了具體的行動。他們明確禁止將學生作業(yè)上傳至AI工具進行分析,避免學生的作業(yè)成為訓練數(shù)據(jù),防止?jié)撛诘牟橹匦姑茱L險。然而,僅禁止使用AI工具并不能從根本上解決問題,學術機構需要與技術開發(fā)者、法律專家等共同探討研究如何在保護學術誠信的同時,合理利用AI技術促進學術研究的發(fā)展。

三、生成式人工智能的治理體系

治理體系和治理能力是制度和制度執(zhí)行能力的集中體現(xiàn)。面對人工智能的技術涌現(xiàn)超越目前制度體系約束范圍的新情境,需要強化大模型的場景牽引作用,通過構建完善的治理體系,疏通發(fā)展堵點、防范潛在風險,使生成式人工智能有效支撐我國經(jīng)濟社會高質量發(fā)展,創(chuàng)造新價值、適應新產(chǎn)業(yè)、重塑新動能。

(一)構建協(xié)同治理體系,促進多方治理參與

面對生成式AI這一應用場景廣泛、深入生產(chǎn)生活的技術工具,對技術的規(guī)范運用要求多方治理主體協(xié)同并進。政府機構應制定涵蓋數(shù)據(jù)隱私、知識產(chǎn)權、內容監(jiān)管和倫理標準等方面的明確政策和法規(guī),為AI技術的健康發(fā)展提供指導和規(guī)范。技術開發(fā)者和企業(yè)應建立行業(yè)自律機制,制定并遵守行業(yè)標準和最佳實踐,確保AI技術的負責任使用。學術研究機構應開展AI倫理、法律和社會影響的研究,提供科學的決策支持,加強AI治理相關的課程和培訓。鼓勵公眾參與AI治理的討論和決策過程,提高公眾對AI技術的認識和理解,增強社會對AI治理的監(jiān)督和反饋。

(二)完善制度約束體系,有序加強技術監(jiān)管

建立有效的AI大模型監(jiān)管體系,首先需要法律與政策的支持?!痘ヂ?lián)網(wǎng)信息服務深度合成管理規(guī)定》作為我國首個針對AI生成內容的管理規(guī)定,為監(jiān)管提供了法律框架,要求服務提供者進行備案、安全評估,并明確了內容標識、監(jiān)督檢查與法律責任。同時,監(jiān)管體系應包括技術規(guī)范和標準,確保AI技術的透明性和可解釋性。政府應采取漸進式監(jiān)管策略,平衡技術創(chuàng)新與風險控制,制定前瞻性措施以應對技術可能帶來的不良后果。

此外,需要強化網(wǎng)絡謠言的打擊力度,通過中國互聯(lián)網(wǎng)聯(lián)合辟謠平臺指導網(wǎng)站平臺強化監(jiān)測查證、開展排查整治,提升公眾的信息識別能力,增強防范意識。增強AI技術的透明度,讓外部監(jiān)管者和用戶能夠理解AI的決策過程,使增進公眾信任成為監(jiān)管機構有效監(jiān)管的基礎。

(三)優(yōu)化數(shù)據(jù)標準體系,推動數(shù)據(jù)流通共享

生成式AI的技術發(fā)展離不開高質量的數(shù)據(jù)集,數(shù)據(jù)標準與共享是構建有效治理體系的關鍵組成部分。為了確保生成式AI的廣泛應用和跨平臺操作,需要制定統(tǒng)一的數(shù)據(jù)標準,包括數(shù)據(jù)的收集、存儲、處理和交換格式,確保不同來源和類型的數(shù)據(jù)能夠被AI系統(tǒng)有效利用。同時,需要建立數(shù)據(jù)共享平臺和機制,促進公共部門、私營企業(yè)和研究機構之間的數(shù)據(jù)流通,在確保數(shù)據(jù)共享過程中的隱私保護和安全的同時,打破信息孤島,提升數(shù)據(jù)的利用效率。

    本站是提供個人知識管理的網(wǎng)絡存儲空間,所有內容均由用戶發(fā)布,不代表本站觀點。請注意甄別內容中的聯(lián)系方式、誘導購買等信息,謹防詐騙。如發(fā)現(xiàn)有害或侵權內容,請點擊一鍵舉報。
    轉藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多