中國新聞網(wǎng)-上海新聞
上海分社正文
從ChatGPT到Sora 業(yè)界關(guān)注大模型“利刃”如何安全出鞘
2024年02月29日 10:23   來源:中國新聞網(wǎng)  

  中新社上海2月28日電 (記者 鄭瑩瑩)從ChatGPT到Sora,新一代人工智能在收獲大量關(guān)注的同時,也引發(fā)安全擔憂。28日在滬舉辦的2024上海網(wǎng)絡安全產(chǎn)業(yè)創(chuàng)新大會上,業(yè)界人士圍繞大模型安全話題展開探討。

  2月28日,2024上海網(wǎng)絡安全產(chǎn)業(yè)創(chuàng)新大會在滬舉行。圓桌論壇上,業(yè)界人士圍繞大模型安全話題展開探討!≈行律缬浾  鄭瑩瑩  攝
2月28日,2024上海網(wǎng)絡安全產(chǎn)業(yè)創(chuàng)新大會在滬舉行。圓桌論壇上,業(yè)界人士圍繞大模型安全話題展開探討。 中新社記者  鄭瑩瑩  攝

 

  “大模型是一把‘雙刃劍’,它既能幫助行業(yè)解決很多問題,又會引起很多問題!敝袊磐ㄔ喝A東分院院長廖運發(fā)說。他表示,現(xiàn)在人工智能發(fā)展非常火爆,尤其是大模型,從ChatGPT到Sora都引起了大家的關(guān)注。

  上海交通大學網(wǎng)絡空間安全學院副院長王士林認為,可以從兩個角度看,其一,可以用大模型技術(shù)來解決行業(yè)一些安全問題,包括內(nèi)容安全等。隨著大模型能力的提升,相關(guān)領域的AI(人工智能)賦能水平也會隨之提升。其二,新的大模型本身會造成新的威脅,比如生成式AI生成人臉圖像,可能造成社會問題。因此,相關(guān)部門需要研究如何進行相應的監(jiān)管。

  商湯科技信息安全委員會負責人吳友勝從一名信息安全從業(yè)者的角度分享了他看到的行業(yè)變化。據(jù)他介紹,一方面,大模型的引入讓業(yè)界可以更自動化地處理一些流程化的工作,規(guī)避一些低級錯誤,減少相關(guān)領域的安全風險。行業(yè)出現(xiàn)了AI賦能安全方面的一些好產(chǎn)品,這些產(chǎn)品涉及威脅的預測、漏洞的管理等等。

  另一方面,他指出,在AI賦能安全這個方向上,路程還很遙遠。這一領域既需要提升數(shù)據(jù)的規(guī)模與質(zhì)量、提升算力水平,也需要既懂AI又懂安全的專業(yè)人才。吳友勝認為,在AI安全方面,風險與挑戰(zhàn)并存,業(yè)界需要在重視利用技術(shù)的同時,從監(jiān)管層面更好地確保“利劍”為行業(yè)賦能,而非給行業(yè)帶來災難。

  翼方健數(shù)技術(shù)總監(jiān)孫維東說,企業(yè)在試圖用大模型賦能自身發(fā)展的過程中,首先關(guān)注安全問題,因為很多商業(yè)機密和敏感數(shù)據(jù)是需要由大模型進行處理的,而且不同行業(yè)對安全的需求也存在比較大的差異。他表示,業(yè)界還在等待大模型生態(tài)穩(wěn)定下來,等待更多安全技術(shù)涌現(xiàn)。(完)

注:請在轉(zhuǎn)載文章內(nèi)容時務必注明出處!   

編輯:王丹沁  

本網(wǎng)站所刊載信息,不代表中新社和中新網(wǎng)觀點。 刊用本網(wǎng)站稿件,務經(jīng)書面授權(quán)。
未經(jīng)授權(quán)禁止轉(zhuǎn)載、摘編、復制及建立鏡像,違者將依法追究法律責任。
常年法律顧問:上海金茂律師事務所