<rp id="qwx0l"></rp>
  • <dd id="qwx0l"><center id="qwx0l"></center></dd>
    <var id="qwx0l"></var>

      <tbody id="qwx0l"></tbody>
      1. 法治號 手機版| 站內搜索

        網上有害信息舉報

        類Sora生成式AI對輿論生態的挑戰及潛在風險

        2024-03-11 16:00:28 來源:法治網輿情中心 -標準+

        2月16日凌晨,美國開放人工智能研究中心OpenAI發布首個視頻生成模型“Sora”。只需簡單文本指令,Sora便能夠創造出長達60秒的視頻,并且可以展示多視角的鏡頭切換和豐富的細節。目前,OpenAI已在官網發布了48個由Sora直接生成且未經修改的視頻,逼真的場景、流暢的運鏡、生動的人物表情,使人難以分辨這些視頻是實際拍攝產生的還是由AI技術生成的。

        Sora的問世引發全球震動,從之前的ChatGPT到現在的Sora,生成式AI向人們展現了巨大的潛力和創新,在信息檢索、聊天對話、內容生成等方面顯示出獨特的功能,為內容創作領域帶來了前所未有的變革,展現出信息傳播領域中的廣闊前景。不過隨之而來的,該技術對輿論生態造成一系列挑戰和隱患,也需要引起警惕和重視。

        1. 隱形輸出價值觀增加意識形態沖突風險

        生成式AI是基于海量數據和文本基礎進行訓練而來,這些公共語料庫本身質量良莠不一,其數據來源本身可能存在偏見與不公,將直接影響到使用者對客觀現實的認知。而且數據訓練規則和訓練內容、形式都是由算法開發者或數據寫入者制定,不可避免攜帶上其原有的價值觀念。比如算法歧視,其表現基于種族、性別、民族等特征的歧視更加隱蔽,OpenAI官網中發布的數個涉人物視頻案例中,基本是清一色的白種人虛擬人物主角??梢?,類Sora生成式內容可能攜帶特定的文化傾向和價值觀,這些隱形的價值導向輸出或進一步加深不同群體之間的矛盾。尤其是作為意識形態的媒介渠道,一旦錯誤的政治觀念、價值偏好等有害導向被嵌入其中,就可被作為政治宣傳和輿論操縱的工具,消解主流媒體宣傳效果,增加意識形態風險。

        2. 縮短傳播鏈條加深輿論復雜程度

        在新聞生產階段,類Sora生成式AI可以利用技術優勢對信息進行抓取和綜合,按照技術化標準批量生產新聞報道,既可以根據比較簡單的腳本,圍繞新聞關鍵詞生產新聞內容,歸納總結同類報道,也可以根據新聞單位的不同風格定向改變新聞,圍繞既定主題持續不斷進行信息內容產出,還能夠根據語境對傳統信息快速進行翻譯、轉寫等,像Sora此類應用還能貼合目前直播、視頻等輿論的視聽偏好,即時根據報道關鍵信息生成短視頻和動畫,大幅提高新聞報道的生產效率,縮短其生產時間。在信息傳播階段,用戶和生成式AI進行直接互動,通過問答、搜索等更簡潔方式了解輿情事件的大致脈絡,從而令網民有可能在更短時間內獲悉事件最新態勢,并第一時間獲知輿情的進展情況,緊跟最新輿論焦點問題進行討論,大大減弱了信息傳播對平臺的依賴程度,但同時也將大幅縮短輿情發酵鏈條的時間長度,令同一輿情事件中信息內容更加紛繁復雜。

        3. 加大意見混同增加輿論極性“偏差”

        生成式AI實際加深了用戶對于輿情事件的參與程度,使其能夠隨時參與到對網絡事件的意見建構之中,這些意見被生成式AI學習后形成新的“輿情事實”,進而繼續擴大傳播,導致客觀性的事實被夾雜、糅合在主觀性的網絡表達中,輿論信息的主客觀程度更加難以分辨,這可能產生一種“夾敘夾議”式的輿論敘事場景,對于某些分辨能力不強的網民來講,在這種輿論場中更容易被暗含的輿論觀點所左右。由于技術賦值的問題,某些帶有鮮明觀點和極端偏好的信息,更容易被生成式AI抓取識別和傳播,同時,類Sora技術智能增強式工具還能夠利用算法和與用戶的“交流”實現精準化傳播。換言之,極端性表達更容易通過生成式AI關注并得以放大,更容易令情感濃度大的信息獲得共振,導致整個輿論場的意見偏差增大,造成不同意見群體的觀點割裂,輿論極性增加。

        4. 降低造謠成本虛假信息數量或將上升

        類Sora生成式人工智能的內容生成,已經涵蓋AI成像、AI仿聲、圖像生成等各種元素,網絡虛假信息生成路徑更加真假難辨。此類人工智能技術應用一旦大面積推廣,其高度自主化特性使得制造虛假新聞、網絡謠言等惡意信息的門檻變得更低,普通人只需要使用簡單的文字描述就可以生產一段逼真短視頻,進而產生大量的虛假“泡沫”輿情事件,甚至成為滋生電信詐騙等違法犯罪行為的“溫床”。今年2月,香港警方發布一起數額巨大的AI詐騙案,涉案金額達2億港元,詐騙分子偽造數個高管的面容聲音進行視頻會議,除了受害者一人為真人外,其余與會者全部由AI生成。此外,類Sora生成式人工智能也給機器人水軍創造了極大空間。未來具備高度自動化和仿生形態的機器人水軍,可以更加高效低成本地生產大量逼真視頻內容,或成為干擾網絡正常秩序的一大因素。而大量虛假信息被AI輸出并大肆傳播,在虛假信息被識別之前又被傳播出去,造成不實信息泛濫的惡劣影響。

        結語

        面對類Sora生成式人工智能給人類社會帶來的巨大挑戰和機遇,在充分發揮生成式人工智能的技術優勢的前提下,政府部門應對有效規避各類智能技術及風險有所警惕和作為,尤其是其可能帶來的輿論生態改變,可能引發網絡意識形態安全風險,相關治理的要求也應該更加超前和成熟。

        首先,要形成多元共建多方共管的治理格局。一是建立與完善相應法律法規。類Sora生成式人工智能在呈現出更多智慧功能的同時,也不可避免地面臨諸如隱私權保護、電信詐騙等違法行為的責任界定,由此帶來法律層面的爭議需要立法予以規制,立法部門應在兼顧科技發展和規范使用的界限的同時,及時出臺行業性規范。二是監管機構應強化對類Sora生成式人工智能領域的監管,進一步規范人工智能內容生成技術的使用,尤其注意防止生成式人工智能成為虛假信息的發源地,要強化對提供人工智能技術的企業、傳播平臺等監管,形成嚴格的行業警告和處罰機制。三是強化技術平臺的主體責任,要求相關AI企業加強內容審核力度,在生成式內容上必須打上明顯的標識,要求其在杜絕虛假信息的產出、流傳與擴散方面負有更明確、比重更大的責任。其次,還需加強對社會的人工智能素養教育,及時公布相關的最新技術案例,讓公眾對類Sora生成式人工智能的運作機制等有基本認知,增強對虛假信息的風險識別與抵制能力。

        閱讀全文可訂閱

        《政法輿情》電子產品

        詳情咨詢:010-84772595

        來源:法治網輿情中心

        作者:王燦

        編輯:王媛

        新媒體編輯:李靜


        編輯:靳雪林



        欧美韩国精品另类综合|国产欧美va欧美va香蕉在线|亚洲欧美一区二区三区四区|欧美日韩高清一区二区三区视频
        <rp id="qwx0l"></rp>
      2. <dd id="qwx0l"><center id="qwx0l"></center></dd>
        <var id="qwx0l"></var>

          <tbody id="qwx0l"></tbody>