近日,甘肅省平涼市公安局網安大隊偵破一起利用AI人工智能技術炮制虛假不實信息的案件。
(資料圖片僅供參考)
說起來,這已不是ChatGPT第一次陷入假新聞風波了。
問世伊始,便有人見識到其“一本正經胡說八道”的高超本領。讓解釋高深物理理論,說得有鼻子有眼,結果所附論文一查均無出處;讓推薦相關領域學者,瞬間就有人選,可人物履歷卻是七拼八湊。
出于其“天賦”的內容生成能力,ChatGPT似乎比從前的人工智能都更“聰明”,編出的內容往往形真實假、雜糅難辨。
用ChatGPT編假新聞
警方出手
4月25日,平涼市公安局崆峒分局網安大隊對“今晨甘肅一火車撞上修路工人致9人死亡”的文章,初步判斷為信息虛假不實。
網安民警隨即開展工作,發現共計21個賬號均在同一時間段發布該文章,文章內容地點除平涼市崆峒區外還涉及蘭州、隴南、定西、慶陽等地,文章點擊量已達1.5萬余次。
經查,涉案賬號均為廣東深圳某自媒體公司所有,公司法人代表洪某弟有重大作案嫌疑。
5月5日,專案民警在廣東東莞嫌疑人住處對其使用的電腦進行取證。
經審訊,犯罪嫌疑人洪某弟,在全網搜索近幾年社會熱點新聞,為規避平臺查重功能,洪某弟通過近期火爆的ChatGPT人工智能軟件將搜集到的新聞要素修改編輯后,上傳至其多個賬號進行非法獲利。
洪某弟利用現代科技手段編造虛假信息,并散布在互聯網上,被大量傳播瀏覽,其行為已涉嫌尋釁滋事罪。
目前,崆峒公安分局對犯罪嫌疑人洪某弟采取刑事強制措施,案件正在進一步偵辦之中。
這條假新聞也出自ChatGPT
此前,一條關于杭州3月1日取消限行的“新聞稿”,引發廣泛傳播。但經記者調查發現,這是一條不實新聞。
據了解,2023年2月16日下午,杭州某小區業主群在討論ChatGPT。一位業主就開玩笑說嘗試用它寫篇杭州取消限行的新聞稿看看。
隨后該業主在群里直播了ChatGPT寫作過程,還把文章發群里。有不明所以的業主誤將其當真并截圖轉發,最后導致錯誤信息被傳播。
據了解,杭州相關政府部門均沒有發布此類政策,警方已介入調查,涉事業主也在群里公開道歉。
ChatGPT的潛在風險
大型預訓練人工智能語言模型ChatGPT在全球爆火。
此前,一家媒體與ChatGPT展開的“對話”中,就提到了“你會取代記者嗎”這一問。對此,ChatGPT回復如下——
華中科技大學法學院副教授滕銳表示:
ChatGPT是大量不同的數據集群訓練出來的語言模型,目前其背后仍是“黑盒”結構,即無法確切對其內在的算法邏輯進行分解,所以不能確保在使用ChatGPT的過程中,其所輸出的內容不會產生攻擊傷害用戶的表述。
“如果ChatGPT的回復是錯誤或虛假信息,會具有極大的誤導性,有潛在法律風險。”在他看來,ChatGPT難免存在一些侵犯用戶隱私的內容。此外,若回復中存在過度借鑒他人作品的情況,使用不當就有可能侵犯他人的著作權。
值得注意的是,目前,為了避免學生過于依賴人工智能類工具,防止作弊,多國學校已經發出禁令,禁止學生在學校內使用類似于ChatGPT的人工智能工具完成學習任務和考試。
面對科技,多一些理性與冷靜
早有新聞可信度評估機構提出,“ChatGPT可能成為互聯網有史以來最強大的傳播虛假信息的工具。”也有一些實驗表明,ChatGPT等個性化的實時聊天機器人在制造陰謀論方面甚至相比人類更具優勢,它能夠修正糟糕的語法或錯誤的翻譯,并變換表達方式,使陰謀論顯得更具說服力和可信度。
一方面是超強的“造假能力”,而另一方面卻是相對缺失的“審核門檻”——在算法邏輯中,事實核查能力天然缺失,來源不明的所謂“新聞稿”隨時可能成為輿論爆點,大眾在將信將疑中“且傳且圍觀”。
亂象頻仍、真相缺失充分警示:面對這樣的超強生產能力,如若不加治理限制,任由人工智能隨性發展,必將嚴重威脅我們的信息生態。
科技是一把雙刃劍,人工智能也是如此。我們當然不必視之為洪水猛獸,關鍵是在積極擁抱新技術、新事物的同時,注意規避潛在的問題和風險。
人工智能浪潮滾滾而來,相關法律與倫理框架不僅不能落后,反而更要盡量趕在前面。
目前,世界各國皆在開展相關工作,以我國來說,今年1月《互聯網信息服務深度合成管理規定》頒布實施;4月,國家網信辦起草《生成式人工智能服務管理辦法(征求意見稿)》。相信隨著法律法規的逐漸完善,相關權責會更加明晰,操作規范會更加具體。
與此同時,對待技術帶來的新問題,也要多多尋求“技術解”。比如,對于人工智能合成的文章進行識別、并打上不可抹掉的標簽。
ChatGPT在接受《時代》專訪時曾回答:我還有很多局限,但人類應準備好應對AI。確實,當為ChatGPT打開的新世界而激動萬分時,我們更應該有一絲理性的冷靜。
構建人工智能應用的倫理和法律框架,讓其與技術研發齊頭并進,規定好人工智能締造者的義務,充分提醒用戶保持警覺。“凡事預則立”,盡快做好方方面面的準備工作,社會就能更好應對“人工智能生產內容新紀元”。
關鍵詞: