• 设为首页
  • 点击收藏
  • 手机版
    手机扫一扫访问
    迪恩网络手机版
  • 关注官方公众号
    微信扫一扫关注
    迪恩网络公众号

AI也會學壞?



AI是工具,亟需人類正確駕馭。

    AI也會學壞?



    一看到本文標題“AI也會學壞”,相信很多人都不這麼認為。不過,現實是,AI很單純,沒有心機。你教它甚麼,它就做甚麼,可以很容易地創作文字、圖像和視頻等複雜內容。但是如果有些心術不正的人教它做不正確的東西甚至壞事,它也照着做,也就是會教壞它。如不久前本澳發現的首宗利用AI深度偽造手法進行的電腦偽造詐騙案件,就是詐騙者利用AI技術,盜用居民的肖像,換臉、換聲,製作虛假投資視頻。因此,有教授笑言人工智能(AI)的能力強、多才多藝,做甚麼都不拒絕,但也不主動幹事,出了問題亦從不負責。“AI就像‘渣男’,不主動、不拒絕、不負責。”因此,教授指出,當AI越來越像孫悟空無所不能,人類就更需要唐僧。要有人學唐僧,唸咒(以法律)來約束它。

    人工智能(AI)在近年來突飛猛進,在方方面面得到廣泛採用。然而,水能載舟,也能覆舟。有的人擔心AI將會衝擊某些行業,導致大規模失業,甚至擔心會超過人類。還有,AI有時候也靠不住,像上面所說的,其語音、圖像及人臉識別等技術會被濫用於金融詐騙、政治操控、虛假新聞和侵犯隱私等方面。

    在學界也一樣會出現濫用AI技術的現象。現在又到了畢業季,有報道說,為了防止一些學生偷懶,使用AI工具來替他寫畢業論文,因此不少高校引入AI檢測機制。也就是說,“道高一尺,魔高一丈”,或者說,以子之矛,攻子之盾。教授就用AI檢測機制來檢測該學生論文有多少百分比是使用AI來寫的,判定有多少為AI生成。於是,畢業論文“AI率”成為熱門話題。這一現象讓人思考:在AI時代,該如何平衡學術規範與技術發展?用AI直接生成論文內容,這樣可培養不出真正的人才。因此教授也得堅持用AI檢測。

    更有甚者是史學方面。由於AI的本質是模式識別與語料拼接,它並不具備對歷史真偽的判斷能力。因此,有歷史學者擔憂,如果AI把段子、調侃或者憑空編造的故事搜到之後,並把這類東西作為信史,這才是值得擔憂的。有報道說,已經發生過幾次“聰明的”本科生用AI寫歷史類畢業論文,結果裡面的史料是AI編的。有受訪的學生也覺得AI輸出的內容並不能完全信任,胡亂造詞、資料落後等問題經常有,最終仍然需要人工仔細審核才能用。

    問題的關鍵,正如分析所指,不在於AI偶爾會編造或弄錯一些資訊,而是編造者為吸引眼球而生成內容,再由平台靠互動和流量放大傳播,AI模型將其納入語料,再輸出給用戶形成“答案”,最終被更多人採信、引用,甚至寫入正式文本。這個循環一旦建立,虛假資訊便完成了“洗白”,很難再被非專業人士辨別出來。當段子替代文獻,主觀代替證據,想像替代考證,虛假內容一再重複,甚至出現在AI搜索結果或論文生成中,它所帶來的認知偏差也會更深更持久。這是非常可怕的。

    筆者也曾經使用AI找資料,AI幾秒鐘就生成一千多字的資訊出來,但就不知道是從哪裏來的。因此,我還是習慣使用谷歌和百度搜查資料,因為那些資料有出處,還有不同的作者的文章讓人比較、挑選,防止內容偏見,值得讓人相信。

    筆者曾經問AI,如果遇到錯誤的資料如何判斷?AI指其本身無法主動“判斷”數據的真偽,但開發者會通過多種技術手段過濾和優化數據質量。分析後的結論是:確保數據真實性和可靠性仍需結合技術手段與人類判斷。

    總之,AI始終是技術,是工具,有時候也靠不住,也會學壞,缺乏糾錯能力,這就要視乎使用者的態度。我們不能低估AI科技的正面貢獻,但也不能忽視其負面影響。否則,就會如古人所說的“聰明反被聰明誤”。人的因素第一,還是必須有人工審核干預。我們應該駕馭科技,不能被科技駕馭。AI時代需要更清晰的判斷力,需要我們有選擇與取捨的智慧。我們要培養基本的判斷力,在使用AI工具獲取資訊時,別輕易相信那些似是而非的內容,更不要把AI所說的當作唯一答案。AI有關“確保數據真實性和可靠性仍需結合技術手段與人類判斷”的答案,可是大實話。



    郭濟修



62

鮮花
25

握手
55

雷人
75

路過
33

雞蛋

該文章已有0人參與評論

請發表評論

全部評論

扫描微信二维码

查看手机版网站

随时了解更新最新资讯

400-123-45678

在线客服(服务时间 9:00~18:00)

在线QQ客服
地址:上海市虹口区武进路齐浜大厦456号2幢10楼
电邮:green_ps@ppap.com.cn
移动电话:13301215647

Powered by Discuz! X3.4© 2001-2013 Comsenz Inc.