AI的真正風險?

天峯醫生 | 2024-06-05

由圍棋機械人,到無人駕駛、人臉識別、智慧家居、醫療診斷,以至遙遠的太空任務,AI所能涉足的行業和工作愈來愈多。

正當AI變得愈益聰明、能幹,甚至在某些範疇中理所當然地表現得比人更優秀,人便開始疑惑……

像ChatGPT的AI聊天機械人出現,的確將人對AI的憂慮、恐懼霎時變得迫在眉睫。身邊不少朋友、同事,都已開始用這種聊天機械人尋找資料、做文章總結,甚至徵求意見;他們紛紛都說,出來的效果非常出色。即使關於醫療資訊,由一個自身是醫生的人看來,也相當有板有眼。加上由AI生成的圖像、畫作、歌曲、影片等,這些本應講求天份、創意、靈感、情感等人性元素的東西,AI竟亦能游刃有餘,人類對AI的防禦能力似乎無可避免地螺旋式減弱。

3個階段

然而,正如筆者前兩篇文章所言,目前的AI還遠遠不足以取代甚至滅絕人類,因為仍有其局限性。

目前AI還遠遠不足以取代甚至滅絕人類,因為仍有其局限性。

其實AI發展多被分成3個階段。

首先是「弱AI」,也稱限制領域AI、狹義AI等,只能專注於單一任務,即使能從不同來源的大數據中學習,仍只能在被編程的特定領域中執行重複性工作。它們並不能真正地推理和解決問題,亦不會有自主意識,極其量只可以代替人力處理某一領域的工作。

第二階段「強AI」,或稱通用AI、廣義AI等,能夠處理多個領域工作;例如做到真正的推理、解決問題,甚至抽象思維等,它們會有自我意識,可以獨立思考難題,並制定解決疑難的最佳方案。這也許是AI企業目前最想要實現的目標,因為屆時它們真的可以代替一般人完成生活中大部分工作。

第三階段「超AI」,在這階段它可以自己每天學習,甚至自我編碼,再自身進行無限次升級迭代,結果在幾乎所有領域都超越人類,而且是超越最頂尖的人類數以億萬倍。

不過,迄今為止,全球AI發展水平大部分仍處於第一階段。例如智能手機上林林總總用到AI技術的應用程式,由了解用者口味而提出飲食、娛樂建議,到出行安排或駕駛導航等,基本上照顧我們日常生活很多需要;但只能在設定的角色範圍之內運作。

現時已常用到AI技術,例如它會因應個人喜好推薦飲食娛樂的選擇。

即使更為複雜的無人駕駛和聊天AI,都沒自我意識,仍然在單一範疇作業,所以還是「弱AI」。

就好像同樣分析胸肺X光片,篩查胸肺X光片陰影的AI卻不能同時協助確定鼻胃喉安插位置正確,幾乎每個功能都要用專門Module的AI,更莫說AI要幫手解決病人問題。待AI能真正取代醫生,便是第二階段「強AI」之時。當然,這些被編程為具有自動學習功能的系統,很有可能將我們帶到下一個階段。

可是,若果只顧生怕AI將來會取代或統治人類,反而容易忽視了真正迫在眉睫的風險。

人性元素
這一代已經常用AI搜集和分析資料、參考並用以作出決定。由上文提及的因應個人喜好推薦飲食娛樂選擇,到公司審核履歷招聘、銀行審批貸款申請等,其實常用到AI技術。只是,AI不時會在關於某些群體的判斷或預測結果中出現系統性偏差或錯誤,這些可能由於演算法本身的偏誤,也可能因為機器學習所基於的數據和資料自身有所偏差。

例如,用AI篩查胸肺X光片陰影經常出現「誤鳴」,又如AI在識別不同人種方面的錯誤率比較高,其實都很取決於供其學習數據的質和量。此外,聊天機械人的答案同樣取決於網上過往資訊,機械人本身並沒能力分辨訊息是真是假,亦無法過濾現實社會中對性別、種族、社經地位等的歧視與偏見,所以有時會製造出不合理、偏頗,甚至錯誤的答案或評選。

另一個風險是AI應用偏離原先目的,甚至被用來做壞事。這包括利用聊天AI直接寫論文、做報告、繪圖交功課等,又如運用原本解決圖片資料量不足問題的深偽技術(deepfake)來進行偽造、詐騙。恰如炸藥,原先發明來造福人群,卻又被用來殺人如麻。

當我們愈來愈習慣用AI來解決問題,便會愈益少用自己的腦袋而變蠢。

第三個,也是筆者認為最切身的風險是,當我們愈來愈習慣用AI來解決問題,便會愈來愈少用自己的腦袋。莫說AI有機會出錯而不知,我們亦可能會變得愈來愈蠢。就像有了汽車代步,現代人步行能力會退化。若果把分析、整合,以至創作過程都完全交給AI,或許並非AI超越人類,而是人類把自己對AI的防禦能力不斷自我削弱,將我們僅餘的人性元素拱手相讓。

撰文 : 天峯醫生

[信健康] AI對人類帶來的影響,醫療資訊要留意!【更多健康資訊:health.hkej.com