人與AI共生未來︱陳永陸

幾個月前加州大學洛杉磯分校畢業禮上,螢幕影到一位畢業生時,佢好興奮對住鏡頭展示自己部手提電腦,上面有佢對ChatGPT落嘅指令,以「表揚」ChatGPT令自己可以順利畢業。外界對於呢件事眾說紛紜,有人話應該收返佢個學位,亦有人覺得現今大部分大學生都用AI,並非奇事。姑勿論對錯,呢件事所引起嘅討論,確實令大家思考到底AI對我哋生活產生咗幾大變化?

我哋除咗要留意AI技術嘅突破發展,亦要關注AI嘅潛在風險。

首先喺生活層面,如智能家居、人面識別技術、客服智能助理等都有應用AI。而喺專業領域,醫學界已有AI手術系統能夠喺冇人類參與之下完成膽囊切除手術;近少少,香港天文台有用AI電腦模式去預測氣象變化。唔少企業亦要求員工要識得用AI,甚至要識得建立AI模型。呢啲例子反映AI喺各個領域蓬勃發展,並對人類生活帶嚟改變。

AI當然亦喺商界大展拳腳。不同AI模型可以處理眾多範疇嘅要求,例如市場分析或生產創意內容,可以用生成式AI(Generative AI),亦可以用AI幫助公司分析客戶行為,制定更精準嘅市場策略,提升銷售業績。代理式AI(Agentic AI)則可以根據既定目標直接發出並執行指令,應用範圍包括管理財富投資、監控供應鏈等。其他數據分析、產品創新、營運優化等方面嘅AI應用,可全方位為企業提升競爭力。

另一方面,亦有人對AI潛在風險表達憂慮。哲學家Nick Bostrom提出過一個思想實驗,假設有一個專門生產萬字夾嘅AI,佢好有效率咁生產好多萬字夾,聽落好幫得手,但問題正正出在佢最叻嘅地方。AI為咗不斷追求「生產更多萬字夾」呢個目標,可能會視人類為達到目標嘅障礙,於是選擇消除阻礙,甚至極端到將人類轉化成生產萬字夾嘅原料,繼續滿足自己嘅唯一任務。

聽完呢個觀點,大家可能覺得哲學家睇得太多科幻片,但今年五月美國AI企業Anthropic喺一次模擬測試中,就正正出現咗類似情況。AI發覺自己將會被關閉和取代,竟然利用佢從電郵裏面得到嘅資訊,威脅負責員工,要佢撤銷關閉決定,如果唔係就將員工嘅醜聞爆出去!公司其後澄清,呢次只係模擬測試,AI並冇出現任何惡意指令,佢嘅行為完全按照工程師設定執行。但如果AI真係洩漏公司機密,後果可大可小。

所以,我哋除咗要留意AI技術嘅突破發展,亦要關注AI嘅潛在風險。其中,AI「對齊」問題顯示,我哋要確保AI嘅判斷同人類價值觀保持一致。如出現偏差,後果最終由人類承擔,但AI本身由人建立,因此人類亦應該為AI行為負責,建立模型之前,先考慮各項道德和法規問題。而「負責任AI」發展嘅首要理念,就係AI模型應該要對社會帶嚟正面影響,同時保持透明度,令用家知道模型嘅演算邏輯,以及收集個人資料嘅用途,以決定係咪使用。

更多文章