觀點
歐陽五:人機博弈 誰是贏家
【明報文章】生成式人工智能(AIGC)時代到來,全球製造業正抓住新技術變革時機,乘勢而上。中國的工廠也不例外。
最新消息顯示,被譽為「世界上最先進的工廠」——「燈塔工廠」,在中國的總數已達72家,佔全球四成。亮眼的數字背後,「人機博弈」拉開序幕。這不僅是中國製造業智能化要面對的問題,亦是全球工業繞不過去的坎。
今天的人工智能,實則指「機器學習」,是各領域相對局限的智能開發,雖然尚不具備自我認知能力,更未出現如電影《未來戰士》(The Terminator)所描繪的機器智能消滅人類的恐怖圖景,但當前局勢,足以令人類與智能機器之間發生或明或暗的博弈。
生產場景裏 兩點值得關注
就拿粵港澳大灣區建設來說,當地已有不少智能化工廠。從啤酒灌裝到塑料管生產,在AI「大腦」指揮下,機械手臂抓取、旋轉;空無一人的廠房裏,機器高速運轉,大批產品可快速下線。只有零星幾個工作人員在中央監控室盯着屏幕,操控電腦,實時監控設備運行。
要而言之,這樣的生產場景中,人機之間的兩點博弈,值得捕捉。
其一,AI技術融入製造業,導致就業崗位減少。與蒸汽、電力等技術帶來的革命一樣,AI給當下社會也帶來了就業問題。不過在過去,機器自動化取代的主要是重複性的體力勞動;如今,愈來愈多的腦力勞動者也面臨就業威脅。
在中國,部分領域的產品設計、工程開發、生產管理等工作,近年已陸續出現AI解決方案。這意味着一批中高技術型人才,正面對被取代的風險。
許多學者指,被AI取代並不意味着大量失業,因為新的就業崗位將被創造出來。而根據顧問公司麥肯錫預計,即使自動化迭代的趨勢較為平緩,全球仍然約有7500萬人將面對失業窘境。如何面對如此大規模的知識技能人才轉型,這是人機博弈的一大難題。
其二,AI安全責任界限模糊。隨着生成式人工智能快速發展,語言模型的安全逐漸超越了傳統安全界限,在語言技術、認知、行動等方面出現了全新挑戰。
近期,「首宗AI機械人致死案」引起外界高度關注——今年2月,美國14歲少年與AI聊天,寫下自己要「回家了」之後自殺。他的母親日前起訴了該AI程式提供商。
儘管這不是一宗發生在工業生產場景中的案件,但AI語言模型的安全風險,值得所有場景的用戶警惕。
從技術角度分析,機器學習的訓練數據中,存在的不中立和不準確信息,導致語言模型出現「偏見」和「幻覺」,都會在語言表述,甚至是相應的執行輸出時,對安全生產帶來潛在隱患。
中國從兩方面付諸正向行動
那麼,人機博弈,誰是贏家?關於這個問題,物理學家霍金(Stephen Hawking)曾表示:「人工智能的出現,將是人類有史以來最好或最糟糕的事情。」換言之,如果人類要贏得這場博弈,需以人為目的、善用AI技術,從而「避免AI技術成為人類的最後一次創造」。
事實上觀察中國近年來的動作,不難發現,中國在面對人機博弈上付諸的正向行動。
一方面,穩發展。更接近消費端的生產,正在推進智能化改造,包括電子、食品加工、紡織等。過去,它們大多為勞動密集型產業。從短期來看,中國的這一發展方向和節奏,有助降低對中高技能勞動者就業的衝擊,並為新型知識技術崗位的人才培養創造時空。
另一方面,強治理。中國政府的AI治理節奏,正在提速。近5年間,幾乎每年都發布原則性、規範性的文件,包括2019年《新一代人工智能治理原則——發展負責任的人工智能》、2021年《新一代人工智能倫理規範》、2022年《關於加強科技倫理治理的意見》、2023年《生成式人工智能服務管理暫行辦法》、2024年《國家人工智能產業綜合標準化體系建設指南》等。
地緣衝突不斷 礙全球共治AI
今年9月,OpenAI行政總裁Sam Altman預測,距「超級人工智能」(AGI)時代到來,只有「幾千天」。這幾千天,無論是10年還是更多,給人類留下的時間都不多。放在大格局下看,全球AI治理亟待一個高效框架,既能夠管理風險,也能夠支持技術發展。然而,眼下地緣政治衝突不斷,正在影響AI技術的全球共治。
2023年11月,中國、美國、英國和歐盟在內的28個國家和地區簽署了《布萊奇利宣言》(Bletchley Declaration),承諾共同應對AI安全挑戰。《宣言》將滿一年,共識如何能夠積極落地,大考剛剛開始。筆者希望各國能夠付出實際行動,聯手積蓄力量,讓人工智能技術成為人類的大趨勢與大機遇。
作者是時事評論員
(本網發表的時事文章若提出批評,旨在指出相關制度、政策或措施存在錯誤或缺點,目的是促使矯正或消除這些錯誤或缺點,循合法途徑予以改善,絕無意圖煽動他人對政府或其他社群產生憎恨、不滿或敵意)
[歐陽五]
