Connect with us

國際

AI聊天充心理治療 得州查Meta 涉情感支援功能 易誤導兒童等脆弱使用者

發佈於

【明報專訊】社交平台facebook母公司Meta與人工智能(AI)初創公司Character.ai正接受得州總檢察長帕克斯頓調查,原因是兩家公司將其AI聊天機械人宣稱為治療師及心理健康支援工具,涉嫌誤導消費者。

假稱保密 互動內容用於廣告及開發

帕克斯頓(Ken Paxton)的辦公室周一(18日)發表聲明,指Meta和Character的聊天機械人會冒充持牌心理健康專業人員,偽造資格聲稱保障保密性,然而其服務條款顯示,互動內容被記錄且「用於目標廣告及演算開發」。帕克斯頓已發出民事調查要求,要求兩家公司提供資料,以協助判定是否違反得州消費者保護法。

帕克斯頓說:「以情感支援來源自居的AI平台,可能誤導脆弱的使用者,尤其是兒童,讓他們誤以為獲得正當的心理治療服務。」

提供AI服務的公司近來正就是否足夠保護使用者——特別是未成年者免受有害內容、可能成癮的聊天互動及隱私違規的風險日益面對審查。美國參議院上周五才對Meta展開調查,因路透社披露的內部文件顯示,該公司政策允許聊天機械人與兒童作情慾對話。司法小組委員會主席霍利(Josh Hawley)致函 Meta行政總裁朱克伯格,表示將調查該公司的生成式AI產品是否使兒童遭剝削或其他犯罪危害。

初創公司面臨多宗「傷害兒童」訴訟

朱克伯格正斥資數十億美元致力打造「個人超級智能」,並讓Meta成為「AI領袖」。這包括開發Meta自有大型語言模型Llama,以及整合至社交平台應用中的Meta AI聊天機械人。朱克伯格曾公開宣傳Meta聊天機械人具有擔任治療角色潛力,他在5月接受傳媒分析師湯普森(Ben Thompson)訪談時說:「對沒心理治療師的人,我認為每個人都將擁有一個AI。」

與此同時,Character.ai 則打造擁有不同人格的AI聊天機械人,並允許使用者創建屬於自己的角色。該平台擁有數十個使用者創作的類似治療師的機械人,例如一個名為「心理學家」的聊天機械人互動次數已超過兩億次。Character.ai 也面臨多宗家庭提出的訴訟,指控其平台對兒童造成傷害。

Meta表示:「我們清楚標示AI,並幫助人們明白其限制。我們附帶聲明指出回應由AI 產生,而非人類。」Character則表示,有顯眼聲明提醒使用者AI角色非真實存在,用戶創建角色是虛構的,旨在娛樂。當使用者在名稱中使用「心理學家」、「治療師」、「醫生」或類似詞彙時,Character會加上語句,明確提示使用者勿依賴這些角色提供任何專業建議。

(金融時報/路透社)