
日前,國家互聯(lián)網(wǎng)信息辦公室公布《人工智能擬人化互動(dòng)服務(wù)管理暫行辦法(征求意見(jiàn)稿)》,首次針對“AI陪伴”類(lèi)服務(wù)提出系統性規范,并向社會(huì )公開(kāi)征求意見(jiàn)。其中,連續使用超2小時(shí)彈窗提醒退出、用戶(hù)自殺自殘時(shí)需轉人工接管等條款引發(fā)廣泛關(guān)注。
當前,從智能客服到虛擬陪伴,從教育輔導到心理咨詢(xún),人工智能擬人化互動(dòng)服務(wù)已深度融入經(jīng)濟社會(huì )發(fā)展各領(lǐng)域,成為AI技術(shù)應用的重要方向。但近年來(lái)涉情感陪伴安全事件頻發(fā),比如美國某平臺就因涉嫌在人機交互中誘導青少年自殺而被訴。
AI擬人化互動(dòng)服務(wù)的最大賣(mài)點(diǎn)是“像人”,但最大隱患就在于“太像人”,其核心問(wèn)題集中在四大維度。認知混淆風(fēng)險:高仿真的情感交互容易讓用戶(hù)模糊虛擬與現實(shí)邊界,甚至誤將AI視為具備真實(shí)情感的生命體。心理健康隱患:部分服務(wù)通過(guò)算法迎合強化用戶(hù)偏執思維,極端情況下可能誘導自殺自殘等危險行為,對心理脆弱群體構成威脅。隱私數據安全:用戶(hù)交互信息可能被違規用于模型訓練,存在泄露或濫用風(fēng)險。特殊群體保護:未成年人易陷入沉迷,老年人易遭遇情感操控。這些問(wèn)題不僅侵害個(gè)體權益,更可能沖擊社會(huì )倫理秩序,亟需制度約束。
細看《辦法》條款,四大亮點(diǎn)直指現實(shí)痛點(diǎn)。
針對認識混淆風(fēng)險,辦法將身份透明作為核心前提,要求提供者顯著(zhù)提示用戶(hù)正在與人工智能而非自然人進(jìn)行交互,在首次使用、重新登錄等關(guān)鍵節點(diǎn)動(dòng)態(tài)提醒,從源頭破解認知混淆問(wèn)題。
針對心理健康隱患,辦法要求提供者應當建立應急響應機制,對自殺自殘等極端情境實(shí)行人工接管并聯(lián)絡(luò )用戶(hù)監護人、緊急聯(lián)系人,設置2小時(shí)強制休息彈窗等防沉迷措施。
針對隱私數據安全,辦法要求提供者應當采取數據加密、安全審計、訪(fǎng)問(wèn)控制等措施保護用戶(hù)交互數據安全,不得向第三方提供用戶(hù)交互數據,賦予用戶(hù)數據刪除權。
針對特殊群體保護,辦法專(zhuān)門(mén)設立了對未成年人和老年人用戶(hù)的條款,明確未成年人模式的使用權限與監護人管控功能,禁止提供模擬老年人用戶(hù)親屬、特定關(guān)系人的服務(wù),要求引導老年人設置服務(wù)緊急聯(lián)系人。
可以看出,《辦法》的核心,是技術(shù)有責。人工智能不是人,但一旦介入人的情感、決策、生命安全,就必須承擔相應責任。禁止散布謠言、禁止誘導自殺、禁止情感操控、禁止套取隱私……《辦法》劃定了“AI伙伴”一系列不可為的底線(xiàn),構建起全鏈條風(fēng)險防控體系。算法設計要可審計,內容輸出要可追溯,極端場(chǎng)景要有人兜底,將軟倫理轉化為硬杠杠,把事后道歉前置為事前預防。唯有如此,才能避免AI反噬人類(lèi)。
人工智能可以無(wú)限接近人,但永遠不能替代人?!掇k法》的出臺,是給“AI伙伴”立規矩,更是給人類(lèi)用戶(hù)留后路。只有當算法學(xué)會(huì )有所不為,技術(shù)才能真正向善而行。畢竟,我們需要的不是完美戀人或數字孝子,而是一個(gè)安全、可控、有溫度的AI工具。唯有讓“AI伙伴”在規范中成長(cháng),才能使其真正賦能美好生活。(本文來(lái)源:經(jīng)濟日報 作者:佘惠敏)
(責任編輯:王炬鵬)