與AI機器人聊天 身分、健康等五類隱私別外洩
隨著ChatGPT等人工智慧聊天工具日益普及,越來越多民眾將其視為生活助理、健康顧問,甚至情感傾訴對象。不過科技專家提醒,AI的貼心來自大量用戶輸入的數據,若過度分享個人隱私,恐帶來資訊安全與隱私風險。
「The Wall Street Journal」科技專欄作家Nicole Nguyen近日撰文指出,AI確實能從日常對話中記住用戶的偏好與生活細節,例如飲食習慣、家庭狀況,甚至身體不適的情況,這讓服務更個人化,卻也引發隱憂,這些資料可能被儲存、用於訓練模型,甚至在資料外洩時成為風險來源。
多位資訊安全與人工智慧研究人員因此提出警告,民眾在使用AI聊天機器人時,至少應避免透露以下幾類敏感資訊。
身分識別資料:包括社會安全號碼、護照號碼、駕照資訊、銀行帳號或信用卡資料。這類資訊一旦外洩,可能被用於身分盜用或金融詐騙。
醫療與健康隱私:雖然部分用戶會上傳檢驗報告、病歷或症狀描述,專家提醒,涉及明確個人身分的醫療資訊仍應謹慎處理,尤其在不清楚資料如何儲存與使用的情況下。
公司或機構的內部資料:工程師、員工若將尚未公開的程式碼、商業機密或內部文件貼入AI工具中尋求協助,可能違反公司規定,甚至造成智慧財產外洩。
可追溯的家庭與兒童資訊:關於未成年子女的作息、健康狀況、學校資訊等,專家認為風險尤其高,應盡量避免輸入可辨識身分的細節。
過度私密的情感與個人經歷:雖然AI能模擬傾聽與回應,但研究人員指出,這類工具並非真正的保密對象,使用者不應將其視為心理諮商或情緒托管的替代品。
Nguyen在文章中指出,AI公司不斷強調會改善隱私保護機制,但現實是,只要資料被輸入系統,就可能成為訓練素材的一部分。部分專家建議,用戶應定期檢視聊天紀錄與記憶設定,必要時手動刪除或關閉相關功能。
專家強調,人工智慧本身並非危險,關鍵在於使用方式。只要保持基本的數位警覺,將AI視為工具而非傾訴對象,便能在享受便利的同時,降低潛在風險。

FB留言