我的頻道

* 拖拉類別可自訂排序
恢復預設 確定
設定
快訊

美國車市現疲態 今年新車銷量恐見4年來首下滑

突襲完委國換哪裡?預測市場加碼押注川普下個目標 這地方機率最高

與AI機器人聊天 身分、健康等五類隱私別外洩

聽新聞
test
0:00 /0:00
專家提醒,使用AI聊天機器人,五類個人信息最好不要透露。(AI生成圖片)
專家提醒,使用AI聊天機器人,五類個人信息最好不要透露。(AI生成圖片)

隨著ChatGPT等人工智慧聊天工具日益普及,越來越多民眾將其視為生活助理、健康顧問,甚至情感傾訴對象。不過科技專家提醒,AI的貼心來自大量用戶輸入的數據,若過度分享個人隱私,恐帶來資訊安全與隱私風險。

「The Wall Street Journal」科技專欄作家Nicole Nguyen近日撰文指出,AI確實能從日常對話中記住用戶的偏好與生活細節,例如飲食習慣、家庭狀況,甚至身體不適的情況,這讓服務更個人化,卻也引發隱憂,這些資料可能被儲存、用於訓練模型,甚至在資料外洩時成為風險來源。

多位資訊安全與人工智慧研究人員因此提出警告,民眾在使用AI聊天機器人時,至少應避免透露以下幾類敏感資訊。

身分識別資料:包括社會安全號碼、護照號碼、駕照資訊、銀行帳號或信用卡資料。這類資訊一旦外洩,可能被用於身分盜用或金融詐騙

醫療與健康隱私:雖然部分用戶會上傳檢驗報告、病歷或症狀描述,專家提醒,涉及明確個人身分的醫療資訊仍應謹慎處理,尤其在不清楚資料如何儲存與使用的情況下。

公司或機構的內部資料:工程師、員工若將尚未公開的程式碼、商業機密或內部文件貼入AI工具中尋求協助,可能違反公司規定,甚至造成智慧財產外洩。

可追溯的家庭與兒童資訊:關於未成年子女的作息、健康狀況、學校資訊等,專家認為風險尤其高,應盡量避免輸入可辨識身分的細節。

過度私密的情感與個人經歷:雖然AI能模擬傾聽與回應,但研究人員指出,這類工具並非真正的保密對象,使用者不應將其視為心理諮商或情緒托管的替代品。

Nguyen在文章中指出,AI公司不斷強調會改善隱私保護機制,但現實是,只要資料被輸入系統,就可能成為訓練素材的一部分。部分專家建議,用戶應定期檢視聊天紀錄與記憶設定,必要時手動刪除或關閉相關功能。

專家強調,人工智慧本身並非危險,關鍵在於使用方式。只要保持基本的數位警覺,將AI視為工具而非傾訴對象,便能在享受便利的同時,降低潛在風險。

AI 人工智慧 詐騙

上一則

重建24年 海灣大橋成「征服恐懼」建築奇蹟

下一則

聖誕大戰勇士輕取獨行俠 柯瑞飆23 全場起立歡迎湯普森回家

超人氣

更多 >