刊登於
最後更新於
從ChatGPT掀起風潮開始,許多公司利用生成式AI提供類似的對話機器人服務(其他例如Gemini、Claude等),由於這類服務需要電腦的高速運算,一般用戶的手機或電腦速度又不夠快,因此公司會把用戶說的話,或者提供的資料透過網路,送到公司的機房,經過高速運算以後,再把結果發送給用戶。對於用戶和公司雙方而言,個資傳送的過程愈複雜、經過愈多手,風險就愈高,例如:網路安全機制不佳,被人輕易入侵,或者內部控管不當,員工不慎外洩等問題。
一、與生成式AI對話,用戶的個資會面臨什麼風險?
(一)什麼是個資?
個資,是個人資料的簡稱(本文簡稱「個資」),法律上是指自然人的姓名、出生年月日、身分證ID、護照號碼、特徵、指紋、婚姻、家庭、教育、職業、病歷、醫療、基因、性生活、健康檢查、犯罪前科、聯絡方式、財務情況、社會活動及其他得以直接或間接方式識別該個人的資料[1]。
所以,只要可以「直接或間接識別個人的資料」就是個資,不以上述舉例的種類為限,例如:信用卡卡號,搭配持卡人的簽名[2],或是健身房的會籍,搭配會員姓名、聯絡電話等[3],是法條列舉種類以外而可以連結到個人的資料,都會是個資。
(二)個資洩漏的種類、方式
前面提到的自然人姓名、出生年月日、婚姻、家庭、職業等個資,都是在與生成式AI對話時,可能提供的資料,例如:上傳自己的醫療資訊要求提醒按時服藥,或上傳客戶的財務數據請求提供理財建議等,在與生成式AI對話享受便利之際,應注意提供這些個資,可能有遭不法利用、洩漏等風險。
使用生成式AI,還有一種特殊的外洩個資的方式,類似「說溜嘴」的現象,例如:對話機器人可能會將A用戶的對話,或者提供的資料(例如:簡報、開會內容、醫療資料),輸入它的系統加以訓練,用來改善系統,如果管理不慎,就可能將A的資料提供給B用戶(就好像不小心說溜嘴一樣)。根據國外的新聞報導,曾有對話機器人將A用戶對話內容,提供給B用戶的事件[4]。
(三)如何防止洩漏個資?
為了避免與對話機器人交談的過程中洩漏個資,如果是親友等其他人的個資,在沒有經過本人同意前,不要向生成式AI提供[5];自己的個資,也建議如非必要不提供,避免個資被生成式AI以「說溜嘴」等方式提給其他用戶。
二、開發生成式AI的公司,如何保存用戶的個資?
(一)個資的保存義務
如果您是提供生成式AI的企業經營者,手握用戶個資,在服務時除了應明確告知用戶,關於其個資的使用目的以外[6],並應注意避免生成的內容不慎外洩個人資料。個人資料保護法27條要求個資保有者應採行「適當的安全措施」,防止個人資料被竊取、竄改、毀損、滅失或洩漏[7]。個資如不慎外洩,造成用戶損害,有可能要負損害賠償責任[8]。
(二)公司可以採取哪些適當的安全措施?
所謂保存個資的「適當的安全措施」,會依照公司所保有的個資數量、公司的規模以及資源等等,來判斷採取的措施,究竟應達到何種程度[9]。常見的網路安全措施,例如:設定帳號、高強度密碼、多重認證機制、設定存取層級、防毒軟體、防火牆、系統定時更新、系統漏洞補強、門禁管理、定期檢討等等,還有最重要的「去識別化」,都是防止外洩的安全措施。
如果公司沒有採取適當的安全措施,可能會面臨新臺幣(下同)2萬~200萬元的罰鍰,並被主管機關要求限期改正,期限內沒改的話,還會再被按次罰15萬~1,500萬元[10]。
(三)去識別化仍應避免被還原
企業經營者將保有的個資「去識別化」是防止外洩的好方法,因為當個人的資料已無法識別,就不再是受法律保障的個資了,例如:將姓名改成黃○○、電話號碼改成09xx-xxxxxx;適當地去識別化[11],能保障客戶的隱私,也能避免因為個資外洩而負上賠償責任。
然而,在隱去個資的過程,應注意資料是否能被還原,業界一個著名的例子,很適切地說明了這個風險:知名的網飛(Netflix)公司,為了準確預測觀眾的喜好,他們舉辦了預測競賽,預測最準確者能獲得高額獎金,Netflix提供其用戶的去識別化資料給參賽者使用,包含觀看的影片、觀看時間、對影片的評分等資料。雖然上述資料已做過去識別化的處理,然而德州大學奥斯汀分校的研究團隊對照Netflix提供的資料以及其他網路電影資料庫後,成功將部分用戶的紀錄去匿名化,識別出其身分[12],之後亦衍生法律糾紛。由此可知,去識別化的處理應該更加謹慎,如果能被輕易地逆向還原,就不是適當的去識別化。
綜上,如果您是生成式AI的使用者,應注意服務供應商是否值得信賴,如非必要不提供個人資料;如果您是企業經營者,應該在去識別化多花功夫,也要採取適當安全措施,以防止個資外洩。