如何合法收集人工智能數據
ICO 的指南承認,雖然利用人工智能具有不可否認的優勢,但如果不認真對待數據保護,它也會危及人們的自由和權利。 為此,他們的指南為企業應如何評估和減輕這些風險提供了一個有用的框架。
該指南涵蓋了企業可以採用的八個戰略要素,以改進他們處理人工智能和個人數據的方式:
1. 在創建和實施 AI 時使用基於風險的程序
使用 AI 時,您應該根據情況確定是否有必要。 當人工智能與個人信息交互時,它通常被認為是一種高風險技術。 公司需要大量數據來改進其係統以使其正常工作,而我們的數據可能會被轉售,變得不知道誰在接收它或如何使用它。
因此,可能會有更有效和保護隱私的替代品。
正如 ICO 所述,您必須評估風險並採取必要的組織和技術保障措施來降低風險。 實際上,完全消除所有風險是不可能的,數據保護法也沒有強制要求您這樣做,但請確保您:
- 採用數據保護影響評估 (DPIA) 來確定和降低因使用人工智能而導致的不遵守數據保護法的風險,並防止對個人造成傷害
- 從您使用 AI 可能會影響到的許多團體尋求意見,以便更好地了解危險
當法律要求進行 DPIA 時,您必須在部署 AI 系統之前進行一次,並引入適當的組織和技術保障措施,以幫助減少或管理您發現的風險。 在進行任何處理之前,如果您發現無法充分緩解的風險,法律要求您與 ICO 交談。
2. 考慮如何向受影響的人解釋人工智能係統的決定
根據 ICO 的說法,解釋人工智能如何產生某些決策和結果可能具有挑戰性,尤其是在涉及機器學習和復雜算法時——但這並不意味著你不應該向人們提供解釋。