如何合法收集人工智能数据
ICO 的指南承认,虽然利用人工智能具有不可否认的优势,但如果不认真对待数据保护,它也会危及人们的自由和权利。 为此,他们的指南为企业应如何评估和减轻这些风险提供了一个有用的框架。
该指南涵盖了企业可以采用的八个战略要素,以改进他们处理人工智能和个人数据的方式:
1. 在创建和实施 AI 时使用基于风险的程序
使用 AI 时,您应该根据情况确定是否有必要。 当人工智能与个人信息交互时,它通常被认为是一种高风险技术。 公司需要大量数据来改进其系统以使其正常工作,而我们的数据可能会被转售,变得不知道谁在接收它或如何使用它。
因此,可能会有更有效和保护隐私的替代品。
正如 ICO 所述,您必须评估风险并采取必要的组织和技术保障措施来降低风险。 实际上,完全消除所有风险是不可能的,数据保护法也没有强制要求您这样做,但请确保您:
- 采用数据保护影响评估 (DPIA) 来确定和降低因使用人工智能而导致的不遵守数据保护法的风险,并防止对个人造成伤害
- 从您使用 AI 可能会影响到的许多团体寻求意见,以便更好地了解危险
当法律要求进行 DPIA 时,您必须在部署 AI 系统之前进行一次,并引入适当的组织和技术保障措施,以帮助减少或管理您发现的风险。 在进行任何处理之前,如果您发现无法充分缓解的风险,法律要求您与 ICO 交谈。
2. 考虑如何向受影响的人解释人工智能系统的决定
根据 ICO 的说法,解释人工智能如何产生某些决策和结果可能具有挑战性,尤其是在涉及机器学习和复杂算法时——但这并不意味着你不应该向人们提供解释。