วิธีรวบรวมข้อมูล AI อย่างถูกกฎหมาย
คำแนะนำของ ICO ยอมรับว่าในขณะที่การใช้ AI มีข้อดีที่ไม่อาจปฏิเสธได้ มันยังสามารถเป็นอันตรายต่อเสรีภาพและสิทธิของผู้คนได้ หากการปกป้องข้อมูลไม่ได้รับการดูแลอย่างจริงจัง ด้วยเหตุนี้ คำแนะนำของพวกเขาจึงให้กรอบการทำงานที่มีประโยชน์สำหรับวิธีที่องค์กรควรประเมินและลดความเสี่ยงเหล่านี้
คู่มือนี้ครอบคลุมองค์ประกอบเชิงกลยุทธ์ 8 ประการที่ธุรกิจสามารถนำไปใช้เพื่อปรับปรุงวิธีการจัดการกับ AI และข้อมูลส่วนบุคคล:
1. ใช้ขั้นตอนตามความเสี่ยงเมื่อสร้างและนำ AI ไปใช้งาน
เมื่อใช้ AI คุณควรพิจารณาว่าจำเป็นสำหรับสถานการณ์หรือไม่ โดยทั่วไปแล้ว AI ถือเป็นเทคโนโลยีที่มีความเสี่ยงสูงเมื่อโต้ตอบกับข้อมูลส่วนบุคคล บริษัทต้องการข้อมูลจำนวนมากเพื่อปรับปรุงระบบให้ทำงานได้อย่างถูกต้อง และข้อมูลของเราอาจถูกขายต่อโดยไม่รู้ว่าใครเป็นผู้ได้รับข้อมูลหรือนำไปใช้อย่างไร
ดังนั้นจึงอาจมีสิ่งทดแทนที่มีประสิทธิภาพและรักษาความเป็นส่วนตัวมากกว่า
ตามที่ ICO ระบุไว้ คุณต้องประเมินความเสี่ยงและวางมาตรการป้องกันทางองค์กรและทางเทคนิคที่จำเป็นเพื่อลดความเสี่ยงเหล่านั้น ตามความเป็นจริงแล้ว เป็นไปไม่ได้เลยที่จะกำจัดความเสี่ยงทั้งหมด และกฎหมายคุ้มครองข้อมูลไม่ได้บังคับให้คุณทำเช่นนั้น แต่คุณต้องแน่ใจว่าคุณ:
- ใช้การประเมินผลกระทบต่อการปกป้องข้อมูล (DPIA) เพื่อกำหนดและลดความเสี่ยงของการไม่ปฏิบัติตามกฎหมายคุ้มครองข้อมูลที่คุณใช้ AI รวมถึงป้องกันอันตรายต่อบุคคล
- ขอความคิดเห็นจากหลายๆ กลุ่มที่การใช้ AI ของคุณอาจส่งผลกระทบ เพื่อให้เข้าใจถึงอันตรายได้ดียิ่งขึ้น
เมื่อกฎหมายกำหนด DPIA คุณต้องดำเนินการก่อนที่จะปรับใช้ระบบ AI และแนะนำการป้องกันเชิงองค์กรและทางเทคนิคที่เหมาะสมซึ่งจะช่วยลดหรือจัดการความเสี่ยงที่คุณพบ ก่อนที่การประมวลผลใดๆ จะเกิดขึ้น คุณจะต้องพูดทางกฎหมายกับ ICO หากคุณระบุความเสี่ยงที่คุณไม่สามารถบรรเทาได้อย่างเพียงพอ
2. พิจารณาว่าคุณจะอธิบายการตัดสินใจของระบบ AI ของคุณแก่ผู้ที่จะได้รับผลกระทบอย่างไร
ตาม ICO อาจเป็นเรื่องยากที่จะอธิบายว่า AI สร้างการตัดสินใจและผลลัพธ์บางอย่างได้อย่างไร โดยเฉพาะอย่างยิ่งเมื่อพูดถึงการเรียนรู้ด้วยเครื่องและอัลกอริทึมที่ซับซ้อน แต่นั่นไม่ได้หมายความว่าคุณไม่ควรให้คำอธิบายแก่ผู้คน