كيفية جمع بيانات الذكاء الاصطناعي بشكل قانوني
تقر إرشادات ICO أنه في حين أن استخدام الذكاء الاصطناعي له مزايا لا يمكن إنكارها ، إلا أنه يمكن أن يعرض حريات الأشخاص وحقوقهم للخطر عندما لا تؤخذ حماية البيانات على محمل الجد. ولهذه الغاية ، توفر إرشاداتهم إطارًا مفيدًا لكيفية تقييم المؤسسات لهذه المخاطر والتخفيف من حدتها.
يغطي الدليل ثمانية عناصر إستراتيجية يمكن للشركات اعتمادها لتحسين كيفية تعاملهم مع الذكاء الاصطناعي والبيانات الشخصية:
1. استخدم إجراءً قائمًا على المخاطر عند إنشاء الذكاء الاصطناعي وتنفيذه
عند استخدام الذكاء الاصطناعي ، يجب عليك تحديد ما إذا كان ضروريًا للموقف. يُعتبر الذكاء الاصطناعي عادةً تقنية عالية الخطورة عندما يتفاعل مع المعلومات الشخصية. تتطلب الشركة كميات كبيرة من البيانات من أجل تحسين أنظمتها لتعمل بشكل صحيح وقد يتم إعادة بيع بياناتنا ، حيث تصبح غير مدركة لمن يستلمها أو كيف يتم استخدامها.
وبالتالي ، قد يكون هناك بديل أكثر كفاءة ويحافظ على الخصوصية.
كما تنص ICO ، يجب عليك تقييم المخاطر ووضع الضمانات التنظيمية والفنية اللازمة لتقليلها. من الناحية الواقعية ، من المستحيل القضاء تمامًا على جميع المخاطر ، ولا تفرض قوانين حماية البيانات عليك القيام بذلك ، ولكن تأكد من:
- استخدام تقييم تأثير حماية البيانات (DPIA) لتحديد وتقليل مخاطر عدم الالتزام بقوانين حماية البيانات التي يشكلها استخدامك للذكاء الاصطناعي ، وكذلك منع الضرر الذي يلحق بالأفراد
- ابحث عن مدخلات من العديد من المجموعات التي من المحتمل أن يؤثر استخدامك للذكاء الاصطناعي من أجل فهم الخطر بشكل أفضل
عندما يُطلب قانون حماية البيانات الشخصية قانونًا ، يجب عليك إجراء واحدة قبل نشر نظام ذكاء اصطناعي ، وتقديم إجراءات وقائية تنظيمية وتقنية مناسبة من شأنها أن تساعد في تقليل أو إدارة المخاطر التي تجدها. قبل حدوث أي معالجة ، أنت مطالب قانونيًا بالتحدث مع ICO إذا حددت خطرًا لا يمكنك تخفيفه بشكل مناسب.
2. ضع في اعتبارك كيف ستشرح قرارات نظام الذكاء الاصطناعي الخاص بك لأولئك الذين سيتأثرون
وفقًا لـ ICO ، قد يكون من الصعب شرح كيف يولد الذكاء الاصطناعي قرارات ونتائج معينة ، خاصة عندما يتعلق الأمر بالتعلم الآلي والخوارزميات المعقدة - لكن هذا لا يعني أنه لا ينبغي عليك تقديم تفسيرات للأشخاص.