Skip links
الاتحاد الدولي للذكاء الاصطناعي
 الإرشادات الأخلاقية التي يعتمدها الاتحاد الدولي للذكاء   الاصطناعي

يعتمد الاتحاد الدولي للذكاء الاصطناعي توجيهات أخلاقية مستمدة من المبادئ المعترف بها دوليًا، بما في ذلك تلك التي تم تبنيها سابقًا في دبي، والتي تركز على الالتزام بالعدالة، والشفافية، والمساءلة، وسهولة الإيضاح في تصميم وتشغيل أنظمة الذكاء الاصطناعي. تسعى هذه الإرشادات إلى تقديم خطوات عملية ومقترحات واضحة لمساعدة الجهات المعنية على الالتزام بالمسؤولية الأخلاقية عند استخدام تقنيات الذكاء الاصطناعي. وتشمل المبادئ التي يوصي بها الاتحاد قضايا محورية مثل الإنصاف في الخوارزميات، وضوح العمليات، توزيع المسؤوليات، وإمكانية شرح القرارات المتخذة بواسطة الأنظمة الذكية. ويهدف الاتحاد إلى تطوير هذه التوجيهات بشكل مستمر لتشكّل إطار عمل عالمي قابل للتطبيق، يساهم في ضمان استخدام الذكاء الاصطناعي بطريقة أخلاقية وآمنة. كما يشجع الاتحاد جميع أصحاب المصلحة على المشاركة الفعالة في هذا الحوار، ويثمّن كل الملاحظات والمساهمات التي تسهم في تحسين المبادئ وتوسيع نطاق تطبيقها.

المسؤولية خارج النظام نفسه:
لا يجب أن تُحمّل أنظمة الذكاء الاصطناعي وحدها المسؤولية عن النتائج، بل يجب توزيع المساءلة بين المطوّرين والمشغلين، الذين يتحملون المسؤولية القانونية والأخلاقية عن أداء هذه الأنظمة.

رصد المخاطر والحد منها مسبقًا:
من الضروري أن يقوم المطورون بتقييم دقيق للمخاطر التي قد تنشأ من تصميم النظام، واتخاذ تدابير فعالة لتقليل احتمالية حدوث أضرار أو تأثيرات سلبية غير مقصودة.

التدقيق الخارجي (قيد التفعيل):
يجب أن تخضع الأنظمة التي تتخذ قرارات حساسة لمراجعة وتدقيق من قبل جهات مستقلة ومحايدة، مما يضمن زيادة مستوى الشفافية وتعزيز ثقة المستخدمين والمجتمع.

حق الاعتراض:
ينبغي أن يتمتع الأشخاص المتأثرون بقرارات الذكاء الاصطناعي بحق الاعتراض على هذه القرارات، مع إتاحة خيار عدم المشاركة في الأنظمة المؤتمتة كلما كان ذلك ممكنًا، حمايةً لحقوقهم وحريتهم في اتخاذ القرارات.

عدم إصدار قرارات دون موافقة مسبقة:
من المهم أن لا تتخذ أنظمة الذكاء الاصطناعي قرارات هامة نيابةً عن الأفراد بدون الحصول على موافقتهم الصريحة والمسبقة، لضمان احترام إرادة وخصوصية كل فرد.

فرق متعددة التخصصات:
يجب أن يتم تصميم وتطوير أنظمة الذكاء الاصطناعي الحساسة بواسطة فرق متنوعة تجمع بين الخبرات التقنية والمعرفة المتخصصة بالمجالات التي سيُستخدم فيها النظام، لضمان شمولية النظر لجميع الجوانب.

الوعي بطبيعة الأنظمة المستخدمة:
على المؤسسات المشغلة لأنظمة الذكاء الاصطناعي أن تكون على دراية كاملة بخصائص تلك الأنظمة، مما يضمن ملاءمتها لبيئة الاستخدام المحددة، ويساعد في تعزيز الشفافية وتحقيق المساءلة بشكل فعال.

 المشاركة  في بناء مستقبل أكثر مسؤولية

نحن نؤمن أن الشفافية تبدأ من الإصغاء، وأن التحسين لا يتم دون النقد البنّاء. ولهذا، ندعوك لأن تكون جزءًا من هذه الرحلة، عبر مشاركتنا ملاحظاتك، وجهات نظرك، واقتراحاتك—فهي ليست مجرد تعليقات، بل لبنات نُبني بها منظومة أخلاقيات أقوى وأكثر شمولاً.

🍪 This website uses cookies to improve your web experience.