٢٦ أبريل ٢٠٢٤هـ - ٢٦ أبريل ٢٠٢٤م
الاشتراك في النشرة البريدية
عين الرياض
التكنولوجيا وتقنية المعلومات | الاثنين 20 فبراير, 2023 2:49 مساءً |
مشاركة:

سيلزفورس: 5 مبادئ للذكاء الاصطناعي الموثوق

كشفت شركة «سيلزفورس» اليوم عن المبادئ الرئيسية التي يجب اعتمادها في مجال تطوير الذكاء الاصطناعي الموثوق، وأكدت على لسان تيري نيكول، نائب الرئيس لمنطقة الشرق الأوسط وشمال إفريقيا، بأن الشركة تعمل باستمرار على دمج المبادئ والضوابط الأخلاقية في كافة منتجاتها من أجل مساعدة العملاء على الابتكار ومواجهة أي تحديات محتملة بشكل استباقي، سيرا على نهجها في جميع الابتكارات التي تطرحها. 

 

وقال تيري نيكول بأنه في ضوء الفرص والتحديات الضخمة الناشئة في هذا المجال تعتبر مجموعة المبادئ التوجيهية الجديدة خطوة متقدمة عما سبق واعتمدته الشركة من مبادئ في تطوير الذكاء الاصطناعي الموثوق مع إيلاء التركيز هنا على التطوير والتنفيذ المسؤول لتقنيات الذكاء الاصطناعي التوليدي، منوها بأن هذه المبادئ لا تزال تشهد المزيد من العمل لمواكبة الخطوات الأولية التي تسير عليها تقنيات الذكاء الاصطناعي التحولية، وأكد في هذا السياق التزام الشركة نحو التعلم والاستفادة من التجارب والتعاون مع الآخرين من أجل التوصل إلى الحلول. 

 

تيري نيكول، نائب الرئيس لمنطقة الشرق الأوسط وشمال إفريقيا في شركة «سيلزفورس»

 

 

وفيما يلي مجموعة المبادئ الخمس لضمان موثوقية الذكاء الاصطناعي: 

 

 

 

الدقة: يجب تقديم نتائج في الذكاء الاصطناعي يمكن التثبت منها وتحقق الموازنة بين معدلات الدقة والصحة والإرجاع في النماذج وذلك بتمكين العملاء من تدريب تلك النماذج باستخدام بياناتهم الخاصة. ويجب فتح قنوات التواصل بين جميع الأطراف في حالات عدم اليقين بشأن سلامة ردود الذكاء الاصطناعي وتمكين المستخدمين من التأكد بأنفسهم من هذه الردود. ويمكن القيام بذلك من خلال إيراد المصادر وتبرير أسباب إعطاء الذكاء الاصطناعي الردود التي قدمها (على سبيل المثال، اقتفاء جميع المراحل الاستدلالية التي اتبعها من أجل التوصل إلى الردود) مع تسليط الضوء على الجوانب التي يجب التحقق منها مرة أخرى (على سبيل المثال، الإحصاءات والتوصيات والتواريخ)، ونشر ضوابط تحول دون تنفيذ بعض الأفعال بشكل مؤتمت بالكامل (مثل تنفيذ البرمجيات ضمن البيئة الإنتاجية دون إشراف بشري).

 

 

 

السلامة: كما هو حال جميع نماذج الذكاء الاصطناعي، يجب بذل قصارى الجهود من أجل التخفيف من التحيز واللغة المسيئة والمخرجات الضارة من خلال إجراء تقييمات بشأن التحيز ومسببات الردود ومتانة النماذج مع إطلاق اختبارات محايدة لتعقب واكتشاف الثغرات. ويجب أيضًا حماية خصوصية أي معلومات تعريف شخصية موجودة في البيانات المستخدمة في التدريب، وإنشاء ضوابط للوقاية من وقوع أضرار إضافية (مثل فرض نشر البرمجيات في بيئة معزولة بدلاً من الدفع بها تلقائيًا إلى البيئة الإنتاجية).

 

 

 

الأمانة: يجب احترام مصادر البيانات والتأكد من الحصول على الموافقة عند استخدام البيانات (مثل المصادر المفتوحة أو مصادر المستخدم). ويجب التحلي بالشفافية وذلك بالإشارة إلى أن منشأ المحتوى هو الذكاء الاصطناعي عندما يتم تقديمه بشكل ذاتي (على سبيل المثال، عند استجابة المساعد الافتراضي للمستهلك واستخدام الوسوم المميزة).

 

 

 

التمكين: يجب التمييز بين الحالات التي يستحسن فيها أتمتة العمليات بالكامل والحالات الأخرى التي يجب أن يمارس فيها الذكاء الاصطناعي دورًا داعما للإنسان. ويجب تحديد أفضل توازن بين الرغبة في دعم القدرات البشرية لأقصى درجة وجعل حلول الذكاء الاصطناعي متاحة في متناول الجميع (مثل إنشاء نصوص بديلة للتعريف بمحتوى الصور لمن لا يستطيع رؤيتها).

 

 

 

الاستدامة: بالتزامن مع العمل على إنشاء نماذج أكثر دقة، يجب تطوير نماذج في الذكاء الاصطناعي تمتاز بحجم مناسب قدر الإمكان من أجل تقليل البصمة الكربونية. وفي سياق نماذج الذكاء الاصطناعي، فإن الحجم الأكبر لا يعني دائمًا الأفضل وذلك لأنه في بعض الحالات تتفوق النماذج الأصغر والأفضل تدريباً على النماذج الأكبر والأقل تدريباً.

 

مشاركة:
طباعة
اكتب تعليقك
إضافة إلى عين الرياض
أخبار متعلقة
الأخبار المفضلة