تشير أخلاقيات الذكاء الاصطناعي إلى المبادئ والارشادات التوجيهية الأخلاقية التي تحكم تطوير ونشر واستخدام تقنيات الذكاء الاصطناعي (AI). تهدف هذه الأخلاقيات إلى ضمان تطوير الذكاء الاصطناعي واستخدامه بطرق مفيدة وعادلة وتحترم حقوق الإنسان والقيم المجتمعية. تقدم هذه المقالة تعريفًا وبعض الأمثلة على أخلاقيات الذكاء الاصطناعي. وهي في الأساس قواعد يفرضها العاملون في مجال الذكاء الاصطناعي على أنفسهم للتأكد من أن تكنولوجيا الذكاء الاصطناعي لا تسلك المسار الخطأ.
ما هي أخلاقيات الذكاء الاصطناعي؟
تهدف أخلاقيات الذكاء الاصطناعي إلى ضمان أن برامج الذكاء الاصطناعي تتصرف وفقًا للقانون والأخلاق. على سبيل المثال، قد يرغب المطورون في التأكد من أن برامجهم تعامل المستخدمين بشكل عادل عند الدردشة معهم، ولا تستخدم محتوى لا يحق لهم استخدامه، ولا يمكن استغلالها من قبل شخص يسعى إلى التسبب في ضرر.
مع انتشار الذكاء الاصطناعي على نطاق واسع في محركات البحث ووسائل التواصل الاجتماعي، قد تفرض القوانين واللوائح بعض أشكال الأخلاقيات. ومع ذلك، فهي في الوقت الحاضر مفروضة ذاتيًا إلى حد كبير من قبل العلماء والمطورين والشركات العاملة في مجال الذكاء الاصطناعي.
اليوم، تمتلك بعض العلامات التجارية الكبرى فرقًا كاملة مخصصة لوضع سياسات وممارسات وأخلاقيات الذكاء الاصطناعي. ومن المفهوم أن العديد من العلامات التجارية حذرة أو حتى خائفة من الذكاء الاصطناعي، لذا فإن وجود أخلاقيات محددة لتحديد ما يجب وما لا يجب أن يفعله يعد أمرًا مهمًا للجميع.
لا توجد مجموعة واحدة من أخلاقيات الذكاء الاصطناعي التي يتبعها الجميع، وقد لا يتبع بعض الأشخاص أو الشركات أخلاقيات الذكاء الاصطناعي بالضرورة أيضًا.
ما هي أمثلة على أخلاقيات الذكاء الاصطناعي؟
قد يكون احترام عمل المبدعين من بين المبادئ الأخلاقية للذكاء الاصطناعي. وقد تعني هذه القاعدة منح الفضل للأعمال البشرية التي ربما استُخدمت لتدريب ذكاء اصطناعي معين وتقديم تعويض عادل للمبدعين الذين استُخدمت أعمالهم بواسطة الذكاء الاصطناعي لإنشاء شيء آخر. كذلك قد يكون تجنب التحيز مثالاً آخر على أخلاقيات الذكاء الاصطناعي. على سبيل المثال، لن يعبر روبوت الدردشة مثل ChatGPT عن أفكار تمييزية أو متحيزة. وقد يعني هذا أيضًا أن الذكاء الاصطناعي لن يجيب على سؤال إلا من خلال الاستشهاد ببيانات فعلية.
وفي هذا الاطار أنشأت العديد من شركات التكنولوجيا الرائدة فرقًا وأطر عمل مخصصة لضمان تطوير أنظمة الذكاء الاصطناعي الخاصة بها واستخدامها بشكل أخلاقي. وفيما يلي بعض الأمثلة على ذلك:
مبادئ جوجل للذكاء الاصطناعي
لقد أوضحت جوجل مجموعة من مبادئ الذكاء الاصطناعي لتوجيه عملها في هذا المجال. تؤكد هذه المبادئ على:
- كن مفيدًا اجتماعيًا: تهدف جوجل إلى تطوير الذكاء الاصطناعي الذي يفيد المجتمع، على سبيل المثال، الذكاء الاصطناعي الذي يعمل على تحسين الرعاية الصحية أو النتائج التعليمية.
- تجنب إنشاء أو تعزيز التحيز غير العادل: تعمل جوجل على تجنب التحيز في نماذج الذكاء الاصطناعي الخاصة بها. على سبيل المثال، بذلوا جهودًا للتأكد من أن الذكاء الاصطناعي للتعرف على الصور الخاص بهم لا يُظهر تحيزًا عنصريًا.
- كن مسؤولاً أمام الناس: فهم يضمنون وجود آليات للرقابة البشرية وأن المستخدمين يمكنهم مساءلة الأنظمة. توفر جوجل وثائق وتفسيرات واضحة لقراراتها المتعلقة بالذكاء الاصطناعي.
مبادئ مايكروسوفت للذكاء الاصطناعي
تركز مايكروسوفت على مبادئ أساسية لتوجيه تطوير الذكاء الاصطناعي لديها:
- العدالة: يتم استخدام قائمة التحقق من عدالة الذكاء الاصطناعي من مايكروسوفت لتحديد التحيز والتخفيف منه. لديهم مبادرات مثل Project InnerEye، الذي يستخدم الذكاء الاصطناعي لتحسين التصوير الطبي مع ضمان عدالة النظام عبر التركيبة السكانية المتنوعة للمرضى.
- الموثوقية والسلامة: تجري مايكروسوفت اختبارات صارمة والتحقق من صحة أنظمة الذكاء الاصطناعي الخاصة بها للتأكد من أنها موثوقة وآمنة. على سبيل المثال، تعمل ميزات أمان Azure AI على حماية البيانات التي تستخدمها نماذج الذكاء الاصطناعي.
- الخصوصية والأمان: يطبقون تدابير قوية لخصوصية البيانات والتشفير لحماية بيانات المستخدم. تضمن أدوات مثل الخصوصية التفاضلية لمايكروسوفت عدم إمكانية التعرف على البيانات الفردية في مجموعات كبيرة من البيانات.
إرشادات الذكاء الاصطناعي الأخلاقية الخاصة بشركة IBM
لقد كانت شركة IBM مدافعًا قويًا عن الذكاء الاصطناعي الأخلاقي ولديها مجلس أخلاقيات الذكاء الاصطناعي الخاص بها. يركزون على:
- الشفافية: تأتي أنظمة الذكاء الاصطناعي الخاصة بشركة IBM، مثل Watson، مزودة بمجموعات أدوات الشفافية التي تتيح للمستخدمين فهم قرارات الذكاء الاصطناعي والثقة فيها. يتضمن ذلك أدوات التفسير التي توضح كيفية وصول الذكاء الاصطناعي إلى استنتاجاته.
- المساءلة: تضمن وجود خطوط واضحة للمساءلة عن قرارات الذكاء الاصطناعي. على سبيل المثال، يقوم مجلس الأخلاقيات في شركة IBM بمراجعة جميع مشاريع الذكاء الاصطناعي الرئيسية والإشراف عليها للتأكد من استيفائها للمعايير الأخلاقية.
مكتب Salesforce للاستخدام الأخلاقي والإنساني للتكنولوجيا
أنشأت Salesforce مكتبًا للاستخدام الأخلاقي والإنساني للتكنولوجيا لضمان استخدام الذكاء الاصطناعي والتقنيات الأخرى بشكل مسؤول. يركزون على:
- التمكين والشمولية: تقوم Salesforce بتطوير أدوات الذكاء الاصطناعي التي تعمل على تمكين مجموعات متنوعة من الأشخاص. على سبيل المثال، تم تصميم الذكاء الاصطناعي الخاص بشركة Einstein ليكون متاحًا ومفيدًا للمستخدمين من خلفيات مختلفة.
- الثقة: يعطون الأولوية لبناء الذكاء الاصطناعي الذي يمكن للمستخدمين الوثوق به من خلال ضمان شفافية وأمان خوارزمياتهم وسياسات استخدام البيانات الخاصة بهم.
الذكاء الاصطناعي الأخلاقي في الرعاية الصحية
في مجال الرعاية الصحية، يعد الذكاء الاصطناعي الأخلاقي أمرًا بالغ الأهمية نظرًا للمخاطر الكبيرة. على سبيل المثال:
Mayo Clinic: لدى Mayo Clinic مجلس أخلاقيات الذكاء الاصطناعي الذي يراجع جميع تطبيقات الذكاء الاصطناعي في الرعاية الصحية لضمان خصوصية بيانات المريض، والموافقة المستنيرة، وتوصيات العلاج غير المتحيزة. يستخدمون الذكاء الاصطناعي للتحليلات التنبؤية في رعاية المرضى مع ضمان احترام الذكاء الاصطناعي لاستقلالية المريض وخصوصيته.
توضح هذه الأمثلة كيف أن الشركات الكبرى لا تعمل على تطوير تقنيات الذكاء الاصطناعي فقط، بل تعمل أيضًا على ضمان إنشاء هذه التقنيات ونشرها بطرق أخلاقية وشفافة ومفيدة للمجتمع. ومن خلال إنشاء فرق مخصصة، ووضع مبادئ توجيهية واضحة، والمشاركة في مبادرات أوسع، فإنهم يهدفون إلى معالجة المخاوف العامة وبناء الثقة في أنظمة الذكاء الاصطناعي.
هل نحتاج إلى أخلاقيات الذكاء الاصطناعي؟
تحكي العديد من كتب وأفلام الخيال العلمي قصصًا عن الذكاء الاصطناعي غير المقيد وغير المنظم الذي يعيث فسادًا، وهذا السيناريو الأسوأ هو بالضبط ما تهدف أخلاقيات الذكاء الاصطناعي إلى مساعدتنا في تجنبه. ومن خلال إنشاء أطر أخلاقية قوية، نهدف إلى منع هذه النتائج البائسة والتأكد من تطوير تقنيات الذكاء الاصطناعي ونشرها بطرق تعزز رفاهية الإنسان والتقدم المجتمعي.
على سبيل المثال قد يكون الذكاء الاصطناعي قادراً على شرح كيفية بناء قنبلة، ولكن تقديم هذه المعلومات لن يؤدي على الأرجح إلى نتائج جيدة. ومن شأن الأخلاقيات أن تمنع الذكاء الاصطناعي من شرح تعليمات محددة.
لذا، فإن أخلاقيات الذكاء الاصطناعي تضع مبادئ توجيهية يمكن للمطورين اتباعها أثناء عملهم على تكنولوجيا الذكاء الاصطناعي. قد تكون الأخلاقيات هي عدم التسبب في أي ضرر، لذلك قد يُمنع روبوت الدردشة من قول أشياء معينة، أو تقديم معلومات معينة، أو استخدام لغة معينة.
الرقابة بصفة عامة أمر غير محبب، ولكن من الناحية الواقعية، قد يتسبب الذكاء الاصطناعي دون أي نوع من تدابير السلامة أو القيود المضمنة في قدر كبير من الضرر. وبالتالي، فإن أخلاقيات الذكاء الاصطناعي مهمة، خاصة مع تقدم تكنولوجيا الذكاء الاصطناعي وزيادة عدد الأشخاص الذين يستخدمونها.