يقدم موقعنا تمارين مصححة في لغات البرمجة مثل C / C ++ و PHP
. اكتشف أيضًا مدونتنا التي تحتوي على آخر أخبار التكنولوجيا من هنا

ثلاثة طرق لتحسين أخلاقيات الذكاء الاصطناعي

abdelouafi

Administrator
أحدث المقالات
إذا كنت ترغب في مشاهدة الصور ، يرجى النقر عليها
Blog
SUIVEZ NOTRE CHAINE YOUTUBE: قم بالتسجيل في قناتنا عبر هذا الرابط https://www.youtube.com/channel/UCCITRMWPcElh-96wCS3EyUg
devoir 1 math tronc commun

مجموعة من دروس و فروض جميع المستويات

دروس الإعدادي - دروس الثانوي الثأهيلي - دروس التعليم الابتدائي - فروض مختلف المستويات الدراسية

فضلا و ليس أمرا شارك هذه الصفحة مع أصدقائك:
1666087796411.png


يشهد مكان العمل ثورة تكنولوجية دائمة التغير تتأثر بشدة بالتطورات في الذكاء الاصطناعي (AI). يتم تقديم المشورة المالية للعملاء من خلال روبوتات المحادثة ، ويتم جمع البيانات الشخصية بواسطة تطبيقات الأجهزة المحمولة ، ويتم إصدار الأحكام الطبية بواسطة الذكاء الاصطناعي ، مما يقلل من الحاجة إلى التفاعل فقط مع إنسان آخر. مع مزيد من المعلومات حول العملاء التي يتم جمعها وتحليلها كل يوم ، يمكن معالجة هذه البيانات بواسطة تقنية الذكاء الاصطناعي بشكل أسرع وأكثر دقة ، مما يجعل التجارة والأعمال أكثر كفاءة وموضوعية.

ومع ذلك ، تأتي مع التقنيات الجديدة مشاكل جديدة ، والسرعة التي يتم بها تطبيق هذه التقنيات غالبًا ما تعني أن هذه التعقيدات تمر دون أن يلاحظها أحد حتى تظهر مخاوف أخلاقية وقانونية خطيرة. لذلك ، في هذه المدونة ، نقوم بتقييم ثلاث قضايا أخلاقية للذكاء الاصطناعي وكيف يمكن تحسينها.

1. التغلب على التحيز في الذكاء الاصطناعي
على الرغم من تنوع الفوائد التي يمكن تدريب الذكاء الاصطناعي على تحقيقها ، مثل دقة أفضل وتسليم أسرع للمهام اليومية ، تم تصميم أنظمتهم من قبل البشر مما قد يجعلهم عرضة لخطر تكرار عدم المساواة الموجودة مسبقًا في العالم. واحدة من أكثر القضايا السائدة التي يسببها هذا هو التحيز ضد الخصائص الديموغرافية مثل العمر أو الجنس أو الطبقة أو العرق.

أحد الأمثلة على التحيز في الذكاء الاصطناعي هو وجود خلل في أداة التوظيف الآلي في أمازون. تحاكي الأداة الأنماط في السيرة الذاتية وتوظيف المرشحين للوظائف على مدى فترة عشر سنوات والتي تفضل الرجال على النساء ، وتميز ضد الجنس من خلال رفض المتقدمين الإناث تلقائيًا.

وفي الوقت نفسه ، في أداة Face Detect من Microsoft ، أظهرت النتائج أن التطبيق به معدل خطأ 0٪ للذكور ذوي البشرة الفاتحة ، بينما كان معدل الخطأ 20.8٪ للإناث ذوي البشرة الداكنة بسبب عدم وجود اختبار مع أولئك من المجموعات الممثلة تمثيلا ناقصا. بدون وعي وتنظيم صحيحين للذكاء الاصطناعي ، يمكن أن يكون لذلك تأثير ضار على ممارسات الأعمال وإعادة التحيزات التاريخية التي كافحنا للتغلب عليها.

للتغلب على هذا ، هناك تركيز متزايد من الشركات لغرس التنوع في القوى العاملة التي تنشئ وتدير خوارزميات الذكاء الاصطناعي. على سبيل المثال ، تسعى أمازون جاهدة للتعلم من أخطائها من خلال إطلاق برنامج "مهندسو المستقبل" الذي يهدف إلى جلب 1.6 مليون شاب من مجموعات ممثلة تمثيلا ناقصًا إلى علوم الكمبيوتر. بعد ذلك ، نظرًا لأن الأنظمة يتم تدريبها وبرمجتها من قبل مجموعة متنوعة من الموظفين ، سيتم تقليل بعض المشكلات التمييزية الحالية وانحيازات الذكاء الاصطناعي إلى الحد الأدنى وإزالتها بمرور الوقت.


2. تحمل المسؤولية عن الذكاء الاصطناعي
من الاعتبارات الأخلاقية الأخرى للذكاء الاصطناعي تحديد من تقع عليه مسؤولية أفعال الذكاء الاصطناعي. هذا ليس مفيدًا فقط في التغلب على تحيزات الذكاء الاصطناعي ، ولكنه أيضًا منتشر بشكل خاص في صحة وسلامة الآلات والمركبات الآلية.

في المملكة المتحدة ، تستكشف هيئة النقل في لندن بدء تشغيل قطارات الأنفاق بدون سائق بحلول عام 2030 مع المراقبة والتحكم المركزيين ، لتلبية الطلب المتزايد على السعة برحلات أسرع وأكثر موثوقية. سيستمر وجود مشغل للأنابيب على متنها ، ولكن مع تطورها ، سيتم تصميمها وتصنيعها لتكون قادرة على التشغيل التلقائي بالكامل مما يثير مخاوف حول من تقع مسؤوليته في حالة وقوع حادث.

كان هذا هو الحال في أوائل عام 2021 عندما تحطمت سيارة ذاتية القيادة بدون مشغل ، وأودت بحياة شخصين في هيوستن ، تكساس. بالإضافة إلى ذلك ، توقعت الوكالة الحكومية Innovate UK أن تكون 90٪ من مركبات HGV للطرق السريعة ذاتية القيادة بحلول عام 2050 ، ومع تزايد الاستثمار في المركبات ذاتية القيادة والتقنيات التي تتزايد باستمرار ، فإن هذا يثير مزيدًا من الارتباك حول مسؤولية الذكاء الاصطناعي.

للتغلب على هذا الالتباس ، يجري تصميم القوانين وتطويرها باستمرار وسط تغييرات في الذكاء الاصطناعي مثل قانون المركبات الآلية والكهربائية 2018 ، والذي تم تعديله مؤخرًا لتحمل مسؤولية التحكم في السيارة الآلية. إلى جانب ذلك ، يُطلب من مصنعي الذكاء الاصطناعي أيضًا التأكد من أن أدواتهم تفي بالمعايير التشريعية والأخلاقية بما في ذلك إطار الأخلاق والشفافية والمساءلة لاتخاذ القرار الآلي الذي تم إنشاؤه لبناء الثقة في تنظيم وتطوير الذكاء الاصطناعي.

3. تحسين موثوقية تطبيقات الذكاء الاصطناعي
نتيجة للتطبيق المتزايد للذكاء الاصطناعي ، فإن الحاجة الأخلاقية لتحسين الموثوقية في تطبيقات الذكاء الاصطناعي آخذة في الازدياد أيضًا لضمان ملاءمتها للغرض وتشغيلها كما هو متوقع.

بالنسبة للشركات التي تسعى إلى اكتساب ميزة تنافسية من خلال التبني المبكر للذكاء الاصطناعي ، فإن تحسين موثوقيتها عن طريق الحد من مخاطر إنتاج نتائج سيئة أمر بالغ الأهمية للحفاظ على صورة العلامة التجارية الإيجابية والتأكد من أنها تعمل على النحو المطلوب. أحد الأمثلة الشائنة هو برنامج الدردشة الآلي Tay على Twitter من Microsoft ، والذي تمت برمجته للتحدث مع مستخدمي وسائل التواصل الاجتماعي الآخرين باستخدام الذكاء الاصطناعي. ومع ذلك ، سرعان ما استفاد الجمهور من مرشحاته الضعيفة حيث كان الروبوت يتواصل بلغة بذيئة ومهينة مما أدى إلى إلغائه واعتذار الشركة من الشركة.

لتحسين موثوقية الذكاء الاصطناعي ، هناك تركيز متزايد على برامج الاختبار القوية مثل عمليات ضمان الجودة. من خلال إجراء مثل هذا الاختبار ، ثبت أن تقنيات الذكاء الاصطناعي جاهزة وفعالة قبل طرحها أو استخدامها في ممارسات الأعمال اليومية.

يعد دمج الأخلاقيات عند العمل باستخدام الذكاء الاصطناعي أمرًا بالغ الأهمية للمؤسسات لضمان الحفاظ على العمليات بشكل جيد وعادلة وآمنة. إذا كنت ترغب في تعلم المهارات التي يبحث عنها أصحاب العمل بنشاط في قطاع تطوير الذكاء الاصطناعي ، من بناء المهارات في برمجة Python إلى التقنيات الأساسية لتحليلات النص ، فيجب أن تفكر في دراسة الماجستير المتخصص عبر الإنترنت في الذكاء الاصطناعي. ستزودك الوحدة الخاصة بنا في أخلاقيات الذكاء الاصطناعي بالأدوات التحليلية والنظرية للتعامل مع الأسئلة الأخلاقية التي يثيرها الذكاء الاصطناعي ، قبل تحليل الحجج وصنعها والدفاع عنها إلى مستوى القيادة.
 
Top