كيف يؤدي اتباع نهج يقظ في الذكاء الاصطناعي إلى تقليل مجموعات البيانات المتحيزة

مجموعات البيانات المتحيزة والذكاء الاصطناعي الأخلاقي

تحتاج الحلول التي تعمل بالذكاء الاصطناعي إلى مجموعات بيانات لتكون فعالة. وإنشاء مجموعات البيانات هذه محفوف بمشكلة التحيز الضمني على مستوى منهجي. يعاني جميع الأشخاص من التحيزات (سواء كانت واعية أو غير واعية). يمكن أن تتخذ التحيزات عدة أشكال: جغرافية ، ولغوية ، واجتماعية-اقتصادية ، ومتحيزة جنسياً ، وعنصرية. ويتم دمج هذه التحيزات المنهجية في البيانات ، والتي يمكن أن تؤدي إلى منتجات الذكاء الاصطناعي التي تديم التحيز وتضخمه. تحتاج المنظمات إلى نهج يقظ للتخفيف من التحيز المتسلل إلى مجموعات البيانات.

أمثلة توضح مشكلة التحيز

أحد الأمثلة البارزة على تحيز مجموعة البيانات هذا الذي حصل على الكثير من الصحافة السلبية في ذلك الوقت كان حل استئناف القراءة الذي فضل المرشحين الذكور على الإناث. وذلك لأن مجموعات بيانات أداة التوظيف قد تم تطويرها باستخدام السير الذاتية على مدار العقد الماضي عندما كان غالبية المتقدمين من الذكور. كانت البيانات متحيزة وعكست النتائج هذا التحيز. 

مثال آخر تم الإبلاغ عنه على نطاق واسع: في مؤتمر مطوري Google I / O السنوي ، شاركت Google معاينة لأداة مساعدة في طب الأمراض الجلدية مدعومة بالذكاء الاصطناعي تساعد الأشخاص على فهم ما يحدث مع المشكلات المتعلقة ببشرتهم وشعرهم وأظافرهم. يؤكد مساعد طب الأمراض الجلدية على كيفية تطور الذكاء الاصطناعي للمساعدة في الرعاية الصحية - لكنه سلط الضوء أيضًا على احتمال التسلل إلى التحيز في الذكاء الاصطناعي في أعقاب الانتقادات بأن الأداة ليست مناسبة للأشخاص الملونين.

عندما أعلنت Google عن الأداة ، لاحظت الشركة:

للتأكد من أننا نبني للجميع ، فإن نموذجنا يراعي عوامل مثل العمر والجنس والعرق وأنواع البشرة - من البشرة الفاتحة غير السمراء إلى البشرة البنية التي نادرًا ما تحترق.

Google ، باستخدام الذكاء الاصطناعي للمساعدة في العثور على إجابات لأمراض الجلد الشائعة

لكن مقالة في Vice قالت إن Google فشلت في استخدام مجموعة بيانات شاملة:

لإنجاز المهمة ، استخدم الباحثون مجموعة بيانات تدريبية تتكون من 64,837 صورة لـ 12,399 مريضًا في ولايتين. ولكن من بين آلاف الأمراض الجلدية التي تم تصويرها ، فإن 3.5 في المائة فقط جاءت من مرضى بنوعي جلد فيتزباتريك V و VI - أولئك الذين يمثلون بشرة بنية وبنية داكنة أو بشرة سوداء ، على التوالي. 90 في المائة من قاعدة البيانات كانت تتألف من أشخاص ذوي بشرة فاتحة ، أو بشرة بيضاء داكنة ، أو بشرة بنية فاتحة ، وفقًا للدراسة. نتيجة لأخذ العينات المتحيزة ، يقول أطباء الأمراض الجلدية إن التطبيق قد ينتهي به الأمر بإفراط أو نقص في تشخيص الأشخاص غير البيض.

Vice ، تطبيق Google الجديد للأمراض الجلدية لم يتم تصميمه للأشخاص ذوي البشرة الداكنة

ردت Google بالقول إنها ستحسن الأداة قبل إطلاقها رسميًا:

إن أداة المساعدة في طب الأمراض الجلدية التي تعمل بالذكاء الاصطناعي هي تتويج لأكثر من ثلاث سنوات من البحث. منذ أن ظهر عملنا في Nature Medicine ، واصلنا تطوير وصقل تقنيتنا من خلال دمج مجموعات بيانات إضافية تتضمن بيانات تبرع بها آلاف الأشخاص ، وملايين من الصور المنسقة المتعلقة بمخاوف البشرة.

Google ، باستخدام الذكاء الاصطناعي للمساعدة في العثور على إجابات لأمراض الجلد الشائعة

بقدر ما نأمل أن تتمكن برامج الذكاء الاصطناعي والتعلم الآلي من تصحيح هذه التحيزات ، تظل الحقيقة قائمة: فهي كذلك فقط سمارت لأن مجموعات البيانات الخاصة بهم نظيفة. في تحديث لقول البرمجة القديم القمامة في / إخراج القمامة، حلول الذكاء الاصطناعي قوية فقط مثل جودة مجموعات البيانات الخاصة بهم من البداية. بدون تصحيح من المبرمجين ، لا تتمتع مجموعات البيانات هذه بالخبرة في الخلفية لإصلاح نفسها - لأنها ببساطة لا تملك إطارًا مرجعيًا آخر.

بناء مجموعات البيانات بشكل مسؤول هو جوهر كل شيء الذكاء الاصطناعي الأخلاقي. والناس هم جوهر الحل. 

الذكاء الاصطناعي الواعي هو ذكاء اصطناعي أخلاقي

لا يحدث التحيز في الفراغ. تأتي مجموعات البيانات غير الأخلاقية أو المتحيزة من اتباع نهج خاطئ أثناء مرحلة التطوير. تتمثل طريقة مكافحة أخطاء التحيز في اعتماد نهج مسؤول محوره الإنسان ، والذي يسميه الكثير في الصناعة الذكاء الاصطناعي الواعي. يحتوي الذكاء الاصطناعي الواعي على ثلاثة مكونات أساسية:

1. الذكاء الاصطناعي الواعي يركز على الإنسان

منذ بداية مشروع الذكاء الاصطناعي ، في مراحل التخطيط ، يجب أن تكون احتياجات الناس في قلب كل قرار. وهذا يعني كل الناس - وليس مجرد مجموعة فرعية. لهذا السبب يحتاج المطورون إلى الاعتماد على فريق متنوع من الأشخاص على مستوى العالم لتدريب تطبيقات الذكاء الاصطناعي لتكون شاملة وخالية من التحيز.

يضمن التعهيد الجماعي لمجموعات البيانات من فريق عالمي ومتنوع تحديد التحيزات وتصفيتها مبكرًا. يمكن لأولئك من مختلف الأعراق والفئات العمرية والجنس ومستويات التعليم والخلفيات الاجتماعية والاقتصادية والمواقع أن يكتشفوا بسهولة مجموعات البيانات التي تفضل مجموعة واحدة من القيم على الأخرى ، وبالتالي التخلص من التحيز غير المقصود.

ألق نظرة على التطبيقات الصوتية. عند تطبيق نهج الذكاء الاصطناعي الواعي ، والاستفادة من قوة مجموعة المواهب العالمية ، يمكن للمطورين حساب العناصر اللغوية مثل اللهجات المختلفة واللهجات في مجموعات البيانات.

يعد إنشاء إطار تصميم محوره الإنسان من البداية أمرًا بالغ الأهمية. إنها تقطع شوطًا طويلاً نحو ضمان أن البيانات التي تم إنشاؤها وتنظيمها وتصنيفها تلبي توقعات المستخدمين النهائيين. ولكن من المهم أيضًا إبقاء البشر في الحلقة طوال دورة حياة تطوير المنتج بالكامل. 

يمكن أن يساعد البشر الموجودون في الحلقة أيضًا الآلات في إنشاء تجربة ذكاء اصطناعي أفضل لكل جمهور محدد. في Pactera EDGE ، تدرك فرق مشروع بيانات الذكاء الاصطناعي لدينا ، الموجودة على مستوى العالم ، كيف يمكن للثقافات والسياقات المختلفة أن تؤثر على جمع وتنظيم بيانات تدريب موثوقة على الذكاء الاصطناعي. لديهم الأدوات اللازمة التي يحتاجون إليها للإبلاغ عن المشكلات ومراقبتها وإصلاحها قبل أن يبدأ الحل المستند إلى الذكاء الاصطناعي.

إن الذكاء الاصطناعي البشري في الحلقة عبارة عن مشروع "شبكة أمان" تجمع بين نقاط القوة لدى الأشخاص - وخلفياتهم المتنوعة مع قوة الحوسبة السريعة للآلات. يجب إنشاء هذا التعاون بين الإنسان والذكاء الاصطناعي من بداية البرامج حتى لا تشكل البيانات المتحيزة أساسًا في المشروع. 

2. الذكاء الاصطناعي الواعي هو المسؤول

أن تكون مسؤولاً هو ضمان خلو أنظمة الذكاء الاصطناعي من التحيزات وأنها ترتكز على الأخلاق. يتعلق الأمر بإدراك كيف ولماذا وأين يتم إنشاء البيانات ، وكيف يتم توليفها بواسطة أنظمة الذكاء الاصطناعي ، وكيف يتم استخدامها في اتخاذ القرار ، والقرارات التي يمكن أن يكون لها آثار أخلاقية. إحدى الطرق للقيام بذلك هي العمل مع المجتمعات غير الممثلة لتكون أكثر شمولاً وأقل تحيزًا. في مجال التعليقات التوضيحية للبيانات ، يسلط البحث الجديد الضوء على كيف يمكن لنموذج متعدد المهام متعدد المعلقين يتعامل مع تسميات كل مضيف توضيحي كمهمة فرعية منفصلة أن يساعد في التخفيف من المشكلات المحتملة الكامنة في أساليب الحقيقة النموذجية حيث قد تكون خلافات المعلق بسبب نقص التمثيل و يمكن تجاهلها في تجميع التعليقات التوضيحية لحقيقة أساسية واحدة. 

3. جدير بالثقة

تأتي المصداقية من كون الشركة شفافة وقابلة للتفسير في كيفية تدريب نموذج الذكاء الاصطناعي ، وكيف يعمل ، ولماذا يوصون بالنتائج. تحتاج الأعمال التجارية إلى خبرة في توطين الذكاء الاصطناعي لتمكين عملائها من جعل تطبيقات الذكاء الاصطناعي الخاصة بهم أكثر شمولاً وتخصيصًا ، مع احترام الفروق الدقيقة في اللغة المحلية وتجارب المستخدم التي يمكن أن تجعل أو تكسر مصداقية حل الذكاء الاصطناعي من دولة إلى أخرى . على سبيل المثال ، يجب على الشركة تصميم تطبيقاتها للسياقات الشخصية والمترجمة ، بما في ذلك اللغات واللهجات واللهجات في التطبيقات القائمة على الصوت. بهذه الطريقة ، يجلب التطبيق نفس المستوى من تطور تجربة الصوت لكل لغة ، من الإنجليزية إلى اللغات الممثلة تمثيلاً ناقصًا.

العدل والتنوع

في النهاية ، يضمن الذكاء الاصطناعي الواعي أن الحلول مبنية على مجموعات بيانات عادلة ومتنوعة حيث تتم مراقبة وتقييم نتائج وتأثير نتائج معينة قبل طرح الحل في السوق. من خلال توخي الحذر وإدراج البشر في كل جزء من تطوير الحل ، نساعد في ضمان بقاء نماذج الذكاء الاصطناعي نظيفة ، ومتحيزة إلى أدنى حد ، وأخلاقية قدر الإمكان.

ما رأيك؟

يستخدم هذا الموقع نظام Akismet لتقليل الرسائل الضارة. تعرف كيف تتم معالجة بيانات تعليقك.