اقترح فريق من العلماء في المعهد الوطني الأمريكي للمعايير والتقنية مجموعة من المبادئ التي تتيح لنا الحكم على قابلية تفسير القرارات التي يتخذها الذكاء الاصطناعي.
وغاية المعهد الوطني للمعايير والتقنية تطوير أنظمة ذكاء اصطناعي جديرة بالثقة، ويتضمن ذلك تحسين دقة هذه الأنظمة وموثوقيتها وقدرتها على تبرير قراراتها وأفعالها. ونشر الفريق مسودة جديدة تتعلق بمبررات قرارات الذكاء الاصطناعي، وتضمنت هذه المسودة مواضيع هندسية وحاسوبية ومسائل متعلقة بالدراسات القانونية وعلم النفس.
وقال جوناثون فيليبس، المهندس الإلكتروني في المعهد الوطني للمعايير والتقنية وأحد مؤلفي التقرير «أصبح الذكاء الاصطناعي منخرطًا في قرارات عالية المخاطر، ولا أحد يريد أن تتخذ الآلات قرارات دون أن نفهم السبب منها. لكن التفسير الذي يرضي المهندس قد لا يقنع شخصًا في مجال مختلف، ولذا نريد تنقيح المسودة باستخدام مجموعة متنوعة من وجهات النظر والآراء.»
تطوير مستمر
طلب المعهد الوطني للمعايير والتقنية من الناس إبداء آرائهم وتعليقاتهم على المسودة حتى 15 أكتوبر/تشرين الأول 2020، وتتضمن هذه المسودة أربعة مبادئ للذكاء الاصطناعي القابل للتفسير، وهي:
- يجب أن تقدم أنظمة الذكاء الاصطناعي أدلة أو أسبابًا لجميع مخرجاتها.
- يجب أن تقدم الأنظمة تفسيرات لها معنى ويستطيع المستخدمون فهمها.
- يشرح التفسير الآلية التي اتبعها النظام لإنتاج المخرجات بصورة صحيحة.
- يعمل النظام في الظروف التي صُمِّم من أجلها فحسب، أو عندما تكون لدى النظام ثقة كافية في مخرجاته.
وقد يتخذ البشر أنفسهم قرارات تبدو غريبة أحيانًا لأشخاص آخرين، ومن الضروري إيجاد معايير واضحة توفق بين البشر وأنظمة الذكاء الاصطناعي. وقال فيليبس في بحث سابق له إن التعاون بين البشر والذكاء الاصطناعي سيمنحنا دقة أكبر من الدقة التي يمنحها أحدهما فحسب. وأكد فيليبس أن قدرتنا على تفسير قرارات أنظمة الذكاء الاصطناعي والبشر ستتيح لنا جمع نقاط القوة لدى كل منهما.
The post الباحثون يطالبون الذكاء الاصطناعي بتبرير قراراته وتفسيرها appeared first on مرصد المستقبل.