تمكين الذكاء الاصطناعي من شرح تنبؤاته بلغة واضحة

22
0

يمكن أن ترتكب نماذج التعلم الآلي أخطاء ويكون من الصعب استخدامها، لذلك طور العلماء طرق تفسير لمساعدة المستخدمين على فهم متى وكيف يجب أن يثقوا في تنبؤات النموذج.

ومع ذلك، غالبًا ما تكون هذه التفسيرات معقدة، وربما تحتوي على معلومات حول مئات من ميزات النموذج. ويتم تقديمها أحيانًا على هيئة تصورات متعددة الأوجه قد يصعب على المستخدمين الذين يفتقرون إلى خبرة التعلم الآلي فهمها بالكامل.

ولمساعدة الناس على فهم تفسيرات الذكاء الاصطناعي، استخدم باحثو معهد ماساتشوستس للتكنولوجيا نماذج لغوية كبيرة (LLMs) لتحويل التفسيرات القائمة على الحبكة إلى لغة واضحة.

لقد طوروا نظامًا من جزأين يحول شرح التعلم الآلي إلى فقرة من نص يمكن قراءته بواسطة الإنسان ثم يقوم تلقائيًا بتقييم جودة السرد، حتى يعرف المستخدم النهائي ما إذا كان سيثق به أم لا.

من خلال تحفيز النظام ببعض الأمثلة التوضيحية، يمكن للباحثين تخصيص أوصافه السردية لتلبية تفضيلات المستخدمين أو متطلبات…

رابط المصدر

ترك الرد

من فضلك ادخل تعليقك
من فضلك ادخل اسمك هنا