باحثون يسعون لفك شفرة "صندوق الذكاء الاصطناعي الأسود" عبر نماذج جديدة

باحثون يسعون لفك شفرة "صندوق الذكاء الاصطناعي الأسود" عبر نماذج جديدة

يسعى باحثون حالياً لتطوير أساليب جديدة تمكّننا من فهم كيفية اتخاذ أنظمة الذكاء الاصطناعي لقراراتها، في محاولة لكشف غموض ما يُعرف بـ"الصندوق الأسود" الذي يحيط بنماذج التعلم الآلي المتقدمة.

هذه الخطوة تأتي استجابةً لحقيقة أن العديد من هذه النماذج تقدم نتائج دقيقة جداً دون أن يكون واضحاً للمستخدمين الأساس المنطقي وراء تلك الاستنتاجات، وفقاً لتقرير بريطاني حديث نقلته صحيفة "ذا جارديان".

يعمل فريق بحثي متخصص في معهد ماساتشوستس للتكنولوجيا (MIT) على تطوير تقنيات تتيح للذكاء الاصطناعي تفسير مخرجاته بوضوح أكبر، وهذا حيوي لزيادة الثقة في هذه الأنظمة مع تزايد اعتمادنا عليها في قطاعات حساسة مثل الرعاية الصحية، والنقل، والبحث العلمي.

النهج الجديد المتبع يرتكز على مفهوم يُطلق عليه "عنق الزجاجة المفاهيمي"، حيث لا ينتقل النظام مباشرةً من البيانات الخام إلى النتيجة النهائية. بدلاً من ذلك، يجبر النظام أولاً على تحديد مجموعة من المفاهيم أو الخصائص التي يمكن للبشر استيعابها وفهمها، ثم يستخدم هذه المفاهيم كقاعدة لإصدار التنبؤات والقرارات.

هذا الأسلوب يضمن ربط نتائج الذكاء الاصطناعي بعوامل مفسِّرة وواضحة، مما يساعد المستخدمين والباحثين على فهم أسباب القرارات بدقة أعلى. يرى الباحثون أن هذه المقاربة ستساهم في بناء أنظمة ذكاء اصطناعي أكثر شفافية وموثوقية، إضافة إلى تحسين قدرتنا على اكتشاف أي أخطاء أو تحيزات قد تكون كامنة داخل الخوارزميات.