
مع تطور نماذج اللغة الضخمة، باتت قادرة على صياغة جمل مقنعة، وتقديم تبريرات تبدو منطقية، بل وإقناع المستخدم بأنها تفكر وتبرر مثل الإنسان. لكن السؤال الأهم يظل مطروحًا: كيف نضمن أن ما تقوله هذه النماذج صحيح وموثوق؟
في دراسة جديدة أجراها باحثون من مايكروسوفت ومعهد ماساتشوستس للتكنولوجيا (MIT)، طُرح منهج مبتكر لتقييم موثوقية نماذج الذكاء الاصطناعي، ليس فقط عبر فحص نتائجها، بل عبر تحليل الاستدلال السببي الذي تقف خلف إجاباتها — أي الأسباب الحقيقية التي دفعت النموذج لاتخاذ قرار ما.
المشكلة: تفسيرات مقنعة… لكنها غير صادقة
توضح الباحثة كاتي ماتون أن نماذج اللغة كثيرًا ما تقدّم تفسيرات “معقولة” لكنها غير موثوقة، ما يجعل المستخدمين غير قادرين على فهم منطق النموذج أو اكتشاف إن كانت إجاباته تتعارض مع قيمهم.
وفي المجالات الحساسة كالصحة والقانون، قد تكون العواقب وخيمة.
مثال ذلك: نموذج GPT-3.5 فضّل مرشحات إناث لوظيفة التمريض على الذكور—even عند تبديل البيانات كليًا—ثم زعم في تفسيره أن قراره قائم على “الخبرة والمهارات” فقط، متجاهلًا تأثير الجنس.
الحل: «صدق سببي» يكشف ما يحاول النموذج إخفاءه
قدّم الباحثون مفهومًا جديدًا لتقييم الثقة: الصدق السببي.
الفكرة تقوم على مقارنة المفاهيم التي يستند إليها النموذج في إجابته، مع تلك التي يظهر أثرها فعليًا عند تغييرها.
كيف يعمل المنهج؟
1. يحدد مساعدٌ ذكي المفاهيم الأساسية في السؤال.
2. يُنشئ أسئلة مغايرة للواقع بتغيير مفهوم محدد — مثل الجنس أو المعلومات الطبية.
3. يُراقب كيف تتبدل الإجابة عند تغيير هذا المفهوم.
4. يقارن التغيّر الحقيقي بالتفسير المعلن للنموذج.
بهذا يصبح بالإمكان اكتشاف ما إذا كان النموذج يستند في قراراته إلى العرق أو النوع أو الدخل مثلًا، بينما يدّعي أنه يعتمد على سلوك الشخص أو مهاراته.
نتائج مقلقة: النماذج تُخفي تحيّزاتها
وجد الباحثون نتيجتين خطيرتين:
في بيانات التحيّز الاجتماعي
النماذج قد تتخذ قرارات مبنية على الهوية الاجتماعية (العرق، الجنس، الدخل)، لكنها لا تعترف بذلك في تفسيراتها، بل تُرجع القرار إلى عوامل غير مؤثرة — ما يجعل تحيّزها “مقنعًا ومخفيًا”.
في البيانات الطبية
بعض النماذج تحذف أدلة مهمة تؤثر في القرار الطبي، وتقدّم تفسيرًا يبدو عقلانيًا لكنه غير دقيق، ما قد يؤدي إلى قرارات علاجية خاطئة.
تحديات وحدود
يعترف الباحثون بوجود قيود، مثل:
لماذا يعد هذا المنهج خطوة ثورية؟
تكشف الطريقة الجديدة أنماطًا واضحة للتفسيرات المضللة.
فإذا لاحظ المستخدم أن النموذج يغيّر قراراته بناءً على النوع أو العرق، يمكنه تجنب استخدامه في مهام حساسة. وفي المقابل، يستطيع المطوّرون تصحيح التحيّزات مباشرة داخل النموذج.
تؤكد ماتون أن هذا المنهج يشكل خطوة أساسية نحو بناء ذكاء اصطناعي أكثر شفافية وموثوقية — أنظمة لا تكتفي بإعطاء الإجابات، بل تشرح الأسباب الحقيقية خلفها، دون إخفاء أو تجميل.
أخبار فلسطينية
أخبار فلسطينية
رياضة
أخبار اسرائيلية
صحة+رجيم
|
تصميم وتطوير: ماسترويب 2016 |