
دراسة تكشف تفاوت أنظمة الحماية بين المنصات وسط جدل متصاعد حول مسؤولية شركات التكنولوجيا
حذّرت اختبارات حديثة من وجود ثغرات في روبوتات الدردشة المعتمدة على الذكاء الاصطناعي، قد تتيح استخدامها في الحصول على معلومات يمكن استغلالها للتخطيط لأعمال عنف، في ظل تفاوت واضح في آليات الحماية بين المنصات المختلفة.
وأظهرت دراسة أجرتها مركز مكافحة الكراهية الرقمية على عشرة روبوتات دردشة في كل من الولايات المتحدة وأيرلندا، أن بعض الأنظمة قدّمت ردوداً مرتبطة بالعنف في نحو ثلاثة أرباع الحالات، مقابل نسبة أقل من الرفض.
وخلال الاختبارات، انتحل الباحثون شخصيات قاصرين في سن 13 عاماً، لقياس استجابة الأنظمة لطلبات تتعلق بهجمات أو تفجيرات. وأظهرت النتائج تبايناً واضحاً؛ إذ رفضت بعض المنصات بشكل صارم تقديم أي محتوى قد يُستخدم في الإيذاء، فيما قدّمت أخرى إجابات وُصفت بأنها تفصيلية في بعض الحالات.
ومن بين الأنظمة التي أظهرت قيوداً مشددة، روبوت “كلود” التابع لشركة أنثروبيك، و“ماي إيه آي” التابع لتطبيق سناب شات، حيث التزمت برفض تزويد المستخدمين بمحتوى ضار.
في المقابل، أشارت الدراسة إلى أن بعض الأنظمة، مثل “تشات جي بي تي” من أوبن إيه آي و“جيميناي” من غوغل و“ديبسيك”، قدّمت ردوداً اعتُبرت في بعض الحالات قابلة للاستخدام في سياقات خطرة.
من جانبها، انتقدت شركات التكنولوجيا منهجية الدراسة، مؤكدة أنها تواصل تطوير أنظمة الأمان وتحسين نماذج الذكاء الاصطناعي للحد من المحتوى الضار، مع التشديد على التزامها بتوفير بيئة استخدام أكثر أماناً.
ويرى خبراء أن اتساع استخدام هذه التقنيات في الحياة اليومية يرفع من احتمالات إساءة توظيفها، مؤكدين أن التحدي لا يقتصر على الجوانب التقنية، بل يشمل أيضاً مسؤولية الشركات في ضبط آليات الاستجابة ومنع الاستخدامات الضارة.
وتأتي هذه التحذيرات في ظل نقاش عالمي متزايد حول تنظيم الذكاء الاصطناعي، مع دعوات لوضع أطر رقابية تضمن الاستخدام الآمن وتحدّ من المخاطر المحتملة.
أخبار محلية
أخبار فلسطينية
أخبار محلية
مقالات وتقارير
|
تصميم وتطوير: ماسترويب 2016 |