تعتبر ألعاب إطلاق النار من منظور الشخص الأول مثل Call of Duty سيئة السمعة إلى حد ما بسبب سمية جماعات الضغط والمحادثات الصوتية الخاصة بها. تصف استطلاعات الرأي قاعدة المعجبين بالامتياز بأنها الأكثر سلبية في صناعة الألعاب. أدى الخلاف بين لاعبين ذات مرة إلى استدعاء فريق من القوات الخاصة. تحاول Activision مكافحة هذا السلوك منذ سنوات، وقد يتعلق جزء من الحل بالذكاء الاصطناعي.
أبرمت Activision شراكة مع Modulate لجلب "الإشراف على الدردشة الصوتية داخل اللعبة" إلى ألعابها. سيعمل نظام إشراف جديد يستخدم تقنية الذكاء الاصطناعي يسمى ToxMod على اكتشاف السلوكيات مثل التمييز والتحرش في الوقت الفعلي.
يبدأ الاختبار التجريبي الأولي لـ ToxMod في أمريكا الشمالية اليوم. وهي نشطة في Call of Duty: Modern Warfare II وCall of Duty: Warzone. سيتم إصدار "الإصدار العالمي الكامل" (لا يشمل آسيا، كما هو مذكور في البيان الصحفي) في 10 نوفمبر مع إصدار Call of Duty: Modern Warfare III، الدفعة الجديدة من الامتياز هذا العام.
لا يتناول البيان الصحفي الخاص بـ Modulate الكثير من التفاصيل حول كيفية عمل ToxMod بالضبط. على موقع تشير الشركة إلى أن الأداة "تدير الدردشة الصوتية للإبلاغ عن السلوك السيئ، وتحلل الفروق الدقيقة في كل محادثة لتحديد مدى خطورة الأمر، وتسمح للمشرفين بالاستجابة بسرعة لكل حادثة من خلال توفير سياق دقيق وذو صلة". وفي مقابلة أجريت مؤخرًا، قال الرئيس التنفيذي للشركة إن الأداة تهدف إلى تجاوز عملية النسخ البسيطة. كما يأخذ في الاعتبار عوامل مثل عاطفة اللاعب وحجمه للتمييز بين الملاحظات الخبيثة والفكاهية.
ومن الجدير بالذكر أن الأداة (على الأقل في الوقت الحالي) لن تتخذ أي إجراء ضد اللاعبين بناءً على بياناتها، ولكنها سترسل التقارير فقط إلى مشرفي Activision. ومن المرجح أن تظل المشاركة البشرية ضمانة مهمة، حيث أظهرت الأبحاث أن أنظمة التعرف على الكلام يمكن أن تظهر تحيزًا في كيفية استجابتها للمستخدمين ذوي الهويات واللهجات العرقية المختلفة.
اقرأ أيضا: