دراسة من جامعة خليفة تكشف تحديات تصنيف المشاعر عبر الصوت وتأثيرها على تقنيات الذكاء الاصطناعي

أجرى فريق بحثي من قسم الهندسة الطبية الحيوية والتكنولوجيا الحيوية في جامعة خليفة دراسة تحليلية معمّقة تهدف إلى فهم أنظمة المشاعر من خلال الكلام، واستكشاف إمكانية دمجها في التطبيقات الذكية المستخدمة في الصحة النفسية، وخدمة العملاء، والمساعدين الافتراضيين.


تحليل شامل لـ 51 دراسة بين 2010 و2023

اعتمد الباحثون في دراستهم على تحليل 51 دراسة علمية منشورة خلال الفترة ما بين عامي 2010 و2023. وكشف التحليل عن وجود تناقضات واضحة في تصنيف المشاعر، وتفاوت في أنواع البيانات المستخدمة، إلى جانب اختلافات كبيرة في أساليب اختبار خوارزميات الذكاء الاصطناعي المخصصة لتحليل الانفعالات الصوتية.


غياب الاتساق في تصنيف المشاعر يعيق دقة الذكاء الاصطناعي

أشارت الدراسة إلى أن غالبية الأبحاث السابقة استخدمت تصنيفات عاطفية غير موحدة وغير دقيقة، مثل تصنيف المشاعر إلى “سعادة” أو “غضب”، أو اعتماد نماذج تعتمد على أبعاد انفعالية مثل الإيجابية مقابل السلبية، والهدوء مقابل الحماسة. وأوضحت أن هذا التفاوت يؤثر سلباً على دقة تدريب الأنظمة الذكية ويُحد من فعاليتها في مواقف الحياة الواقعية.


الاعتماد على بيانات مصطنعة يضعف فعالية النماذج الذكية

من أبرز التحديات التي سلطت الدراسة الضوء عليها هو الاعتماد الكبير على حديث مصطنع أو مكتوب في مجموعات البيانات، حيث يتظاهر الأشخاص بمشاعر معينة (مثل الغضب أو الفرح)، ما يؤدي إلى نتائج أداء مبالغ فيها لا تعكس التفاعلات الحقيقية في المحادثات اليومية.


التعلم الذاتي والأساليب الهجينة.. مستقبل واعد لتحليل المشاعر

أكد الباحثون أن نماذج الذكاء الاصطناعي الحديثة المعتمدة على التعلم الذاتي تُظهر أداءً واعدًا، حتى عند توفر كمية محدودة من البيانات المصنفة. كما أظهرت الأساليب الهجينة التي تجمع بين الخصائص المصممة يدويًا وخصائص يتم تعلمها تلقائيًا من خلال خوارزميات التعلم العميق، نتائج أكثر دقة في تصنيف المشاعر من الحديث الصوتي الطبيعي.

المصدر:الإمارات اليوم