لماذا يسعى تقنيون لإدخال المشاعر البشرية في الفضاءات الرقمية؟

لماذا يسعى تقنيون لإدخال المشاعر البشرية في الفضاءات الرقمية؟
لماذا يسعى تقنيون لإدخال المشاعر البشرية في الفضاءات الرقمية؟

لماذا يسعى تقنيون لإدخال المشاعر البشرية في الفضاءات الرقمية؟

يقول مقال نشرته "واشنطن بوست" (Washington post) الأميركية، إن الذكاء الاصطناعي في كثير من الأحيان لا يقدم يد المساعدة في حل مشاكل البشرية.

وذلك بسبب ما تروّج له خوارزميات "فيسبوك" (Facebook) من نشر الكراهية للحصول على المزيد من المشاهدين، وكذلك تطبيقات التعرف على الوجه التي لا تتعرف على الأشخاص الملونين.

ولمحاولة حل هذه المشاكل، أنشأ عالم البيانات السابق في "غوغل" (Google) ألان كوين، البالغ من العمر 31 عامًا، والذي له خلفية في مجال علم النفس، شركة أبحاث تسمى "هيوم إيه آي" (Hume AI)، يقول إنها يمكن أن تساعد في جعل الأعمال الفوضوية للذكاء الاصطناعي أكثر تعاطفا وإنسانية.

وقال كوين إنه من خلال التدريب على مئات الآلاف من تعبيرات الوجه والصوت من جميع أنحاء العالم، يمكن للذكاء الاصطناعي على منصة هيوم أن يتفاعل مع شعور المستخدمين حقًا ويلبي احتياجاتهم العاطفية بشكل وثيق.

وأعرب عن أمله في أن يتم دمج المنصة في نهاية المطاف في تطبيقات المستهلك مثل مقاطع الفيديو والمساعدات الرقمية.

ومن المنتظر أن تنطلق المنصة التجريبي في آذار/ مارس المقبل، كما سيكون الدخول إليها مجانيًا للعديد من الباحثين والمطورين.

وقال كوين في مقابلة "نعلم أن هذه المعركة ستكون طويلة.. لكننا نحتاج إلى البدء في تحسين هذا المجال".

رائد الأعمال الشاب ليس أول تقني يحاول ضخ المشاعر البشرية في الفضاءات الرقمية، فهناك حركة "الذكاء الاصطناعي الأخلاقي" التي يتمثل هدفها في دمج الإنصاف والعدالة في الخوارزميات، والتي تضم العديد من المنظمات من بين أعضائها مثل مركز مارك روتنبرغ موجه سياسة الذكاء الاصطناعي والسياسة الرقمية (Marc Rotenberg’s policy-oriented Center)، ومعهد أبحاث الذكاء الاصطناعي الموزع الجديد لمكافحة التحيز الذي يضم عالمة أخلاقيات الذكاء الأصطناعي تيمنت غيبرو، التي كانت تعمل مع غوغل في هذا المجال.

وكانت تيمنت غيبرو قد عيّنت في غوغل لتكون ناقدًا صريحًا للذكاء الاصطناعي غير الأخلاقي، ثم تم طردها بسبب ذلك. وهناك أيضًا عدد كبير من الخبراء الأكاديميين الذين اتخذوا مواقف عامة قوية بشأن تطوير الذكاء الاصطناعي للقضاء على التحيز الاجتماعي.

ولكن ما يجلبه كوين لهذا المجال هو درجة عالية من البحث النفسي لمرافقة تلك الأهداف الأخلاقية. ويتضمن عمله السابق دراسة الاستجابات العاطفية عبر الثقافات (مثل دراسة ردود الفعل المماثلة للأغاني الحزينة في الولايات المتحدة والصين) والعمل على العديد من الفروق الدقيقة للتأثيرات الصوتية.

كوين جمع 5 ملايين دولار للتحقيق في كيفية صياغة الذكاء الاصطناعي لتطوير فهمه للبشر (شترستوك)

كما يأتي كوين بجيش من الأسماء التي لها باع في هذ المجال. فقد أنشأت مبادرة هيوم لجنة للأخلاقيات مع العديد من العلماء في مجال الذكاء الاصطناعي العاطفي والأخلاقي، بما في ذلك مؤسس شركة "إيمباثي لاب" (Empathy Lab) دانييل كريتيك كوب، وخبير "الإنصاف الحسابي" كارثيك ديناكار، بالإضافة إلى الأستاذ بجامعة كاليفورنيا (University of California) داشر كيلتنر، الذي كان معلمًا للدراسات العليا لكوين وقدم خدماته لشركة بيكسار بشأن المشاعر عند انتاجها فيلم الكرتون "إنسايد أوت" (Inside Out).

وقال كوين إنه جمع 5 ملايين دولار من استوديو "آيجز فنتشرز" (Aegis Ventures) مع جولة أخرى لاحقة. وسيتم توجيه الأموال للتحقيق في كيفية صياغة الذكاء الاصطناعي ليس فقط للمعالجة بسرعة كبيرة ورؤية الأنماط غير المرئية، ولكن أيضًا لتطوير فهمه للبشر، وهو نهج أطلق عليه كوين اسم "الذكاء الاصطناعي التعاطفي".

وقد تضمن بحث كوين في غوغل "الحوسبة العاطفية"، التي تهدف إلى زيادة قدرة الآلات على قراءة المشاعر ومحاكاتها.

أكثر من ثلثي خبراء الذكاء الاصطناعي لا يعتقدون أنه سيُستخدم في الغالب لتحقيق الصالح الاجتماعي (غيتي).

قد تبدو فكرة وجود المزيد من المشاعر تتناقض مع الأفكار السائدة حول الذكاء الاصطناعي، الذي غالبًا ما يُنظر إلى قوته الأساسية على أنها اتخاذ القرارات دون أخذ الشعور الإنساني في الاعتبار.

لكن الكثيرين في مجتمع الحوسبة العاطفية يقولون إن عدم قدرة الذكاء الاصطناعي على قراءة الأشخاص هو ما يجعلها خطيرة، ويجعل من المهم أن يرى الذكاء الاصطناعي الناحية الإنسانية في البشر الذين يخدمهم.

بالطبع، ليس هناك ما يضمن أنه إذا تمكن الذكاء الاصطناعي من قياس المشاعر، فلن تستغلها، خصوصا إذا كانت شركات التكنولوجيا الكبيرة تسعى لتعظيم أرباحها.

يكمن التحدي الآخر في تطوير العاطفة عند الذكاء الاصطناعي في كيفية تجنب البناء على عواطف مبرمجيه البشريين والتي قد تكون متحيزة.

ويقول شركاء كوين إنهم يعتقدون أن نموذج هيوم يتجنب التحيز. وقال أرجون ناجيندران، الشريك المؤسس لشركة "مورشن" (Mursion) لتدريب الموظفين على الواقع الافتراضي، "نماذج هيوم غنية بالمعلومات ولكنها لا تزال بعيدة عن التحيز".

وبدوره، قال الأستاذ بجامعة ماريلاند (University of Maryland) وخبير الذكاء الاصطناعي بن شنايدرمان "إن مبادرات مثل كوين يمكن أن تلعب دورًا في إنشاء ذكاء اصطناعي متحيز عرقيا، لكنه ليس كذلك".

ووجدت دراسة أجراها مركز بيو للأبحاث (Pew Research Center) ونشرت في حزيران/ يونيو الماضي، أن أكثر من ثلثي خبراء الذكاء الاصطناعي لا يعتقدون أن الذكاء الاصطناعي سيُستخدم في الغالب لتحقيق الصالح الاجتماعي بحلول عام 2030.

وأقر كوين بمخاطر تزويد الذكاء الاصطناعي سريع النمو بالمزيد من البيانات العاطفية. لكنه قال أيضًا إن البديل أكثر ترويعًا "إذا واصلنا تحسين هذه الخوارزميات لتحسين المشاركة دون مشاريع مثل الذكاء الاصطناعي العاطفي، فحينئذٍ سيقضي الأطفال 10 ساعات يوميًا على وسائل التواصل الاجتماعي.. ولا أعتقد أن هذا مفيد لأي شخص".

المصدر: واشنطن بوست

 

 

 

 

مشاركة على: