الآلات التي تتحدث وتكتب ستزيد من سوء المعلومات المضللة

3 دقائق
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

لطالما حلم خبراء التكنولوجيا بابتكار الآلات التي تتحدث بذكاء بقدر ذكاء البشر. واستهان الممارسون الأوائل بحجم هذا التحدي. ولكن مع بلوغنا منتصف عام 2019، يبدو أننا على بعد خطوات قليلة فقط من تحقيق هذه الغاية. إذ تسارع الجهات اللاعبة المهيمنة في مجال التكنولوجيا في العالم إلى خلق برامج يمكنها التحدث والكتابة بفاعلية مثل البشر، سواء كانت هذه البرامج ذكية أم لا.

أين تكمن المشكلة إذاً؟ تكمن المشكلة في أننا لسنا على استعداد تام لمواجهة المخاطر التي قد تبرز مع طرحنا الناجح لهذه الآلات. لذلك، من المفيد إلقاء نظرة سريعة على التقنيات الأساسية بهدف تكوين فكرة عن التحديات المقبلة.

من المؤكد أن أمازون تتركز في طليعة صناعة المساعدات الصوتية، كما أن المسؤولين التنفيذيين في فريق أمازون أليكسا صريحون للغاية بشأن هدفهم الذي ينطوي على تطوير مهارات أليكسا في المحادثة. وقد بدأت شركة سياتل تحدي أليكسا قبل ثلاث سنوات بهدف تحفيز أفضل وأذكى الفرق الأكاديمية. وانطوى هدفهم على جعل أليكسا أكثر فاعلية في “محادثات المجال المفتوح” المتمثّلة في المناقشات التي تدور حول عدة موضوعات مختلفة.

وعندما نلقي نظرة خاطفة على ما يدور وراء روبوتات الدردشة هذه، نرى مزيجاً من الردود المعدة مسبقاً والمنخفضة التقنية وخوارزميات تعلم الآلة المتطورة. ويمكن للشبكات العصبية التنبؤية أيضاً تمكين أفضل روبوتات الدردشة من توليد ردود مقنعة وبسرعة فائقة. وينطوي عمل الروبوت على تمحيص مواقع الويب وفتح قواعد بيانات المحتوى بهدف تكوين ردوده. وتتضمن المصادر الشائعة قاعدة بيانات كورنيل موفي ديالوغز (Cornell Movie Dialogs) الغنية بالمحادثات المستخلصة من نصوص الأفلام، والتعليقات على موقع “ريد إت”، “أي إم دي بي”. وتُدرّب الروبوتات على الجمع بين أجزاء حوارات الأفلام والتعليقات على موقع ريديت والمحتويات الأخرى في الملاحظات والردود التي تتناسب بشكل معقول مع محادثة دائرة.

وتستخدم أنواع أخرى من روبوتات الدردشة المولدة للمحتوى البيانات المالية والنتائج الرياضية بهدف كتابة التقارير والمقالات التي يتعذر تمييزها تقريباً عن تلك المقالات التي يؤلفها البشر، ويُطلق على هذه الروبوتات في كثير من الأحيان اسم “الروبوتات الكاتبة”.

وقد وردت فكرة عن الأخطار المحتملة على عالمنا الجديد ضمن الأبحاث الحديثة التي أجرتها شركة “أوبن أيه آي” (OpenAI)، حيث قام الفريق الموجود في الشركة غير الربحية بتطوير برنامج يقوم بتوليد حجج مقنعة بشكل آلي حول المواضيع الحساسة. لقد كان البرنامج بارعاً للغاية في الواقع، لكن فريق شركة “أوبن أيه آي” شعر بالقلق من احتمال إساءة استخدام البرنامج في سبيل تلفيق أخبار مزيفة، لذلك قررت الشركة عدم طرح الإصدار الكامل للجمهور.

إنَّ العصر المقبل يحمل لآلات التحدث والكتابة الماهرة العديد من التحديات التي يبدو أننا لم نعالج إلا القليل منها فقط بجدية. وفيما يلي قائمة صغيرة من التحديات التي تستحق التأمل:

  • كيف نضمن ألّا تقود تقنيات المحادثة المحسّنة إلى جيل جديد من الروبوتات التي تنشر الأخبار الخطيرة والمقنعة والمزيفة؟
  • كيف تحمي الشركات نفسها من الروبوتات المحتالة التي تتحدث نيابة عنها؟ والمثال الأكثر شيوعاً هو روبوت الدردشة “تاي” الذي ابتكرته شركة “مايكروسوفت” والذي اشتُهر بمحاكاة البيانات غير اللائقة التي التقطها من محاورين يتّسمون بسمعة سيئة.
  • كيف يمكننا تجنب السيناريوهات التي تحاول الآلات إرضاءنا بها عبر إخبارنا بالأمور التي نود سماعها فقط؟ على سبيل المثال، أجرت شركة ديب مايند (Deep Mind) دراسة حول محركات التوصية، مشيرة إلى الدور الذي تلعبه هذه الأنظمة في احتجاز الأفراد في غرف الصدى التي تصنع حاجزاً يعيق الأفراد عن الوصول إلى وجهات النظر المختلفة.
  • ما هي الطرق التي يمكننا توظيفها بهدف منع الآلات المطنبة والمملة من تكوين ردود بسيطة؟ تذكر أن البرامج المستخدمة لتوليد ردود آلية تعتمد على مجموعات البيانات الخاصة بالمحتوى والمحادثات الطبيعية التي يجريها البشر اعتماداً كبيراً.

لذلك، يجب على الأفراد الذين يبتكرون هذه التقنيات القوية تركيز اهتمامهم على كيفية الاستفادة من هذه التقنيات في سبيل تحقيق الفائدة الحقيقية للمستهلك. إذا تمكّنا من ابتكار روبوتات تنشر أخباراً مزيفة، فهل يمكننا ابتكار تقنية تكشف هذه الأكاذيب؟ ربما يمكننا أن نخطو خطوة أبعد من ذلك ونسلط الضوء على وجهات النظر أحادية الجانب. حيث يمكن لمثل هذه الخدمة أن تساعد في منع وقوع المستهلكين في فخ حجب مستقبِلات التفكير النقدي لديهم.

تخيل روبوتاً ذكياً يهمس في أذنك للاطلاع على تقارير تحمل عناوين مضللة ضمن المقالات:

  • عمدة مدينة يدعو إلى الحد من انتشار الكلاب المفترسة.
  • عمدة مدينة يضايق أصحاب سلالة كلاب تعرضت إلى افتراءات كاذبة.

بينما قد يوجهك روبوت الدردشة الذي يمتاز “بالموضوعية” بدلاً من ذلك إلى جزء ثالث من المحتوى مثل العنوان التالي:

  • عمدة مدينة يتناول قضية مثيرة للجدل حول فرض القيود على كلاب من سلالة البيتبول.

يمكن أن يعمل روبوت الدردشة القائم على الذكاء الاصطناعي والمصمم لمساعدة المستهلكين في تحديد التحيز في التقارير على توجيه الرأي، أو قد يمثّل رادعاً لروبوتات التحدث والكتابة التي تهدف إلى التأثير على الرأي أو زيادة الانقسام الاجتماعي والسياسي.

وليس من المستغرب أن تنطوي كل تقنية يبتكرها البشر على إيجابيات وسلبيات. فمع اقترابنا من عصر الآلات الحوارية، حان الوقت للبدء في التفكير في سلبيات هذه التقنيات وتصميم أدوات لمكافحتها.

تنويه: يمكنكم مشاركة أي مقال من هارفارد بزنس ريفيو من خلال نشر رابط المقال أو الفيديو على أي من شبكات التواصل أو إعادة نشر تغريداتنا، لكن لا يمكن نسخ نص المقال نفسه ونشر النص في مكان آخر نظراً لأنه محمي بحقوق الملكية الدولية. إن نسخ نص المقال بدون إذن مسبق يعرض صاحبه للملاحقة القانونية دولياً.

جميع الحقوق محفوظة لشركة هارفارد بزنس ببليشنغ، بوسطن، الولايات المتحدة الأميركية 2024 .