تشير التطورات الأخيرة في مجال الذكاء الاصطناعي إلى عصر يشهد تزوير الوثائق والصور والتسجيلات الصوتية وأشرطة الفيديو والهويات على الإنترنت بسهولة لم يسبق لها مثيل، حيث يستعد الذكاء الاصطناعي لجعل التزوير عالي الدقة آلياً وغير مكلف، ما سيؤدي إلى عواقب وخيمة محتملة للديمقراطية والأمن والمجتمع. وكباحث في مجال الذكاء الاصطناعي، فأنا هنا لأدق ناقوس الخطر، وأقترح حلاً جزئياً.

في فبراير/شباط الماضي، وصل التزوير القائم على تقنيات الذكاء الاصطناعي إلى لحظة فاصلة، من خلال إعلان مؤسسة أوبن أى آي (OpenAI) البحثية عن نموذج ذكاء اصطناعي يحمل اسم "جي بي تي 2" (GPT2)، وهو مولد نصوص تبدو حقيقية إلى حد كبير، يجعله خطراً للغاية لدرجة تستوجب عدم طرحه للجمهور خوفاً من إساءة استخدامه. وتعتبر عينة العبارات التي جرى توليدها بواسطة "جي بي تي 2" نسخة مذهلة عن النص البشري. وللأسف، حتى أكثر الأدوات قوة لا بدّ لها أن تقع في أيدي جهات مارقة تستغلها فيما بعد.

ينتشر التزوير الآلي بالفعل في وسائل التواصل الاجتماعي، كما رأينا خلال انتخابات الولايات المتحدة لعام 2016، حيث اكتشفت شركة تويتر عشرات آلاف الحسابات الآلية المرتبطة بروسيا في الشهور التي سبقت تلك الانتخابات، بحسب صحيفة واشنطن بوست. كما قدّرت شركة فيسبوك عدد الأخبار الكاذبة التي نشرتها تطبيقات مدعومة من روسيا في الفترة بين يناير/كانون الثاني 2015 وأغسطس/آب 2017 بنحو نصف عدد الأميركيين الذين يحق لهم الانتخاب والبالغ عددهم 250 مليون أميركياً.

وقد دعوت إلى إصدار تشريعات تشترط على هذه التطبيقات الإعلان عن أنها ليست بشرية، وقامت ولاية كاليفورنيا بسن قانون مماثل سيدخل حيز التنفيذ في شهر يوليو/تموز 2019. هذه خطوة مهمة، ولكن تشريعات العالم الرقمي الدولية لها تأثير عملي محدود.

وتتجاوز مشكلة هذه التطبيقات إلى ما هو أبعد من ذلك. تعتبر الصور المفبركة مألوفة، وقد أدت التطورات الأخيرة في مجال معالجة الصور إلى تمكين إنشاء فيديو مزيف أشبه بالفيديوهات الواقعية. وأظهر الباحثون هذه القدرة الجديدة من خلال إعداد فيديو اعتمد على تقنيات الذكاء الاصطناعي وجعل الرئيس السابق باراك أوباما يتفوه بعبارات كانت في السابق مجرد أشرطة صوتية. ثم أتت تقنية التزييف العميق "deepfake" التي تعتمد على الذكاء الاصطناعي في توليد فيديوهات بتعابير وجه جديدة كلياً للشخص المستهدف من خلال دمج وجهين معاً بطريقة مقنعة إلى حد مخيف. تكنولوجيا تبديل الوجوه هذه متوفرة بشكل كاف لدرجة أنها بدأت بالظهور في المقاطع الإباحية، حيث تضاف أوجه الكثير من الممثلات الشهيرات إلى هذه المقاطع. أما الفيديو الشهير الذي يقدم أوباما وهو يصدر تحذيراً عن الفيديوهات المفبركة بتقنية التزييف العميق، فقد كان بحد ذاته مزيفاً.

من الطبيعي أن تراعي المصدر عندما تحاول اتخاذ قرار بشأن أصالة شيء ما. إلا أنه تبين أن الموقع الإلكتروني وعنوان البريد الإلكتروني وحتى مصدر المكالمة هي أمور يسهل تزييفها أو "محاكاتها". تعلمت هذا بالطريقة الصعبة، حين رن جرس هاتفي، ونظرت إلى هوية المتصل لأجد ما بدا وكأنني أتصل بنفسي! يوحي المثل الذي يقول: "في عالم الإنترنت، لا أحد يعلم أنك كلب" إلى أنك لا تستطيع التأكد من كاتب أو مصدر معظم الأشياء التي تستقبلها عبر البريد الإلكتروني أو من خلال وسائل التواصل الاجتماعي أو عبر الهاتف. يعتبر هذا العمى عبر الإنترنت بمثابة الأساس الذي يقوم عليه "التصيد الاحتيالي"، وهي هجمات سيبرانية يبدو فيها التواصل وكأنه قادم من مصدر موثوق ويطلب منك الكشف عن معلومات خاصة مثل كلمة المرور أو رقم بطاقة الائتمان. ويسهل في هذه الأيام تمييز النصوص المولدة تلقائياً بواسطة حسابات البريد الاحتيالية كنصوص زائفة، ولكن الذكاء الاصطناعي على وشك تغيير هذا.

من ناحية تاريخية، فقد اعتمد المجتمع على التوقيع للتأكد من أصالة الأشياء. واستخدم السومريون التواقيع قبل أكثر من 5,000 عام من خلال أختام ذات نقوش معقدة تطبع على ألواح طينية للمصادقة على كتاباتهم. ومع انتشار معرفة القراءة والكتابة على نحو واسع، تطورت العلامات والأختام والتواقيع إلى نصوص يدوية، وتظهر إشارات إلى التوقيع على المستندات على مر التاريخ.

أما في عالم الإنترنت فنحن نعتمد على التواقيع الرقمية. والتوقيع الرقمي هو طريقة حاسوبية (تعتمد على التشفير) للتأكد من عدم التلاعب بعنصر ما بعد توقيعه. تقوم خدمات مثل دوكيوساين (DocuSign) بالمصادقة على العقود باستخدام تواقيع رقمية. ويمكن المصادقة أيضاً على الرسائل الآلية بين المواقع الإلكترونية، إلا أن التواقيع الرقمية لا تستخدم على نحو واسع للمصادقة على كتابة رسائل البريد الإلكتروني والمنشورات على وسائل التواصل الاجتماعي والصور والفيديوهات وغيرها.

ويتطلب منا شبح التزوير القائم على تقنيات الذكاء الاصطناعي العمل لجعل التواقيع الرسمية متطلباً إجبارياً كوسيلة للمصادقة على المحتوى الرقمي. أولاً، علينا المصادقة على التواقيع، ويمكن إجراء ذلك من خلال سلطات مركزية أو عبر طرق حاسوبية أكثر ديموقراطية مثل التشفير والبلوك تشين (سلسلة الكتل). ثانياً، علينا أن نجعل عمليات التوقيع والتحقق من التوقيع سلسة قدر الإمكان. ويجب تمكين التوقيع بشكل افتراضي لدينا في برامج البريد الإلكتروني ومعالجات النصوص وكاميرات الهواتف الذكية وأي إنتاج للمحتوى الرقمي. ويجب أن تميز متصفحاتنا وتطبيقات التواصل الاجتماعي وغيرها من البرمجيات القارئة للوسائط عندما يكون المحتوى موقعاً أو لا، وبواسطة من. وأخيراً، وهو الأكثر صعوبة، إننا بحاجة إلى سن تشريعات تحدد أن كل موضوع غير موقّع ربما يكون مزيفاً. نحن لا نقبل الشيكات غير الموقعة، ويجب تطبيق الأمر ذاته على المحتوى الرقمي.

وبالطبع، فإننا بحاجة إلى الحفاظ على خيار إخفاء الهوية حتى لا تُستخدم التواقيع الرقمية لقمع جهات المعارضة أو تثبيط عزم المبلغين عن المخالفات. إضافة إلى ذلك، نريد السماح باستخدام الأسماء المستعارة كي يتمكن الكاتب من اختيار إخفاء هويته مع التعرف عليه كشخص أو مؤسسة.

لن تعمل التواقيع الرقمية على منع التطبيقات الخبيثة من التنكر بهيئة أحد الأشخاص، ولكنها ستمنع التطبيقات من انتحال شخصيتك ومن نشر محتوى لم تقم بكتابته باسمك. وتتوفر طرق حاسوبية لدعم تواقيع رقمية موثوقة، لكنها غير سلسة بما فيه الكفاية لاستخدامها على نطاق واسع. علينا التقدم إلى الأمام من خلال إنشاء خدمات بريد إلكتروني ومنشورات تواصل اجتماعي ووثائق وصور وفيديوهات ومكالمات هاتفية لا نجد عناء في توقيعها، قبل فوات الأوان.

تنويه: يمكنكم مشاركة أي مقال من هارفارد بزنس ريفيو من خلال نشر رابط المقال أو الفيديو على أي من شبكات التواصل أو إعادة نشر تغريداتنا، لكن لا يمكن نسخ نص المقال نفسه ونشر النص في مكان آخر نظراً لأنه محمي بحقوق الملكية الدولية. إن نسخ نص المقال بدون إذن مسبق يعرض صاحبه للملاحقة القانونية دولياً.

ﺟﻣﯾﻊ اﻟﺣﻘوق ﻣﺣﻔوظﺔ ﻟﺷرﻛﺔ ھﺎرﻓﺎرد ﺑزﻧس ﺑﺑﻠﯾﺷﻧﻎ، ﺑوﺳطن، اﻟوﻻﯾﺎت اﻟﻣﺗﺣدة اﻷﻣﯾرﻛﯾﺔ - 2019

error: المحتوى محمي !!