الرئيسية / منوعات
خطير للغاية.. اختبار يكشف عن إساءة استخدام الذكاء الاصطناعي في فبركة الأخبار وترويج الشائعات
تاريخ النشر: الأربعاء 28/08/2019 09:38
خطير للغاية.. اختبار يكشف عن إساءة استخدام الذكاء الاصطناعي في فبركة الأخبار وترويج الشائعات
خطير للغاية.. اختبار يكشف عن إساءة استخدام الذكاء الاصطناعي في فبركة الأخبار وترويج الشائعات

يميل عادةً معظم الناس إلى الاستماع للنصوص المكتوبة بدلًا من قراءتها، مما أدى بالعديد من الشركات إلى تطوير ميزات "تحويل النص إلى كتابة"، وتزويدها بالتحديثات المختلفة، فاليوم تقدم وكالة OpenAL نظاما جديدا يمكنه صياغة الكتب والمؤلفات بأقصى سرعة توفيرًا للوقت والجهد، وكذلك استخدام ميزة التعرف على الصوت وتجسيده لتجربة أفضل للمستخدم، لكن باختباره تفاجأ الخبراء بإمكانية فبركة الذكاء الاصطناعي للأخبار وترويج الإشاعات المزعجة.

قامت مكتبة الصوت المفتوحة (وكالة OpenAL) بتحديث نظام ذكاء اصطناعي يسمى GPT-2 قادر على تأليف حكايات وقصائد مشوقة كأي كاتب أو مؤلف بشري، أطلقت الوكالة نسخة صغيرة أولية منه وقد اعتبرها الخبراء "خطيرة للغاية" بسبب رصد عدة عيوب بها.

أما اليوم، فقد قررت شركة OpenAL إضافة قاعدة بيانات أوسع بكثير من الأولى مع زيادة العوامل المرجعية داخل البرنامج، لكن بمراجعته واختباره تم اكتشاف عيوب لا يمكن التغاضي عنها من إمكانية إساءة استخدامه من قبل الأشخاص الخطيرين في العالم.

عيوب أقوى من المميزات
يتميز برنامج تحويل النص إلى كلام GPT-2 بقدرته على إنشاء نسخة صوتية من كتاب كامل بأسرع ما يمكن، مما يوفر الوقت والجهد والتكلفة، وبما أن معظم الناس يفضلون الاستماع إلى الكتب بأصوات "المحترفون أو المشاهير" الذين يفضلونهم، فإن البرنامج يقدم لك ميزة لا يمكن تخيلها، حيث يمكنه ابتكار "تجسيد" مخصص من صوت أحد الأشخاص من مجرد تسجيل لمدة دقيقة واحدة أو أقل لصوته، لكن العيوب أقوى من المميزات، حيث يمكن استخدام مثل هذه التقنية الذكية في توليد الإشاعات والأخبار الكاذبة، بل يمكن أيضًا تزوير ما تسمعه من الكتب، حيث لن تستطيع التفريق بين ما يرويه صوت الكمبيوتر وصوت المؤلف الأصلي.

نتائج اختبار البرنامج "الخطير"
للكمبيوتر قدرة هائلة على صنع الأخبار وكتابة النصوص بدلًا من الإنسان، لكن تلك الآلة المبرمجة معرضة للوقوع في الخطأ والخلط بين المواضيع، مما يترتب عليه أخبار كاذبة، أو سوء استخدام بغرض توجيه العقول.

قامت هيئة الإذاعة البريطانية BBC ومنظمة العفو الدولية باختبار برنامج تحويل النص إلى كلام الجديد من OpenAL، وذلك من خلال إدخال بعض الجمل الصغيرة من قصص مرتبطة بـ منظمة العفو الدولية.

فبركة عن محرك البحث الصوتي الصيني "Sogou"
أول جملة كانت لعنوان مقدمة خبر هو "يقوم محرك البحث الصيني Sogou بصنع تجسيدات الذكاء الاصطناعي لقراءة الروايات الشعبية بأصوات المؤلفين"، وعلى عكس المتوقع قام البرنامج بإضافة العديد من الجمل التي لا ترتبط بالخبر الأصلي مع عدة مغالطات داخل القصة.

سوجو هو محرك بحث صوتي تم إطلاقه بواسطة منظمة العفو الدولية، ويعتبر محركا بسيطا لاستخدام تقنية تحويل النص إلى كلام، وذلك بهدف إنشاء نسخة صوتية من كتاب بسرعة، باستخدام الأصوات الرقمية المركبة أو المجسدة، لكن بدلًا من الحديث عن هذا قام GPT-2 بإضافة جمل متعلقة بشركة أمازون وأندرويد وأشياء أخرى مع دمجها ببعض لينشئ قصة جديدة تمامًا غير الخبر الأصلي.

نشر الأخبار الكاذبة والرسائل المزعجة
أجرى نويل شاركي - أستاذ علوم الكمبيوتر بجامعة شيفيلد - اختباراته الخاصة على البرنامج الجديد ولم يكن معجبًا جدًا به، قائلًا: "إذا كان البرنامج يعمل على النحو المفترض له، فسيصبح أرضا خصبة للغاية في توليد الأخبار المزيفة ورسائل البريد الإلكتروني المزعجة بسهولة".

وأضاف: "لكن لحسن الحظ فالبرنامج في شكله الحالي يولد نصًا غير مترابط ومثير للسخرية مع القليل من الإضافات والمغالطات في عناوين ومقدمات القصص".. "لقد اختبرت البرنامج بعناوين عديدة وحصلت على نتائج مثيرة للسخرية".

على سبيل المثال: استخدمت عنوان "بوريس جونسون يحب المساند الخلفية"، قام البرنامج بإظهار معلومات غير متناسقة وبعض الجمل التي تتحدث عن الذكاء الاصطناعي والرياضة، لكن عندما أدخلت عبارة تقول: "بوريس جونسون يكره المساند الخلفية، حصلت على قصة أكثر تماسكًا أظن أن البرنامج قام بنقلها من بحث جوجل".

تأسست OpenAI التي كانت في الأساس غير هادفة للربح، في عام 2015 بهدف تعزيز وتطوير الذكاء الاصطناعى بطريقة تعود بالنفع على البشرية ككل، وقد كان «إيلون ماسك» أحد الممولين الأوائل، لكنه لم يساهم في الشركة لفترة من الوقت.

صدى البلد 

تابعونا على فيسبوك
تصميم وتطوير: ماسترويب 2017