التزيفات الصوتية للانتخابات في سلوفاكيا تكشف خطورة الذكاء الاصطناعي على الديمقراطية!
قبل يومين فقط من الانتخابات في سلوفاكيا، تم نشر تسجيل صوتي على موقع فيسبوك. كان هناك صوتان: ميشال سيميتشكا، الذي يقود حزب سلوفاكيا التقدمي الليبرالي، ومونيكا تودوفا من صحيفة دينيك إن اليومية. ويبدو أنهما يناقشان كيفية تزوير الانتخابات، جزئيًا عن طريق شراء الأصوات من أقلية الغجر المهمشة في البلاد. .
استنكر Šimečka و Denník N على الفور الصوت باعتباره مزيفًا. وقالت إدارة تدقيق الحقائق في وكالة الأنباء الفرنسية إن التسجيل الصوتي أظهر علامات على أنه تم التلاعب به باستخدام الذكاء الاصطناعي. لكن التسجيل تم نشره خلال فترة تعليق مدتها 48 ساعة قبل افتتاح مراكز الاقتراع، والتي من المفترض خلالها أن تلتزم وسائل الإعلام والسياسيون الصمت. وهذا يعني أنه بموجب قواعد الانتخابات في سلوفاكيا، كان من الصعب فضح هذا المنشور على نطاق واسع. ولأن المنشور كان صوتيًا، فقد استغل ثغرة في سياسة الوسائط التي تم التلاعب بها، والتي تملي فقط مقاطع الفيديو المزيفة – حيث يتم تحرير الشخص ليقول كلمات لم يقلها أبدًا – تتعارض مع قواعدها.
كانت الانتخابات بمثابة سباق متقارب بين اثنين من المرشحين الأوفر حظا لهما رؤى متعارضة بشأن سلوفاكيا. أُعلن يوم الأحد أن حزب سلوفاكيا التقدمية الموالي لحلف شمال الأطلسي قد خسر أمام منظمة SMER، التي قامت بحملة لسحب الدعم العسكري لجارتها أوكرانيا.
قبل التصويت، قالت المفوضة الرقمية للاتحاد الأوروبي، فيرا جوروفا، إن انتخابات سلوفاكيا ستكون بمثابة اختبار لمدى ضعف الانتخابات الأوروبية أمام “سلاح التلاعب الجماعي الذي تبلغ قيمته ملايين اليورو” والذي تستخدمه موسكو للتدخل في الانتخابات. والآن، في أعقاب تلك الكارثة، سوف تنكب البلدان في مختلف أنحاء العالم على دراسة ما حدث في سلوفاكيا بحثاً عن أدلة حول التحديات التي قد تواجهها هي أيضاً. بولندا المجاورة، التي أشارت دراسة حديثة للاتحاد الأوروبي إلى أنها معرضة بشكل خاص لخطر استهداف المعلومات المضللة، ستذهب إلى صناديق الاقتراع في غضون أسبوعين. وفي العام المقبل، من المقرر أن تجري المملكة المتحدة والهند والاتحاد الأوروبي والولايات المتحدة انتخابات. يقول مدققو الحقائق الذين يحاولون الوقوف في وجه المعلومات المضللة على وسائل التواصل الاجتماعي في سلوفاكيا، إن تجربتهم تظهر أن الذكاء الاصطناعي متقدم بالفعل بما يكفي لتعطيل الانتخابات، في حين أنهم يفتقرون إلى الأدوات اللازمة للرد.
تقول فيرونيكا هينكوفا فرانكوفسكا، مديرة المشروع في منظمة التحقق من الحقائق “ديماجوج”: “لسنا مستعدين لذلك كما ينبغي”.
خلال الانتخابات، عمل فريق هينكوفا فرانكوفسكا لساعات طويلة، حيث قسموا وقتهم بين التحقق من صحة الادعاءات المقدمة خلال المناظرات التلفزيونية ومراقبة منصات وسائل التواصل الاجتماعي. تعد Demagog شريكًا لتدقيق الحقائق لشركة Meta، مما يعني أنها تعمل مع شركة التواصل الاجتماعي لكتابة ملصقات التحقق من صحة المعلومات المضللة المشتبه بها المنتشرة على منصات مثل Facebook.
وقد أضاف الذكاء الاصطناعي بعدًا جديدًا مليئًا بالتحديات إلى عملهم. قبل ثلاثة أيام من الانتخابات، أبلغ ميتا فريق ديماغوج أن التسجيل الصوتي لسيميكا الذي يقترح مضاعفة سعر البيرة إذا فاز قد حظي باهتمام كبير. وصف Šimečka الفيديو بأنه مزيف. تقول هينكوفا فرانكوفسكا: “لكن بالطبع لا يمكن أن يرتكز التحقق من الحقائق على ما يقوله السياسيون فقط”.
كان إثبات التلاعب بالصوت أمرًا صعبًا. لقد سمعت هينكوفا فرانكوفسكا عن المنشورات التي ينشئها الذكاء الاصطناعي، لكن فريقها لم يضطر أبدًا إلى التحقق من صحتها. لقد تتبعوا مصدر التسجيل، واكتشفوا أنه تم نشره لأول مرة على حساب مجهول على Instagram. ثم بدأوا في الاتصال بالخبراء، وسؤالهم عما إذا كانوا يعتبرون التسجيل مزيفًا أو تم التلاعب به. وأخيرًا، قاموا بتجربة مصنف الكلام القائم على الذكاء الاصطناعي الذي صنعته شركة أمريكية تدعى Eleven Labs. يرى
وبعد بضع ساعات أصبحوا على استعداد لتأكيد اعتقادهم بأن التسجيل قد تم تغييره. وتقول علامتهم، التي لا تزال متاحة للمشاهدة على فيسبوك باللغة السلوفاكية عندما يصادف الزائرون المنشور: “يقول مدققو الحقائق المستقلون إن الصورة أو الصورة تم تحريرها بطريقة يمكن أن تضلل الناس”. يمكن لمستخدمي Facebook بعد ذلك اختيار ما إذا كانوا يريدون مشاهدة الفيديو على أي حال.
تظل كل من التسجيلات الصوتية الخاصة بالبيرة وتزوير الأصوات مرئية على فيسبوك، مع علامة التحقق من صحة الأخبار. يقول بن والتر، المتحدث الرسمي باسم Meta: “عندما يتم التحقق من صحة المحتوى، فإننا نصنفه ونخفض تصنيفه في الموجز، بحيث يراه عدد أقل من الأشخاص – كما حدث مع هذين المثالين”. “تنطبق معايير مجتمعنا على كل المحتوى، بغض النظر عما إذا تم إنشاؤه بواسطة الذكاء الاصطناعي أو بواسطة شخص، وسنتخذ إجراءات ضد المحتوى الذي ينتهك هذه السياسات.”
كانت هذه الانتخابات واحدة من أولى عمليات التصويت اللاحقة التي تم إجراؤها بعد تقديم قانون الخدمات الرقمية للاتحاد الأوروبي في أغسطس. قدم القانون، المصمم لحماية حقوق الإنسان على الإنترنت بشكل أفضل، قواعد جديدة كان من المفترض أن تجبر المنصات على أن تكون أكثر استباقية وشفافية في جهودها للتخفيف من المعلومات المضللة.
يقول ريتشارد كوتشتا، المحلل في مجموعة ريسيت البحثية التي تركز على تأثير التكنولوجيا على الديمقراطية: “كانت سلوفاكيا بمثابة حالة اختبار لمعرفة ما الذي ينجح وأين تحتاج إلى بعض التحسينات”. “من وجهة نظري، [القانون الجديد] يضغط على المنصات لزيادة قدراتها في الإشراف على المحتوى أو التحقق من الحقائق. نحن نعلم أن ميتا عينت المزيد من مدققي الحقائق للانتخابات السلوفاكية، لكننا سنرى ما إذا كان ذلك كافيا”.
إلى جانب التسجيلين الصوتيين المزيفين، شهد Kuchta أيضًا مقطعي فيديو آخرين يظهران انتحالًا صوتيًا للذكاء الاصطناعي يتم نشرهما على وسائل التواصل الاجتماعي من قبل حزب Republika اليميني المتطرف. انتحل أحدهما شخصية ميشال شيميكا والآخر الرئيس زوزانا تشابوتوفا. وتضمنت هذه التسجيلات الصوتية تصريحات بأن الأصوات مزيفة: “هذه الأصوات وهمية وتشابهها مع الأشخاص الحقيقيين هو من قبيل الصدفة البحتة”. ومع ذلك، فإن هذا البيان لا يظهر إلا بعد 15 ثانية من مقطع الفيديو الذي تبلغ مدته 20 ثانية، كما يقول كوتشا، فيما شعر أنه محاولة لخداع المستمعين.
وكانت الانتخابات السلوفاكية تتم مراقبتها عن كثب في بولندا. يقول جاكوب سليز، رئيس مجموعة التحقق من الحقائق البولندية “جمعية برافدا”: “بالطبع، فإن المعلومات المضللة التي يولدها الذكاء الاصطناعي هي شيء نخاف منه للغاية، لأنه من الصعب للغاية الرد عليه بسرعة”. يقول أوليز إنه يشعر بالقلق أيضًا من الاتجاه السائد في سلوفاكيا نحو تجميع المعلومات المضللة في تسجيلات صوتية، بدلاً من الفيديو أو الصور، لأن استنساخ الصوت يصعب التعرف عليه.
ومثل هينكوفا فرانكوفسكا في سلوفاكيا، يفتقر Śliż أيضًا إلى الأدوات التي تساعده بشكل موثوق في تحديد ما تم إنشاؤه أو التلاعب به باستخدام الذكاء الاصطناعي. ويقول: “إن الأدوات المتاحة تعطيك درجة احتمالية”. لكن هذه الأدوات تعاني من مشكلة الصندوق الأسود. إنه لا يعرف كيف قرروا أن المنشور من المحتمل أن يكون مزيفًا. “إذا كانت لدي أداة تستخدم ذكاءً اصطناعيًا آخر لتخبرني بطريقة سحرية أن 87 بالمائة من الذكاء الاصطناعي قد تم إنشاؤه، فكيف من المفترض أن أنقل هذه الرسالة إلى جمهوري؟” هو يقول.
يقول Śliż، لم يتم تداول الكثير من المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي في بولندا حتى الآن. “لكن الناس يستخدمون حقيقة أن شيئًا ما يمكن أن يتم إنشاؤه بواسطة الذكاء الاصطناعي لتشويه سمعة المصادر الحقيقية.” أمامنا أسبوعان قبل أن يقرر الناخبون البولنديون ما إذا كان حزب القانون والعدالة المحافظ الحاكم يجب أن يبقى في الحكومة لفترة ثالثة غير مسبوقة. وفي نهاية هذا الأسبوع، تجمع حشد كبير في وارسو لدعم المعارضة، حيث قدرت حكومة المدينة التي تسيطر عليها المعارضة أن الحشد وصل إلى مليون شخص في ذروته. لكن على موقع X، المعروف سابقًا باسم تويتر، اقترح المستخدمون أن مقاطع الفيديو الخاصة بالمسيرة قد تم التلاعب بها باستخدام الذكاء الاصطناعي لجعل الحشد يبدو أكبر.
يعتقد Śliż أنه من السهل التحقق من صحة هذا النوع من المحتوى، من خلال الرجوع إلى مصادر مختلفة. ولكن إذا بدأ تداول التسجيلات الصوتية التي أنشأها الذكاء الاصطناعي في بولندا في الساعات الأخيرة قبل التصويت، كما حدث في سلوفاكيا، فسيكون ذلك أكثر صعوبة. ويقول: “باعتبارنا منظمة لتدقيق الحقائق، ليس لدينا خطة ملموسة لكيفية التعامل معها”. لذا، إذا حدث شيء كهذا، فسيكون الأمر مؤلمًا”.