الذكاء الاصطناعي والناخبون: عندما يصبح الكذب مقنعاً

الذكاء الاصطناعي والناخبون: عندما يصبح الكذب مقنعاً

كشفت أبحاث جديدة أن روبوتات الدردشة قادرة على تغيير آراء الناخبين عبر استراتيجية "حشو الحقائق"، لكن هذا الإقناع يأتي بضريبة باهظة: زيادة المعلومات المضللة والهلوسة الرقمية التي تهدد الديمقراطية.

الولايات المتحدة الأمريكية

لطالما ساد اعتقاد راسخ في أوساط علماء النفس والسياسة بأن تغيير القناعات السياسية للناس، خاصة في القضايا الجدلية، أشبه بمحاولة نحت الصخر بالماء؛ فسرد قوائم طويلة من الحقائق نادراً ما ينجح في زحزحة القلوب أو العقول. ولكن، يبدو أن هذه القاعدة القديمة قد تهاوت أمام سطوة الذكاء الاصطناعي. ففي تحول لافت يكشف عن هشاشة الوعي البشري أمام الآلة، أظهرت أبحاث علمية جديدة أن بضع دقائق من الدردشة مع خوارزمية ذكية كافية لدفع الناخبين نحو إعادة النظر في مرشحيهم المفضلين، ليس عبر البلاغة الساحرة، بل عبر استراتيجية مخيفة تعتمد على “الإغراق المعلوماتي” والمزج المتقن بين الحقائق والأكاذيب.

روبوتات الدردشة: مفاتيح العقول المغلقة

في خضم الاستقطاب الحاد الذي شهدته الانتخابات الرئاسية الأمريكية لعام 2024 بين دونالد ترامب وكامالا هاريس، أجرى فريق بحثي بقيادة عالم الاجتماع الحاسوبي ديفيد راند من معهد ماساتشوستس للتكنولوجيا (MIT) تجربة مثيرة نُشرت نتائجها في دورية Nature المرموقة. شملت الدراسة أكثر من 2300 مشارك أمريكي، طُلب منهم تقييم دعمهم للمرشحين على مقياس من 100 نقطة.

كانت المفاجأة أن المحادثات القصيرة التي لم تتجاوز ست دقائق مع روبوتات دردشة (Chatbots) مبرمجة لدعم الطرف الآخر، قد أحدثت تأثيراً ملحوظاً. فقد تحرك ناخبو هاريس الذين تحدثوا مع روبوت مؤيد لترامب بمعدل 4 نقاط تقريباً نحو تقبله، وبالمثل تحرك ناخبو ترامب نحو هاريس بمعدل 2.3 نقطة. ورغم أن الروبوتات لم تغير بالضرورة نية التصويت النهائية، إلا أنها نجحت ببراعة في زيادة “المشاعر الدافئة” تجاه الخصم السياسي، وهو تأثير استمر -وإن بدرجة أقل- عند إعادة استطلاع المشاركين بعد شهر كامل.

وهم الحقائق: الكذب باسم العلم

لكن السؤال الجوهري الذي حيّر العلماء هو: كيف تنجح هذه الآلات فيما يفشل فيه البشر؟ الإجابة جاءت في ورقة بحثية مرافقة نُشرت في دورية Science، حيث حلل الباحثون آليات الإقناع لدى 19 نموذجاً مختلفاً من الذكاء الاصطناعي عبر محادثات مع 77 ألف مشارك في المملكة المتحدة.

اكتشف الباحثون أن الروبوتات الأكثر إقناعاً لا تعتمد على السرد القصصي العاطفي أو مراعاة المعتقدات الفردية للمستخدم، بل تعتمد على تكتيك “حشو الحقائق”. فعندما تم توجيه الذكاء الاصطناعي لتقديم حجج مليئة بالحقائق والأدلة والمعلومات عالية الجودة، ارتفعت قدرته على الإقناع بنسبة 27%، محركاً آراء الناس بنحو 11 نقطة مئوية، مقارنة بـ 8.3 نقطة عند طلب الإقناع بشكل عام.

وهنا تكمن المعضلة الخطيرة التي يشير إليها ديفيد راند بقوله: “الأمر ليس أن الأكاذيب أكثر جاذبية من الحقيقة، ولكن عندما تحتاج لتقديم مليون حقيقة، ستنفد منك الحقائق الجيدة في النهاية، ولإكمال حصتك من المعلومات، ستضطر لإقحام بعض المعلومات غير الصحيحة”. وهذا بالضبط ما حدث؛ فعندما طُلب من نموذج (GPT-4o) التركيز على الحقائق، انخفضت دقة معلوماته من 80% إلى 60%، حيث بدأت الخوارزميات في اختلاق معلومات (هلوسة) لتبدو مقنعة أكثر.

ديمقراطية في مهب الخوارزميات

تثير هذه النتائج قلقاً عميقاً حول مستقبل الديمقراطية، خاصة مع ملاحظة الباحثين أن الروبوتات ذات الميول اليمينية كانت أكثر ميلاً لنشر المعلومات المضللة مقارنة بنظيرتها اليسارية. وتصف ليزا أرجايل، عالمة الاجتماع الحاسوبي في جامعة بوردو، هذه القدرة على التلفيق المقنع بأنها “تهديد جوهري لشرعية الحكم الديمقراطي”.

وتزداد الخطورة في السياقات التي لم يحسم فيها الناخبون أمرهم بعد. ففي تجارب مماثلة أجريت في كندا وبولندا قبيل الانتخابات الفيدرالية لعام 2025، تمكنت الروبوتات من زحزحة آراء المشاركين بمقدار 10 نقاط كاملة تجاه المرشحين الأقل تفضيلاً لديهم، مما يشير إلى قدرة هذه التكنولوجيا على قلب الموازين في الانتخابات المتقاربة.

سيكولوجية الإقناع الرقمي: لماذا نصدق الآلة؟

لا يزال السبب وراء خضوع البشر لحجج الآلات القائمة على سرد الحقائق -أكثر من خضوعهم للبشر- لغزاً علمياً. ترجح جيليان فيشر، خبيرة الذكاء الاصطناعي والمجتمع بجامعة واشنطن، أننا نميل غريزياً لاعتبار البشر خطائين، بينما ننسب للآلة دقة وموضوعية وهمية. وتشير أبحاث فيشر إلى بصيص أمل؛ فالمستخدمون الذين يمتلكون معرفة تقنية بكيفية عمل نماذج الذكاء الاصطناعي كانوا أقل عرضة للتأثر بتكتيكاتها الإقناعية، مما يجعل “محو الأمية الرقمية” درعاً ضرورياً في عصرنا هذا.

وفي حين ركزت التجارب على نقاشات سياسية صريحة، يحذر جاكوب تيني، خبير سيكولوجية الإقناع بجامعة نورث وسترن، من الخطر الكامن في المحادثات اليومية العادية. فقد لا يسأل المستخدم الروبوت عن رأيه في الانتخابات، بل قد يسأل سؤالاً بريئاً عن وصفة عشاء، ليجيبه الروبوت بذكاء خبيث: “مرحباً، هذه هي وجبة العشاء المفضلة لكامالا هاريس”، ممرراً بذلك رسائل سياسية مبطنة قد تكون أشد تأثيراً من الدعاية المباشرة.

اترك ردّاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *


Stay informed and not overwhelmed, subscribe now!