كشفت أكبر دراسة أُجريت حتى الآن حول الإقناع باستخدام الذكاء الاصطناعي عن نمط مقلق في طريقة تأثير نماذج المحادثة على آراء المستخدمين. فبدل الاعتماد على التخصيص الدقيق أو الأساليب النفسية المعقدة، يعمل الذكاء الاصطناعي على تغيير العقول أساسًا من خلال إغراق المحادثات بعدد هائل من المطالبات والادعاءات الواقعية، حتى وإن جاء ذلك على حساب الدقة. وأظهرت الدراسة أن التقنيات التي تجعل الذكاء الاصطناعي أكثر إقناعًا تؤدي في الوقت نفسه إلى زيادة إنتاج المعلومات غير الدقيقة، من دون توجيه صريح للنماذج نحو الخداع أو التضليل، وفقا لتقرير منشور في StudyFinds. منهجية الدراسة وحجمها شملت الدراسة نحو 77 ألف مشارك في المملكة المتحدة، أجروا محادثات سياسية مع 19 نظامًا مختلفًا للذكاء الاصطناعي، من بينها نماذج متقدمة مثل GPT-4.5 وGrok-3. وخلال هذه التفاعلات، جرى تحليل أكثر من 466 ألف ادعاء، خضعت للتقييم من قبل مدققي حقائق محترفين، إضافة إلى نظام ذكاء اصطناعي منفصل للتحقق. وبصورة عامة، صُنّف نحو 81% من الادعاءات التي قدّمها الذكاء الاصطناعي على أنها دقيقة. إلا أن هذه النسبة لم تكن ثابتة، إذ انخفضت كلما جرى تحسين النماذج لتعظيم قدرتها على الإقناع. الإقناع يعمل عبر الكثافة توصل الباحثون إلى أن الإقناع في الذكاء الاصطناعي لا يعتمد أساسًا على التخصيص أو الأسلوب العاطفي، بل على كثافة المعلومات. فعند توجيه النماذج لتكثيف الحقائق والأدلة، ارتفع عدد الادعاءات القابلة للتحقق في المحادثة الواحدة بشكل ملحوظ. على سبيل المثال، أنتج GPT-4o أكثر من 25 مطالبة يمكن التحقق منها في المتوسط لكل محادثة، مقارنة بأقل من 10 مطالبات في الأساليب الأخرى، ما أدى إلى زيادة الإقناع بنسبة 27 %. في المقابل، انخفضت الدقة من 78% في الظروف القياسية إلى 62% عند زيادة كثافة المعلومات. وسجّل GPT-4.5 نمطًا مشابهًا، إذ تراجعت دقته من 70% إلى 56% عند تطبيق النهج نفسه. التدريب المتخصص والدقة أظهرت الدراسة أن تقنيات التدريب المصممة خصيصًا لتعزيز الإقناع، مثل نمذجة المكافآت، تعزز قدرة النماذج على تغيير الآراء، لكنها في الوقت نفسه تقلل من دقة المعلومات المقدمة. وأوضح الباحثون أن المعلومات غير الدقيقة لا تنتج عن نية مباشرة للتضليل، بل عن الضغط المستمر لتوليد عدد أكبر من الادعاءات خلال المحادثة. وعندما وُجّه أحد النماذج صراحة لاختلاق ادعاءات غير صحيحة، لم يتحسن مستوى الإقناع، ما يشير إلى أن التضليل المتعمّد ليس العامل الرئيس في زيادة التأثير. النماذج الأحدث ليست الأكثر صدقا من أبرز نتائج الدراسة أن النماذج الأحدث والأكبر حجمًا لم تكن بالضرورة أكثر دقة. فقد قُيّمت ادعاءات GPT-4.5 على أنها غير دقيقة في أكثر من 30% من الحالات، وهي نسبة قريبة من نماذج أصغر بكثير من حيث الحجم والموارد. وفي المقارنة، تفوق GPT-3.5، الذي صدر قبل أكثر من عامين، على GPT-4.5 من حيث الدقة بنحو 13 نقطة مئوية. كما أظهرت إصدارات مختلفة من GPT-4o فروقًا ملحوظة في الدقة رغم تقاربها الزمني، ما يشير إلى أن تغييرات التدريب اللاحقة قد تؤثر سلبًا على الصدق. المحادثة تضخم الإقناع والمعلومات المضللة بيّنت النتائج أن الرسائل الثابتة، مثل مقال مقنع من 200 كلمة، كان تأثيرها محدودًا. في المقابل، رفعت المحادثات التفاعلية ذهابًا وإيابًا مستوى الإقناع بنسبة تراوح بين 40% و50%، مع استمرار الأثر بعد شهر من التفاعل. وفي أقصى سيناريوهات الإقناع، قدّم الذكاء الاصطناعي في المتوسط 22.5 ادعاءً يمكن التحقق منه في المحادثة الواحدة، صُنّف نحو ثلثها على أنه غير دقيق. قابلية تسليح النماذج الصغيرة أظهرت الدراسة أن النماذج الصغيرة مفتوحة المصدر، عند تدريبها بالأساليب المناسبة، يمكن أن تضاهي النماذج المتقدمة في قدرتها على الإقناع. وهو ما يعني أن أدوات التأثير القوية يمكن تشغيلها حتى على أجهزة كمبيوتر محمولة عادية، ما يوسّع نطاق الجهات القادرة على استخدام الذكاء الاصطناعي للتأثير. • يعتمد الذكاء الاصطناعي في الإقناع أساسًا على إغراق المحادثات بالمطالبات، لا على التخصيص الدقيق أو الحيل النفسية. • كلما زادت قدرة النماذج على الإقناع، انخفضت دقة المعلومات التي تقدمها. • النماذج الأحدث والأكبر ليست بالضرورة أكثر صدقًا من النماذج الأقدم. • المحادثة التفاعلية تضاعف الإقناع بنسبة تصل إلى 50%، لكنها تزيد أيضًا من حجم المعلومات غير الدقيقة. • يمكن تدريب نماذج صغيرة مفتوحة المصدر لتكون مقنعة بقدر النماذج المتقدمة، ما يوسع نطاق استخدام أدوات التأثير.