أعاد الذكاء الاصطناعي تشكيل واحدة من أكثر ركائز العلم حساسية، وهي مراجعة النظراء، لكن هذا التحول يحدث بهدوء لافت ودون وعي كامل من المجتمع البحثي. فوفق دراسة حديثة قادتها «فرونتيرز ميديا»، يستخدم أكثر من نصف مراجعي الأبحاث اليوم أدوات الذكاء الاصطناعي عند تقييم المخطوطات العلمية، في حين لا يزال معظم الباحثين غير متأكدين مما إذا كان الناشرون أنفسهم يوظفون هذه الأدوات خلال عملية النشر. تحول صامت أظهر الاستطلاع، الذي شمل 1645 باحثًا من مختلف التخصصات والمناطق، أن 53 % من مراجعي النظراء يعتمدون الذكاء الاصطناعي بشكل أو بآخر، مع زيادة واضحة خلال العام الأخير. ويكشف هذا الرقم عن انتقال جذري في آليات التحقق العلمي، حدث دون نقاش علني واسع أو سياسات واضحة تنظم هذا الاستخدام، نقلا عن موقع studyfinds. ثغرة شفافية رغم هذا الانتشار، أفاد نحو ثلاثة أرباع الباحثين بأنهم لا يعرفون متى أو كيف يستخدم الناشرون الذكاء الاصطناعي في عمليات التحرير أو التقييم. هذه الضبابية خلقت فجوة ثقة، إذ يرى كثيرون أن القرارات المصيرية المتعلقة بقبول أو رفض الأبحاث باتت تتأثر بأدوات غير معلنة. ثقة محدودة يقر 66% من الباحثين بأن الذكاء الاصطناعي يسرّع عملية النشر، لكن 21% فقط يشعرون بأنه يعزز ثقتهم بالنظام العلمي. ويعكس هذا التناقض قناعة بأن الكفاءة الزمنية لا تعني بالضرورة جودة أعلى أو نزاهة أكبر. استخدام سطحي المفارقة أن غالبية المراجعين يستخدمون الذكاء الاصطناعي في مهام محدودة، مثل تحسين الصياغة أو تصحيح اللغة، بدلًا من توظيفه في فحص المنهجيات أو تقييم السلامة الإحصائية. وبهذا، يتحول الذكاء الاصطناعي إلى أداة تحريرية أكثر منه أداة علمية تعزز الصرامة البحثية. فرص مهدرة يرى خبراء أن الإمكانات الحقيقية للذكاء الاصطناعي تكمن في كشف العيوب المنهجية، وتحسين قابلية الاستنساخ، واختبار الفرضيات، وهي مجالات تعاني فيها مراجعة النظراء تقليديًا. غير أن الحذر، وغياب التدريب، والخوف من الأخطاء، يحول دون استغلال هذه القدرات. فجوة تدريب تكشف الدراسة أن 35% من الباحثين يعلّمون أنفسهم استخدام الذكاء الاصطناعي دون أي توجيه رسمي، بينما لا يتخذ 18% أي خطوات لضمان الممارسات السليمة. في المقابل، تقدم المؤسسات إرشادات واضحة لثلث الباحثين فقط، ما يترك المجتمع العلمي يتعامل مع أدوات قوية دون معايير موحدة. فروق مهنية يسجل الباحثون في بدايات مسيرتهم المهنية أعلى معدلات التبني، سواء في التأليف أو المراجعة، مقارنة بالباحثين المخضرمين. ويعكس ذلك فجوة جيلية في التعامل مع التكنولوجيا، حيث يميل الأصغر سنًا إلى التجريب، بينما يظل الأكبر أكثر تحفظًا. اختلافات إقليمية تلعب الجغرافيا دورًا مهمًا في المواقف تجاه الذكاء الاصطناعي. ففي الصين وأفريقيا، يُنظر إليه كأداة تمكين، خاصة للباحثين غير الناطقين بالإنجليزية. أما في أمريكا الشمالية وأوروبا، فتغلب المخاوف الأخلاقية والتحفظات المتعلقة بالحوكمة والشفافية. قلق أخلاقي رغم الفوائد، يشعر 71% من الباحثين بالقلق من إساءة استخدام الذكاء الاصطناعي، ويؤكد أكثر من نصفهم أنهم رصدوا بالفعل ممارسات غير مسؤولة. ويخشى البعض أن يؤدي الاعتماد المفرط عليه إلى أخطاء علمية أو تقويض الثقة في البحث المنشور. طريق الإصلاح توصي الدراسة بضرورة الإفصاح الكامل عن استخدام الذكاء الاصطناعي في جميع مراحل النشر، وتطوير معايير أخلاقية واضحة، وإدماج محو الأمية بالذكاء الاصطناعي في التعليم والبحث. كما تدعو إلى مساءلة الناشرين والمطورين، وتعزيز الشفافية في تصميم الأدوات وبيانات تدريبها. في المحصلة، لم يعد السؤال ما إذا كان الذكاء الاصطناعي جزءًا من النشر العلمي، بل كيف يمكن تسخيره دون المساس بجوهر النزاهة العلمية. • أكثر من نصف مراجعي الأبحاث يستخدمون الذكاء الاصطناعي بالفعل • غياب الشفافية يخلق فجوة ثقة بين الباحثين والناشرين • الاستخدام الحالي يتركز على الصياغة لا المنهجية • فجوة تدريب واضحة بين الباحثين والمؤسسات • اختلافات جيلية وإقليمية في تبني الذكاء الاصطناعي • الحاجة ملحّة لإطار أخلاقي وإفصاح كامل