الذكاء الاصطناعي التوليدي يهدد عائدات المواقع الإخبارية: هل تتكيف المؤسسات أم تنهار؟

أدّت برامج الذكاء الاصطناعي التوليدي غلى غرار "تشات جي بي تي" إلى تقليص عمليات البحث التقليدية على الإنترنت وحرمان المواقع الإخبارية من بعض عائداتها من الزيارات والإعلانات، ما يُشكّل ضربة موجعة إضافية لقطاع مأزوم أصلا.
توقّع نائب رئيس قسم الأبحاث والتطوير في مجموعة "بوسطن غلوب ميديا" التي تُصدر هذه الصحيفة اليومية المرموقة مات كاروليان أن "تكون السنوات الثلاث أو الأربع المقبلة بالغة الصعوبة على ناشري الصحف في مختلف أنحاء العالم، بصرف النظر عن حجمها".
ونبّه إلى أن "على الناشرين أن يهيئوا مؤسساتهم للتكيف، وإلا فإنها ستنهار".
ولا تزال الأرقام الدقيقة في هذا الشأن قليلة، لكنّ دراسة حديثة أجراها مركز "بيو ريسيرتش سنتر" أظهرت أن المُلخص الذي بات الذكاء الاصطناعي التوليدي يوفره عند إجراء بحث على "غوغل"، غالبا ما يُثني مستخدمي الإنترنت عن السعي إلى مزيد من التعمق.
وأصبح عدد المرات التي ينقر فيها المستخدمون على الروابط المُقترحة نصف عدد مرات النقر أثناء بحث من دون ذكاء اصطناعي.
وبالتالي، باتت نسبة مماثلة من المستخدمين تستغني عن زيارة مواقع وسائل الإعلام الإلكترونية التي تعوّل على عدد الزيارات في إيراداتها الإعلانية واشتراكاتها.
ورأى الأستاذ في جامعة نورث إيسترن جون وِهبي أن "هذا الاتجاه نحو تضاؤل عدد الزيارات" المتأتية من مُحرّكات البحث التقليدية "سيتسارع، وسيُصبح الإنترنت عالما مُختلفا عمّا عرفناه".
وسبق لسيطرة بعض الجهات كـ"غوغل" و"ميتا" أن أدّت إلى خفض عائدات وسائل الإعلام الإلكترونية من الإعلانات، مما دفعها إلى التركيز في سعيها إلى تحقيق الإيرادات على المحتوى المدفوع والاشتراكات.
لكنّ جون وِهبي ذكّر بأن الاشتراكات تعتمد أيضا على حركة الزيارات، و"إنها لا تكفي لجعل وسائل الإعلام الكبيرة قادرة على الاستمرار".
وقال مات كاروليان "بدأنا نرى اشتراكات عبر تشات جي بي تي" الذي يوفر نقطة ولوج جديدة إلى الأخبار "لكن هذا الاتجاه لا يزال محدودا جدا مقارنةً بمنصات البحث الأخرى"، حتى الصغيرة منها.
"أما بالنسبة لأدوات المساعَدَة الأخرى القائمة على الذكاء الاصطناعي، على غرار بيربليكسيتي، فالحركة أبطأ حتى"، بحسب كاروليان.
سعيا إلى الحفاظ على مكانتها في عالم الذكاء الاصطناعي، يستخدم عدد متزايد من الشركات تقنية تحسين محركات البحث التوليدية (GEO) التي تشكّل بديلا من تقنية تحسين محركات البحث (SEO)، وهي طريقة لتحسين ترتيب موقع إلكتروني في نتائج البحث بواسطة محركات البحث التقليدية.
ومن أهم مميزات التقنية الجديدة أنها توفّر تصنيفا واضحا ومنظّما بطريقة جيدة للمحتوى، يُمكن أن تفهمه نماذج الذكاء الاصطناعي الرئيسية، وحضورا على منصات التواصل الاجتماعي وفي المنتديات.
وقال الرئيس التنفيذي لشركة "أوترلاي إيه آي" الناشئة في مجال تحسين المحتوى توماس بيهام إن "السؤال الأهم، في حالة وسائل الإعلام، هو: هل يجب على أصحاب المواقع السماح لأدوات استخراج المحتوى الهادفة إلى تغذية برامج الذكاء الاصطناعي باستخدام هذه المواقع للحصول على ما تحتاج إليه؟".
فالكثير من ناشري الصحف الذين أحبطهم استخراج برامج الذكاء الاصطناعي التوليدي الرئيسية بياناتها من مواقعهم بطريقة غير منظمة، اختاروا الردّ من خلال منع الذكاء الاصطناعي من ولوج محتواهم.
وقالت مديرة منظمة "نيوز/ميديا ألاّينس" المهنية لوسائل الإعلام دانييل كوفي "علينا ضمان الحصول على تعويض عادل من الشركات التي تستخدم محتوانا".
وعُقِدَت على هذا الأساس بعض الاتفاقات، منها مثلا بين صحيفة "نيويورك تايمز" و"أمازون"، وبين وكالة "أسوشيتد برس" و"غوغل"، وبين وكالة فرانس برس و"ميسترال".
لكنّ دعاوى عدة لا تزال جارية، من بينها تلك التي رفعتها "نيويورك تايمز" ضد "أوبن إيه آي" و"مايكروسوفت".
ومع ذلك، فإن اعتماد أسلوب منع استخراج البيانات من المواقع تقلل في الواقع من وجودها في أجوبة مساعدي الذكاء الاصطناعي.