في الأشهر الأخيرة، أصبحت العلاقة بين ناشري المحتوى ومنصات الذكاء الاصطناعي أكثر تعقيدًا، فبينما تعتمد هذه المنصات على المحتوى المفتوح لتدريب نماذجها وتقديم إجابات فورية للمستخدمين، يشعر كثير من الناشرين بأنهم لا يحصلون على مقابل عادل.
وهنا جاء دور Cloudflare، التي أعلنت عن أدوات جديدة تمكن الناشرين من تحديد طريقة استخدام المحتوى من قبل عناكب الذكاء الاصطناعي بل وحتى فرض رسوم مالية على الزحف.
إشارات محتوى جديدة داخل robots.txt
لطالما كان ملف robots.txt وسيلة المواقع لتحديد ما إذا كانت محركات البحث تستطيع الزحف إلى صفحاتها أو لا.
لكن الجديد من Cloudflare هو إدخال “إشارات محتوى” (Content Signals) تُكتب داخل هذا الملف، وتوضح بدقة كيف يسمح باستخدام المحتوى.
تشمل الإشارات الجديدة 3 خيارات أساسية:-
- search → السماح أو المنع من الظهور في نتائج البحث.
- ai-input → السماح أو المنع من استخدام المحتوى في واجهات الذكاء الاصطناعي كمدخلات مباشرة.
- ai-train → السماح أو المنع من استخدام المحتوى لتدريب نماذج الذكاء الاصطناعي.
مثال عملي داخل robots.txt:-
# Cloudflare Content Signals
# search: yes
# ai-input: no
# ai-train: no
بهذه الطريقة، يمكن لأي موقع إخبار عناكب الذكاء الاصطناعي بما هو مسموح وما هو غير مسموح، دون الحاجة إلى إغلاق الموقع بالكامل أمام محركات البحث.
Pay-Per-Crawl… خطوة لتحويل الزحف إلى مصدر دخل
الميزة الثانية المثيرة من Cloudflare هي “Pay-Per-Crawl”، والتي تعتمد على رمز الحالة HTTP 402 – Payment Required.
كيف تعمل؟
1- إذا حاول زاحف AI الدخول إلى المحتوى، يرد الموقع برمز 402 مع عرض “سعر الزحف”.
2- إذا وافق الزاحف على الدفع، يحصل على المحتوى.
3- إذا رفض يتم حجب المحتوى عنه.
هذا يعني أن الناشرين أصبح بإمكانهم فرض رسوم على استخدام محتواهم بدلًا من منحه مجانًا.
ملاحظة مهمة: الخدمة ما زالت في مرحلة البيتا، لكن الكثير من مواقع الأخبار بدأت بالفعل في تجربتها.
ماذا تعني هذه التغييرات لمواقع الأخبار؟
مع إطلاق Cloudflare لأدوات Content Signals وPay-Per-Crawl، لم تعد العلاقة بين الناشرين وعناكب الذكاء الاصطناعي كما كانت. هذه الخطوة تمثل نقلة نوعية في كيفية التحكم في المحتوى وتحديد من يستخدمه وكيف، بل وتمنح المواقع الإخبارية فرصة لتحويل هذا التفاعل من عبء إلى فرصة استراتيجية.
من خلال هذه الأدوات الجديدة، يمكن للناشرين رسم حدود واضحة، وإعادة صياغة طريقة تعاملهم مع عناكب الزحف الذكية، سواء كانت تابعة لمحركات البحث أو نماذج الذكاء الاصطناعي.
تحكم أكبر في مصير المحتوى
- لم يعد الناشر مضطرًا للاختيار بين فتح المحتوى للجميع أو منعه تمامًا، الآن يمكنه تحديد من يمكنه الوصول إليه، وكيف يستخدم، مما يضمن حماية حقوق النشر والمجهود التحريري.
تحويل الزحف إلى مصدر ربح
- من خلال ميزة Pay-Per-Crawl، يمكن للناشرين تحويل الزحف إلى فرصة لتحقيق دخل إضافي بحيث يدفع زاحف الذكاء الاصطناعي مقابل الوصول للمحتوى بدلاً من استغلاله مجانًا.
حماية من الاستخدام غير المصرح به
- تتيح أدوات Cloudflare الحد من استخدام المحتوى في تدريب النماذج الذكية دون إذن، ما يوفر حماية إضافية للمواد الإخبارية والمقالات الأصلية.
استراتيجية سيو أكثر ذكاء
- يمكن السماح لمحركات البحث التقليدية (مثل Googlebot) بالزحف والفهرسة لضمان الظهور في نتائج البحث، مع منع عناكب الذكاء الاصطناعي الأخرى من الوصول أو التدريب، وبذلك تتحقق الرؤية + الحماية في آنٍ واحد. لكن في المقابل :-
- هذه الإشارات ليست ملزمة تقنيًا بعد أي قد تتجاهلها بعض عناكب الذكاء الاصطناعي.
- قد يتأثر الظهور في نتائج واجهات الذكاء الاصطناعي إذا تم تقييد الزحف.
- تحتاج المواقع إلى إدارة دقيقة للأسعار والسياسات لتجنب الإضرار بالترافيك.
اطلع ايضا على Passage Indexing
كيف تستعد المواقع لهذه الخطوة
1- البدء بتفعيل إشارات المحتوى تدريجيًا واختبار تأثيرها على الزيارات.
2- تحديد السياسات حسب نوع الزاحف (Googlebot، GPTBot، Bingbot… إلخ).
3- استخدام Pay-Per-Crawl على أقسام محددة من الموقع كبداية.
4- متابعة تقارير الزحف وتحليل سلوك العناكب بعد تطبيق الإشارات.
الخاتمة
ما تقوم به Cloudflare اليوم ليس مجرد تحديث تقني ، بل تحول في ميزان القوة بين الناشرين ومنصات الذكاء الاصطناعي بدلًا من أن يكون المحتوى متاحًا للجميع بلا مقابل، أصبح بإمكان الناشرين التحكم في من يستخدمه، وكيف، وبأي شروط.
ومع دخول هذه الأدوات حيز الاستخدام، من المتوقع أن نرى مزيدًا من المواقع الإخبارية والمؤسسات الإعلامية تتبنى هذه السياسات لحماية محتواها وتحقيق دخل منه.
توفر Cloudflare سجلات وتقارير توضح أنواع الزواحف (Bots) التي حاولت الزحف إلى الموقع، سواء كانت محركات بحث تقليدية أو عناكب ذكاء اصطناعي، مما يساعدك على اتخاذ قرارات مبنية على بيانات.
لا، لأن ميزة الدفع تعتمد على استجابة HTTP 402 قبل تحميل المحتوى، وبالتالي لا تُحمّل الخادم عبئًا إضافيًا مثل عمليات التحميل التقليدية.
نعم، يمكن للناشر تخصيص الإعدادات على مستوى النطاق أو الصفحات الفردية. هذا يتيح التحكم في نوع المحتوى الذي يُسمح لعناكب الذكاء الاصطناعي بالوصول إليه، ومنعه في أجزاء أخرى من الموقع.
بالتأكيد، يمكن دمجها مع إعدادات الجدار الناري (WAF) أو قواعد الحماية الأخرى في Cloudflare، لتعزيز التحكم والأمان في نفس الوقت.هل يمكن معرفة أي الزواحف التي حاولت الوصول للموقع؟
هل Pay-Per-Crawl يؤثر على أداء الموقع أو سرعته؟
هل يمكنني تفعيل إشارات المحتوى على صفحات محددة فقط؟
. هل يمكن الجمع بين Pay-Per-Crawl وأنظمة حماية أخرى؟