ما هي حركة البيانات الآلية وكيف يتم استخدامها للاحتيال على تقارير المرور؟

نشرت: 2023-05-16

‍ يمكن أن تتسبب الزيادة في زيارات الموقع في تباطؤ الموقع وتدهور الأداء وزيادة تحميل الموارد والزيارات التالفة وإحصاءات النقرات وتأثير سلبي على مُحسّنات محرّكات البحث وزيادة التعرض لهجمات DDoS وهجمات التصيد الاحتيالي.

بوت المرور

‍ إذا كنت ترغب في تحليل حركة المرور إلى موقعك ، فابحث في العداد عن القفزة في مشاهدات صفحات معينة ، ومعدل الارتداد المرتفع ، والوقت الطويل أو القصير بشكل غير عادي على الصفحة ، والتحويلات غير الصالحة أو المفقودة ، والإحالات المجمعة في المناطق التي لم تقم بها يعلن.

‍ ما هي نسبة حركة الإنترنت التي يتم إنشاؤها بواسطة الروبوتات؟ تختلف التقديرات. ومع ذلك ، يمكننا أن نفترض أن إحالات الروبوتات تمثل حوالي 42٪ من إجمالي حركة مرور الويب العالمية ، ينتمي أكثر من نصفها إلى برامج الروبوت "السيئة".

ما هو Bot Traffic؟

‍ تقوم الروبوتات دائمًا بزيارة الموقع - إنه مجرد جزء من الإنترنت الحديث ، وحتى محركات البحث تقوم بفهرسة الموارد بهذه الطريقة. ولكن بمساعدة الروبوتات (أو الماسحات الضوئية التلقائية) ، يمكنك أيضًا تحليل البيانات ، أي استخراج المعلومات من موارد الويب. الروبوت المتضمن في هذا هو برنامج أو نص برمجي ينفذ إجراءات آلية بسيطة على الموقع:

  1. تفريغ كود الصفحة.
  2. تقسيمها إلى عناصرها المكونة.
  3. استخراج البيانات.
  4. حفظه في قاعدة البيانات.

قد تكون أغراض مثل هذه المجموعة مختلفة. في معظم الحالات ، يتم كشط مواقع الويب للحصول على بيانات محددة من صفحات المنافسين ، والتي يمكن استخدامها بعد ذلك على مواردهم وتنفيذ هجمات ضارة. ومع ذلك ، فإن التحليل مفيد للأغراض التحليلية أو البحثية ، والتي لا تعني في حد ذاتها أي شيء فظيع.

الروبوتات الجيدة والسيئة والقبيحة

قبل أن نتعمق في موضوع كيفية تحديد حركة مرور الروبوتات ، يجب أن نتعلم التصنيف. يمكننا تقسيم الروبوتات إلى مفيدة (جيدة) وخبيثة (سيئة).

روبوتات مفيدة

‍ هذه هي الروبوتات التي نحتاجها. يؤدون الأنشطة الضرورية على الإنترنت. إنها تساعد على أداء عمل قيم ومعقد في أقصر وقت ممكن. علاوة على ذلك ، على عكس الشخص ، يقومون بأتمتة العمليات الروتينية ، حيث يمكنهم معالجة كميات هائلة من البيانات.

البحث في الروبوتات

  • قد تعرفهم أيضًا باسم "عناكب الويب" أو "برامج زحف البحث". إنها واحدة من أكثر برامج الروبوت شيوعًا - والأكثر فائدة - على الإنترنت. جميع نتائج البحث وتفاعل المستخدم مع البحث هي مزايا روبوتات البحث. عندما يتم نشر صفحة موقع جديدة ، سيقوم الروبوت بمسحها ضوئيًا في غضون أسابيع قليلة. أدوات تحسين محركات البحث مثل SEMRush و Screaming Frog و SE Ranking و Moz وما إلى ذلك ، تحتوي أيضًا على روبوتات لتحليل نتائج البحث والموارد لتحسينها بشكل أكثر فعالية.

برامج الروبوت المؤهلة للموقع

  • على عكس روبوتات البحث التي تقوم بفهرسة المواقع على المستوى العالمي ، فإن هذه الروبوتات هي أداة لتقييم أداء مورد معين. إذا كانت المساعدة متعددة الصفحات أو كبيرة ، فإن هذه الفحوصات ضرورية. إنها تسمح لمالك الموقع بتحسينه وفقًا لاحتياجات المستخدمين. على سبيل المثال ، يمكنهم تحديد وقت تحميل الصفحة ومشكلات الأداء والروابط المعطلة والصور غير المحسّنة بشكل سريع وإصلاحها.

الروبوتات تتحقق من انتهاك حقوق النشر

  • تتحكم هذه الروبوتات في إنفاذ حقوق النشر على استضافة الفيديو الرائدة والشبكات الاجتماعية مثل YouTube و TikTok. بمساعدة برنامج خاص ، تقوم هذه الروبوتات بتحليل كميات كبيرة من بيانات الصوت والفيديو لوجود نماذج وأنماط محددة تتطابق مع مواد حقوق الطبع والنشر المحمية والموجودة في قاعدة بيانات الاستضافة. على الرغم من الفعالية التي لا يمكن إنكارها لهذه الروبوتات ، يتفق العديد من الخبراء والمستخدمين العاديين على أن الروبوتات تولد مستوى مرتفعًا بشكل غير مقبول من الإيجابيات الكاذبة وتعاقب بشكل غير عادل المؤلفين الذين لا يشابه محتواهم إلا قليلاً مع المواد المحمية بحقوق الطبع والنشر.

الروبوتات الخبيثة

‍ لسوء الحظ ، لكل روبوت "جيد" لتحسين الإنترنت ، سيكون هناك روبوت ضار للقيام بشيء أقل قيمة. على سبيل المثال ، لخداع حركة المرور على الإعلانات بواسطة برامج الروبوت. دعونا نرى ما هي الروبوتات "السيئة".

Ad انقر فوق الروبوتات

  • أنها تمثل تحديا كبيرا للإعلان الرقمي. ينقرون على الإعلانات السياقية في البحث. إنهم يهدرون ميزانيات الإعلانات ويفسدون حملات التسويق. على نحو متزايد ، يمكنك العثور على روبوتات يمكنها تقليد سلوك مستخدمين حقيقيين ، وبالتالي إخفاء نشاطهم الضار. على سبيل المثال ، يمكنهم التمرير عبر صفحات الموقع ، ومتابعتها بشكل عشوائي ، والبقاء على الصفحة لأكثر من ثانية واحدة ، وما إلى ذلك.

روبوتات لهجمات DDoS

  • رفض الخدمة (DoS) هو هجوم رفض الخدمة ، والغرض منه إبطاء مورد أو تعطيله لفترة محددة. تؤدي حركة مرور البوت الموجهة إلى التحميل الزائد على الخادم ، وتتوقف عن الاستجابة لطلبات المستخدمين الحقيقيين. نتيجة لذلك ، يصبح الموقع غير متاح. رفض الخدمة الموزعة (DDoS) هو هجوم رفض للخدمة موزع من أجهزة وشبكات متعددة. تجعل هذه الميزة الأمر أكثر صعوبة لمنع هجوم الروبوت على موقع الويب. تنتشر روبوتات DDoS عادةً من خلال شبكة الروبوتات ، وهي شبكة من أجهزة المستخدم المصابة بالبرامج الضارة. قد يقوم المستخدم عن طريق الخطأ بتثبيت برامج ضارة أو زيارة موقع ويب احتيالي. وبالتالي ، يصبح جهازه جزءًا من الروبوتات ويقوم تلقائيًا بهجمات يوجهها المشغل.

روبوتات المشتري

  • وهي مصممة للهجمات خارج المخزون على المتاجر عبر الإنترنت. المفهوم بسيط: تضيف الروبوتات عناصر معينة عالية الطلب إلى عربة التسوق وتحتفظ بها هناك دون الخروج. وفقًا لذلك ، يتم تقليل عدد المنتجات الموجودة في المخزون تلقائيًا. يفعلون ذلك حتى "نفد" المنتج. بعد ذلك ، يرى المشترون الأصليون أن المنتج قد تم بيعه ويغادر الموقع. يتم ربط منتج من الكتالوج بسلة معينة فقط لفترة قصيرة (عادةً من 10 إلى 15 دقيقة). ولكن عندما يتعرض الكتالوج لهجوم تلقائي طويل ، يسهل على الروبوتات جعل المنتج غير متاح للمشترين.

هذه ليست سوى بعض الأنشطة الضارة التي تواجهها خدمات حظر الروبوتات مثل Botfaqtor يوميًا.

من يحتاج إلى زيارات بوت عضوية

هناك العديد من الخيارات التي يحتاج فيها المسوقون وكبار المسئولين الاقتصاديين إلى حركة مرور إضافية. ومع ذلك ، فإن جميعهم تقريبًا يكمن في مستوى التسويق بالعمولة.

بيع وشراء المواقع

بيع المواقع هو عمل تجاري كبير. تأتي العقارات الرقمية التجارية ، مثل الحياة الواقعية ، بجميع الأشكال والأحجام والظروف. أولئك الذين يرغبون في إنفاق الوقت والمال على "ترتيب" أحد الموارد أو الأعمال التجارية عبر الإنترنت لمزيد من البيع أو تحقيق الدخل يحصلون على أموال طائلة.

بوت المرور

‍ إذا كان الموقع يحتوي على عدد كبير من الزوار ، فيمكنك أن توضح للمشتري المحتمل الفوائد التي يمكن أن يحصل عليها من خلال وضع محتوى إعلاني عليه. وبالتالي ، من وجهة نظر البائع ، فإن إغراء تضخيم أرقام حركة المرور بشكل مصطنع بمساعدة الروبوتات أمر قوي.

بائعو القبعة السوداء

‍ على الرغم من التأكيدات القاطعة لمحركات البحث مثل Google على أن "حركة مرور موقع الويب ليست عامل ترتيب" ، يربط العديد من الخبراء عن طريق الخطأ حركة المرور العالية بالمراكز العالية في نتائج البحث.

ونتيجة لذلك ، لا يزال العديد من "خبراء" الترويج (والعملاء) مستعدين لدفع مبالغ كبيرة مقابل حركة مرور الروبوتات العضوية. يتم استخدام تقنية قصف محرك البحث ، حيث يتم عرض موقع غير ذي صلة في نتائج البحث عند الطلب ، حيث لا توجد تكرارات للكلمات الرئيسية التي تم البحث عنها. سيعتقدون خطأً أن ترتيبهم ومناصبهم ستنمو بهذه الطريقة.

غير شريفة المسوقين والوكالات

‍ لسوء الحظ ، لا تزال الممارسة غير العادلة المتمثلة في تضخيم زوار موقع الويب بحركة مرور الروبوت على قيد الحياة وبصحة جيدة في عام 2023. أي شخص يفهم ولو قليلاً عن التسويق الرقمي يعرف أن حركة المرور على هذا النحو هي مؤشر مصمم لإمتاع الأنا وليس أكثر.

إذا لم يكمل أي من الزوار الذين نقروا على الإعلان الإجراء المستهدف ، فلن تفيد الزيادة في عدد الزوار النشاط التجاري. ومع ذلك ، فإن العديد من أصحاب الأعمال ليس لديهم الوقت لتعلم كل مداخل وعموميات التسويق.

‍ حتى عندما تتضح حقيقة حركة الزيارات المتضخمة ، سيحاول المسوق أو الوكالة غير النزيهة أن تنسب معدلات التحويل المنخفضة إلى عوامل أخرى (المنتج أو الخدمة المقدمة ، الصفحة المحسنة بشكل سيئ ، إلخ). كما يسمح لهم بالترويج للعميل للحصول على خدمات إضافية.

‍ كما ترى ، فإن حركة البوت العضوية قليلة الاستخدام ما لم تكن مرتبطة ببعض التسويق غير النزيه وخدمات تحسين محركات البحث (SEO).

‍ كقاعدة عامة ، تُنشئ برامج الروبوت مظهر العديد من الزيارات. ومع ذلك ، في الواقع ، يتم استخدامها فقط لتحقيق مكاسب مالية.

Paid Bot Traffic هي لعبة بدون فائز

إن استخدام روبوتات المرور لزيادة النقرات على الإعلانات سيفيد مجموعتين فقط من الأشخاص: الناشر / مشرف الموقع الذي يضع الإعلان أو منافس المعلن.

قد تبدو زيادة الإيرادات من خلال حركة مرور الروبوتات المخفية مغرية للناشرين الذين يستثمرون بالفعل مواقعهم من خلال Google Adsense. على سبيل المثال ، هناك العديد من المقالات على الويب حول أفضل الطرق لشراء برامج الروبوت.

ومع ذلك ، تعمل المنصات الإعلانية على تشديد قواعد المشاركة بشكل متزايد ويقظة بشأن زيادة حركة المرور. لذلك ، لا يجب استخدام هذا الخيار لزيادة الدخل.

لا يتعلق الاحتيال في الإعلانات من قبل الناشرين بالمال السهل والإفلات من العقاب. بدلاً من المدفوعات الكبيرة ، يمكن أن يتم حظرك وتفقد أي دخل من موقعك.

طرق الكشف

تعتمد الحماية ضد الروبوتات الفردية ، أو حتى الحماية الكاملة ضد شبكات الروبوت ، على مبدأ واحد: تحتاج أولاً إلى اكتشاف حركة مرور الروبوتات.

بوت المرور

‍ لمعرفة ما إذا كان تدفق حركة المرور نتيجة لهجوم روبوت ، يمكنك الرجوع إلى الطرق التالية:

  1. يمكنك تتبع إحصائيات الوصول من خلال الوصول إلى سجلات الخادم باستخدام ملف access.log. يحتوي هذا الملف النصي على معلومات كاملة عن حركة المرور على الخادم. في ذلك ، يمكنك عرض عنوان IP الذي تم تقديم الطلب منه ووقته ونوعه ومحتواه. يجب أن تولي اهتمامًا خاصًا للمعلمة٪ {User-Agent} - رأس يحتوي على معلومات حول الطلب - التطبيق واللغة التي تم تقديمه بها. إرسال طلبات متعددة من نفس عنوان IP و User-Agent على فترات منتظمة يجب أن ينبهك.
  2. يمكن أن يساعد استخدام JavaScript في جمع معلومات مهمة حول المستخدمين الذين يزورون الموقع (دقة الشاشة ، المنطقة الزمنية ، الأزرار القابلة للنقر). من الممكن تحديد المستخدمين الذين من المرجح أن يكونوا محللًا من خلال مطابقة المعلومات حول الطلبات.
  3. يمكن حظر الطلبات غير المرغوب فيها من الوكلاء الذين لديهم نفس الطلب والمنطقة والمنطقة الزمنية وحجم الشاشة من نفس عنوان IP بأمان باستخدام إحدى الطرق التي سنشرحها أدناه.

لاحظ أنه لا يمكن أن تأتي جميع الطلبات من الروبوتات من نفس عنوان IP. ذلك لأن الروبوتات تستخدم عادة شبكة بروكسي ، وبالتالي تقوم بالتحليل الموزع. ومع ذلك ، حتى إذا تم تلقي نفس الطلبات من خوادم مختلفة ، فمن المرجح أن يكون هذا سببًا للحظر.

DDoS

عند التحدث عن الروبوتات الخبيثة ، لا يمكن تجاهل موضوع مثل الحماية من هجمات DDoS. حاليًا ، هذه المشكلة ذات صلة خاصة ببعض مجالات النشاط المحددة. وتشمل هذه مواقع المتاجر عبر الإنترنت ، والألعاب متعددة اللاعبين عبر الإنترنت ، والتبادلات ، ومنصات الاستثمار ، والموارد التجارية الأخرى. في بعض الأحيان ، يمكن استفزاز هجوم DDoS على أحد المواقع من قبل المنافسين العدوانيين الذين يسعون إلى تعطيل موردك. ومع ذلك ، يتعرض الموقع أحيانًا للهجوم من قِبل قراصنة برامج الفدية ، وأحيانًا يمكن مهاجمته لمجرد التسلية دون غرض شرير. مهما كان الأمر ، فإن أي مشروع جاد سيحتاج إلى الحماية من هذه الهجمات. يجب أن تعرف كيفية إيقاف حركة مرور الروبوتات على موقع الويب.

‍ عادةً ما يتم وصف هجمات DDoS في نموذج OSI المكون من سبع طبقات. المستوى الأول للشبكة مادي. والثاني هو القناة (يربط الشبكات على مستوى القناة من خلال مفاتيح) ؛ كلما كان ذلك أعلى ، كان أكثر تجريدًا. يمكن أن تكون هجمات DDoS منخفضة وعالية المستوى. تقع الهجمات ذات المستوى الأدنى في المستويات الثالثة والخامسة للشبكة: "انسداد" القناة بطلبات اتصال ping أو TCP (ما يسمى بطلبات SYN). من السهل التعامل معهم. ولكن كلما ارتفع مستوى الهجوم ، أصبح الدفاع أكثر تعقيدًا.

تعتبر الهجمات عالية المستوى من المستوى 7 الأعلى أكثر خطورة. يتم توجيههم إلى أصعب صفحات الموقع أو تنفيذ إجراءات معقدة عليها ، على سبيل المثال ، إعداد مرشح كتالوج لعرض أقصى اختيار للمنتجات. ينفذ المئات أو حتى الآلاف من الروبوتات الهجوم ، ويمكن أن يحدث رفض الخدمة من خادم الويب أو الواجهة الخلفية أو خادم قاعدة البيانات.

‍ للتعامل مع مثل هذه الهجمات ، نستخدم WAF (جدار حماية تطبيقات الويب) - وهو نظام خاص من الشاشات والمرشحات المصممة لاكتشاف هجمات الشبكة على تطبيق الويب وحظرها. ومع ذلك ، يعد هذا مستوى مرتفعًا نسبيًا من الهجوم ، ونحن نقوم بتمكين WAF فقط في الحالات الأكثر خطورة - كقاعدة عامة ، الحماية الأساسية كافية ، ويتم تمكينها افتراضيًا على جميع خوادمنا.

‍إذا كان موقعك مستضافًا على أجهزتك في غرفة الخادم ، فمن المحتمل أن تضطر إلى التعامل مع الهجوم بنفسك. يجب عليك توصيل عنوان IP إضافي أو خدمة متخصصة لحماية موقعك. في بعض الحالات ، قد يكون التبديل إلى VDS أو خادم مخصص خيارًا ممتازًا تتصل به هذه الخدمات بالفعل. في النهاية ، يمكن انتظار هجوم هائل! ولكن أفضل شيء هو إذا كان لديك مزود استضافة موثوق به يمكنك تفويض حماية الموقع له من DDoS.

خاتمة

غالبًا ما يواجه مالكو موارد الويب الخاصة بهم مشكلة تحليل البيانات والهجمات الضارة ، لكن تطوير أساليب الحماية لا يزال قائماً. للحماية من نسخ بيانات الموقع وسرقتها ، يمكنك الذهاب بعدة طرق ، على سبيل المثال ، تثبيت captcha على الصفحة ، أو إدخال فخ في الرمز ، أو تتبع الروبوتات وفقًا لبيانات وكيل المستخدم مع الحظر اللاحق. سيساعد الاهتمام الدقيق بالتحليلات وتثبيت أدوات الحماية ، حتى مع الحد الأدنى من العمل مع الكود ، في حل مشكلة التحليل والبريد العشوائي والتحميل على الموقع.

بناء الروابط الخلفية الخاصة بي