لماذا يجب على المسوقين التحقق من تصرفات العملاء: 5 حالات صغيرة

عندما يواجه رجل أعمال انخفاضًا حادًا في حركة البحث ولا يمكنه العثور على السبب بمفرده ، فإنه يتصل بوكالة تسويق عبر الإنترنت. في مثل هذه الحالات ، يبدأ مسوقو البحث في العمل باستخدام موقع تدقيق. هناك حاجة إلى فحص شامل لتحديد أسباب انخفاض الحضور وتخطيط طرق لحل المشكلات.

عند إجراء التدقيق ، يقوم مسوقو البحث بفحص الموقع بشكل متكرر بمساعدة العديد من الخدمات والأدوات للكشف عن المشكلات الفنية. هذه المشاكل غالبا ما تؤدي إلى انخفاض حاد في حركة المرور العضوية.

بعد الانتهاء من الاختبار ، يقدم المسوقون للعملاء تقريرًا عن الأخطاء التي تم العثور عليها وخطة للقضاء عليها. من الناحية النظرية ، من هذه النقطة تبدأ استعادة موقع الموقع. ومع ذلك ، إذا قام مالكو الموقع بتنفيذ خطة تصحيح الأخطاء بأنفسهم ، فقد يواجهون صعوبات إضافية. لا يؤدي التنفيذ غير الصحيح للخطة إلى تحقيق النتيجة المرجوة فحسب ، بل يؤدي أيضًا إلى تفاقم الموقف. تجدر الإشارة إلى أن مالكي الموقع قد لا يلاحظون أخطائهم ، متهمين وكالة التسويق عبر الإنترنت بعدم فعالية خطة التدقيق وتنمية الموارد.

لحل هذه المشكلة ، يجب على المسوقين مراقبة تصرفات مالكي الموقع. يمكن القيام بذلك بمساعدة خدمات وبرامج خاصة ، بالإضافة إلى الاختبار اليدوي للمورد. كيف يساعد هذا في تصحيح الأخطاء وتجنب الانتكاسات الخطيرة؟ قراءة أدناه.

كيف تساعد عمليات إعادة الفحص في العثور على المشكلات الفنية بسرعة: 5 أمثلة

تتيح عمليات الفحص المتكررة والفحوصات اليدوية العثور على المشكلات الفنية في الوقت المناسب وحلها. توضح الأمثلة التالية من ممارسة وكالة التسويق عبر الإنترنت G-Squared Interactive أهمية استخدام مبدأ "الثقة ولكن تحقق":

  1. التغطية وإعادة تحسين الروابط الداخلية

في وكالة تسويق الإنترنت الأمريكية ، تحولت G-Squared Interactive إلى مالك موقع كبير ، يبلغ عدد صفحاته عدة ملايين. أثناء التدقيق ، وجد خبراء الوكالة أن مشكلات موارد البحث مرتبطة بكمية زائدة وإعادة تحسين الروابط الداخلية. أوصى الخبراء بتبسيط التنقل وتقليل عدد الروابط.

بعد مرور بعض الوقت ، أخبر مالك الموقع مسوِّق البحث أن عدد الزيارات الطبيعية للموقع كان منخفضًا ، على الرغم من تنفيذ التوصيات. بعد زيارة الموقع ، رأى خبراء الشركة أن التنقل أصبح أسهل بالفعل ، وانخفض عدد الروابط. ومع ذلك ، لم تقم محركات البحث بزيادة موقع الموقع في المشكلة بعد إجراء التغييرات. لذلك ، قرر الخبراء مراجعة الموقع باستخدام أدوات لمشرفي المواقع Google.

كشفت المراجعة أن مالك الموقع أخفى التنقل المعقد وإعادة الروابط المحسنة من المستخدمين ، لكنه لم يزيلها من الموقع. الروابط تبقى مرئية لمحركات البحث.

تفرض محركات البحث عقوبات صارمة على الموارد التي تسمح بالإخفاء أو عرض البيانات المختلفة لروبوتات البحث والمستخدمين. في هذا المثال ، تجنب أصحاب المواقع العقوبات ، حيث اكتشف خبراء الوكالة في الوقت المناسب انتهاكًا لسياسة محركات البحث. تمت إزالة الروابط والملاحة المخفية في غضون ساعات قليلة ، وبعد ذلك تم استعادة موقع الموقع في المشكلة.

  1. التسويق التابعة لها

انتقل صاحب مصدر المعلومات ، الذي يحتوي على 1.5 مليون صفحة ، إلى الوكالة بسبب العقوبات التي تم تلقيها بعد تنفيذ خوارزمية Google Panda. حصل المالك على المال من خلال عرض الإعلانات والتسويق التابع (الشريك). انها مفتوحة لفهرسة الروابط التابعة تسبب عقوبة الباندا.

بعد الانتهاء من التدقيق ، اقترح خبراء الوكالة دمج الروابط التابعة للموقع في مجموعتين. في المجموعة الأولى ، تم اقتراح تضمين روابط لا تولد دخلاً. في المجموعة الثانية ، كان ينبغي أن يكون هناك روابط مهمة للمالك من وجهة نظر مالية. وفقًا لمسوقين البحث ، يجب إزالة جميع روابط المجموعة الأولى. تم اقتراح ارتباطات المجموعة الثانية لإغلاقها مع السمة nofollow. كما أوصت الوكالة بخطوات إضافية لتحسين جودة المورد.

بعد بضعة أسابيع ، قام مسوقو البحث بإعادة فحص الموقع. للوهلة الأولى ، جسد صاحب المورد بدقة توصيات الخبراء. قام بحذف الروابط التابعة القديمة وأغلق سمة nofollow الجديدة. ومع ذلك ، وجد الخبراء عدة صفحات تحتوي على العديد من الصفحات المفتوحة لفهرسة الروابط الخارجية.

أثناء المحادثة مع مالك المورد ، اتضح أنه قام بمجرد إنشاء ونشر كتالوج ارتباطات الشركاء. ثم نسي المالك بأمان هذه الروابط. بعد مناقشة إضافية ، حذف مالك المورد بعض الروابط من الكتالوج الخاص به ، وتم إغلاق الباقي باستخدام السمة nofollow. كان هذا كافيا لرفع العقوبات عن الباندا.

  1. الروبوتات العلامة الفوقية الازدواجية

قد يكون الاستخدام غير الصحيح لعلامة التعريف الخاصة بـ Robots كارثية لموقع SEO. وهذا ما يؤكده المثال التالي من ممارسة الوكالة المذكورة أعلاه. تم الاتصال بمسوقين محرك البحث بواسطة مالك متجر على الإنترنت لم يتمكن من فهرسة جميع صفحات الموقع بواسطة محركات البحث. أثناء التدقيق ، اكتشف الخبراء بسرعة أن برامج الزحف تتخطى تلك الصفحات من الموقع ، في علامة تعريف برامج الروبوت التي تم تعيين القيمة على noindex ، nofollow. أوصى الخبراء صاحب الموقع بفتح صفحات للفهرسة.

إذا كنت تريد أن تقوم محركات البحث بفهرسة الصفحات ، فيجب أن تحتوي علامة تعريف برامج الروبوت على مؤشر القيمة ، اتبع:. إذا كنت تريد إغلاق الصفحة من الفهرسة ، فاستخدم القيم noindex ، nofollow :.

ومع ذلك ، بعد الانتهاء من التوصيات ، لم تقم روبوتات البحث بفهرسة الصفحات. كشف التحقق اليدوي المتكرر لرمز HTML الخاص بالموقع عن ازدواجية في العلامات الوصفية لـ Robots. في هذه الحالة ، في علامة التعريف الأولى ، كان الفهرس مفتوحًا ، وفي الحالة الثانية ، تم إغلاقه.

كما تعلمون ، عند تكرار الأوامر ، فإن برامج البحث عن الروبوتات تختار أكثر القواعد تقييدًا. لذلك ، في هذه الحالة ، ظلت صفحات الموقع غير مفهرسة. عن طريق إزالة علامات التعريف المكررة لـ Robots ، حقق مالك الموقع بسرعة فهرسة الصفحة.

  1. رؤوس الصفحات المكررة

تعد إعادة التحسين أو الاستخدام غير الصحيح للرؤوس والبيانات التعريفية من بين أكثر الأسباب شيوعًا لتقليل موضع المواقع في المشكلة. يمكن ملاحظة ذلك على مثال موقع معلومات ، لم يستطع مالكه لفترة طويلة فهم أسباب انخفاض حركة البحث. علاوة على ذلك ، فشل مراجعو وكالات التسويق أيضًا في العثور على أخطاء من المرة الأولى.

في النهاية ، ساعد تحليل نتائج مسح الموقع باستخدام Screaming Frog في تحديد تكرار رؤوس الصفحات. نظرًا للعيوب الفنية ، كان لدى CMS في كل فئة من صفحات المستوى الثاني عنوانًا مشتركًا ، والذي يتزامن مع عنوان صفحة تصنيف المستوى الأول.

وبالتالي ، أصبحت مئات أو حتى آلاف الصفحات ذات العناوين المتشابهة السبب وراء تصنيفات الموقع المنخفضة. في هذه الحالة ، لم يؤدي هذا الخطأ إلى عقوبة. ومع ذلك ، لم تفكر محركات البحث في الصفحات ذات طلبات المستخدمين غير الفريدة المتعلقة بالعنوان.

أجرى مالك الموقع التغييرات اللازمة في نظام إدارة المحتوى ، وبعد ذلك حصلت كل صفحة من صفحات المستوى الثاني على لقب فريد. بعد ذلك ، تعافى المرور الطبيعي إلى الموقع.

  1. رابط الكنسي

يساعد استخدام عناوين URL المتعارف عليها في تجنب تكرار المحتوى. ومع ذلك ، يؤدي الاستخدام غير الصحيح لسمة rel = "canonical" أحيانًا إلى عواقب وخيمة على المواقع.

تحول صاحب المتجر عبر الإنترنت إلى وكالة تسويق مع شكوى تقليدية حول انخفاض عدد الزيارات. أثناء التدقيق ، حدد مسوِّق البحث استخدامًا غير متسق لعناوين URL المتعارف عليها. تحتوي بعض صفحات الموقع على سمة مقابلة ، وفي صفحات أخرى كانت مفقودة.

أوصى الخبراء بأن يضيف مالك المورد عناوين URL الأساسية إلى كل صفحة. لم تتسبب التغييرات في أي صعوبات: لقد أضاف المالك ببساطة سطرًا واحدًا إلى شفرة HTML للصفحات. ومع ذلك ، لم تسترد حركة المرور إلى الموقع.

كشفت إعادة التحقق من المورد عن خطأ: الروابط الموجودة في علامة عنوان URL المتعارف عليها تحتوي على أحرف كبيرة وأحرف صغيرة ، بينما تحتوي الروابط الأصلية على أحرف صغيرة فقط.

نتيجة لهذا الخطأ ، تم إدراج جميع الصفحات كعناوين URL أساسية تؤدي إلى صفحات غير موجودة. ليس من المستغرب أن يتلقى المتجر عبر الإنترنت أي حركة مرور عضوية. مالك الموقع حل المشكلة بسرعة عن طريق تصحيح الخطأ في الروابط.

ثق ولكن تحقق

الثقة هي شرط أساسي للتعاون الناجح بين المسوقين وأصحاب المواقع. ومع ذلك ، إذا كان العملاء يفضلون تنفيذ خطط تطوير الموقع بأنفسهم ، فيجب على خبراء ترويج محرك البحث مراقبة تصرفاتهم. يعد ذلك ضروريًا على الأقل لتجنب اتهامات المراجعة السيئة الجودة واقتراح خطوات غير فعالة لتحسين الموقع.

يمكن للمسوقين التحقق من المواقع باستخدام الخدمات والبرامج. على سبيل المثال ، يمكنهم استخدام الأدوات لمشرفي المواقع من Google و Yandex و Google Analytics و Yandex.Metrica و Netpeak Spider و Screaming Frog وغيرها من الأدوات. أيضًا ، يحتاج المتخصصون إلى تقييم التغييرات التي تم إجراؤها يدويًا ، والتحقق من رمز الصفحة ونتائج المشكلة بشكل انتقائي.

هل تعتقد أن أصحاب المواقع يمكنهم العمل بشكل مستقل مع المواقع بناءً على توصية من المسوقين؟ يجب المسوقين في هذه الحالة للسيطرة على العملاء؟

شاهد الفيديو: Aweber Email Marketing Tutorial (ديسمبر 2019).

Loading...

ترك تعليقك