اذهب إلى المحتوى
  • 0

كيف أمنع بعض المستخدمين من نسخ محتوى الموقع الخاص بي؟

سعاد

السؤال

لي موقع بسيط أنشر فيه بين الفينة والأخرى بعض المواضيع، ومؤخراً  علمتُ من SEO أن هناك عمليات نسخ تتم عبر موقعي، مما يعني أن هناك من ينسخ محتوى موقعي مع بعض التغيير في مواقع أخرى، كيف أمنعهم من فعل ذلك؟ وهل سيؤثر ذلك على SEO الخاص بموقعي؟

رابط هذا التعليق
شارك على الشبكات الإجتماعية

Recommended Posts

  • 2

من الصعب منع البعض من نسخ محتوى موقعك، فمن البرامج البسيطة التي تسمح للمستخدم بنسخ كامل الموقع برنامج Httrack حيث يكفي إعطاء رابط الموقع فيقوم البرنامج بنسخ جميع الملفات الموجودة في الموقع، أما بخصوص SEO فذلك لا يؤثر، موقعك سليم فقط المشكلة في المحتوى المنسوخ، وهذا مع الأسف مشكل يعاني منه الكثير.

تم التعديل في بواسطة E.Nourddine
رابط هذا التعليق
شارك على الشبكات الإجتماعية

  • 2

لا يمكن ردع اي شخص في العالم من نسخ محتوى مواقع الويب. ولكن هل يوجد حلول ؟

منطقيا : لا. والسبب أن المحتوى تم عرضه وقابل للقراءة من أي طرف.

عمليا : يمكن ولكن غير مجد. إذا كانت محتوياتك تخضع لحقوق الطبع والنشر فإنه يمكنك رفع دعاوي قضائية على المواقع الناشرة لمحتويات الويب الخاص بك، ولهذا السبب هذا الحل غير مجد بتاتا بسبب التكاليف التي ستدفعها والوقت التي ستضيعه لأجل هذه المشكلة، والتي خسائرها أكثر من أرباحك.

الحل الراهن وهو الذكاء في عرض المحتوى! قد يقول البعض كيف ؟

سأقدم لك حلا شخصي، رغم أنني لحدود الآن لا أملك موقعا رسميا خاص بي إلا أنني يمكنني أن أفيدك ولو نظريا في الأمر، ولكن يتوجد عليك أن تكون مبرمجا أو أن تعين مبرمجا من أهل الثقة للعمل على هذا الحل.

كل ما ستحتاج إليه هو : 

إضافة قادرة على تشفير النصوص والمحتويات التي تريد أن تنشرها بواسطة كلمات خاصة والتي يمكن تغيرها دوريا.

تشفير محتوياتك في ملفات ذات صيغة خاصة وذات مسميات مشفرة أيضا مرتبطة بقواعد بيانات، حتى لا تتمكن أي آلة من قراءتها بما في ذلك محركات البحث.

تطوير برنامج للخادم قادر على إستنباط كل الكلمات المتواجدة بالمحتوى (لا يقرأ المحتوى) ووضعها داخل صفحة الموضوع، ويمكن تخطي هذا بإنشاء برناامج تحرير خاص يعمل على إنشاء المحتوى وتشفيره وإستنباط الكلمات في الآن نفسه ولكن هنا معدل الخطر يزداد، وأيضا بإستعمالك لهذه التقنية فإنك ستضمن ربط محركات البحث بموضوعك ومحتواك دون أي مخاطر وأيضا حتى الآليات الأخرى لن تستفيد من الكلمات لأنها لن تكون ذات معنى معبر. وبالتالي نقل الموضوع سيكون بلا فائدة.

إنشاء برنامج جافاسكريبت قادر على إعادة تشكيل صفحة الويب بعد حصوله على كل المعلومات من المستخدم والخادم في نفس الوقت،

حفظ بعض البيانات على متصفحات المستخدمين لإثبات أنهم ليسو ربوتات وتجهيز الصفحة بمكتشف الربوت كالذي تصممه غوغل من أجل ضمان وتقليل عمليات النسخ لمحتواياتك.

بهذه الطريقة سيتبقى لذى الناسخون طريقة واحدة فقط للعمل بها وهي الطريقة التقليدية بنقل المحتوي يدويا وإعادة نشره يدويا.

هذا الحل يبقى نظريا آمنا من أي تدخل للآلة فيه. وبالتالي التقليل من عدد الناسخين لمحتواك، إلا أنه يتوجب عليك تقوية الربط مع متصفحات الويب، وذلك لأن العيب الوحيد لهذه التقنية هي منع أي آلة كيف ما كانت من قراءة محتواك حتى ولو كانت محركات البحث. وبالتالي فرص ظهور نتائج بحثك ستكون دوما أقل من المحتوى المنسوخ يدويا.

 

رابط هذا التعليق
شارك على الشبكات الإجتماعية

انضم إلى النقاش

يمكنك أن تنشر الآن وتسجل لاحقًا. إذا كان لديك حساب، فسجل الدخول الآن لتنشر باسم حسابك.

زائر
أجب على هذا السؤال...

×   لقد أضفت محتوى بخط أو تنسيق مختلف.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   جرى استعادة المحتوى السابق..   امسح المحرر

×   You cannot paste images directly. Upload or insert images from URL.

  • إعلانات

  • تابعنا على



×
×
  • أضف...