तांत्रिक एसइओ. पृष्ठे अनुक्रमित करण्यापासून कसे अवरोधित करावे. तांत्रिक ऑप्टिमायझेशन

चेरचर 30.04.2019
संगणकावर व्हायबर

संगणकावर व्हायबरफक्त एक हस्तक्षेप करू शकतो त्रासदायक चूकव्ही तांत्रिक ऑप्टिमायझेशनसाइट, परंतु यामुळे पीएस रोबोट्स संसाधनाची योग्यरित्या अनुक्रमित करण्यात सक्षम होणार नाहीत, साइटची रचना समजू शकणार नाहीत आणि वापरकर्त्यांना त्यांना आवश्यक असलेली माहिती सापडणार नाही. हे सर्व, यामधून, साइटच्या निम्न रँकिंगकडे नेईल.

वेबसाइटचे तांत्रिक ऑप्टिमायझेशन हे दुरुस्त करण्याच्या उद्देशाने उपायांचा एक संच आहे तांत्रिक पैलूशोध इंजिन रोबोट्ससह त्याचा परस्परसंवाद सुधारण्यासाठी संसाधन. तांत्रिक ऑप्टिमायझेशन आपल्याला वेबसाइट पृष्ठांचे सर्वात जलद आणि सर्वात पूर्ण अनुक्रमणिका सुनिश्चित करण्यास अनुमती देते.

5 मुख्य तांत्रिक ऑप्टिमायझेशन पॅरामीटर्स

1. Robots.txt फाइल

हे लक्षात घेणे महत्त्वाचे आहे की robots.txt फाइल प्रत्येक संसाधनाच्या मूळ निर्देशिकेमध्ये असणे आवश्यक आहे. ही पहिली फाइल आहे जी पीएस रोबोट जेव्हा साइटला भेट देतात तेव्हा ते ऍक्सेस करतात आणि ज्यामध्ये त्यांच्यासाठी सूचना संग्रहित केल्या जातात.

ही फाइल साइटचे इंडेक्सिंग पॅरामीटर्स निर्दिष्ट करते: कोणत्या पृष्ठांमध्ये समाविष्ट केले जावे डेटाबेस शोधा, आणि कोणते वगळणे आवश्यक आहे. याव्यतिरिक्त, ते एकाच वेळी सर्व शोध इंजिन रोबोटसाठी आणि प्रत्येक शोध इंजिनच्या रोबोटसाठी स्वतंत्रपणे निर्देश निर्दिष्ट करू शकते. संकलन बद्दल या फाइलचेआणि त्याचे कॉन्फिगरेशन Yandex वेबमास्टर सहाय्य वेबसाइटवर अधिक तपशीलवार शोधले जाऊ शकते.

आपण Yandex.Webmaster सेवेमध्ये फाइल तपासू शकता, मेनू आयटम “robots.txt चे विश्लेषण” (https://webmaster.yandex.ru/robots.xml).

2. साइटमॅप - साइट नकाशा

साइट नकाशा संसाधन पृष्ठांपैकी एक आहे, ज्यावरील माहिती नियमित पुस्तकाच्या सामग्रीसारखीच असते. हे पृष्ठ नेव्हिगेशन घटक म्हणून वापरले जाते. साइट नकाशामध्ये समाविष्ट आहे पूर्ण यादीविभाग आणि/किंवा संसाधनावर पोस्ट केलेली सर्व पृष्ठे.

वापरकर्त्यांना जलद आणि HTML साइटमॅप आवश्यक आहे सोयीस्कर शोधमाहिती, आणि XML - साइट इंडेक्सिंग सुधारण्यासाठी शोध इंजिनांसाठी.

साइट नकाशाच्या मदतीने, शोध रोबोट संपूर्ण रचना पाहतात आणि नवीन पृष्ठे जलद अनुक्रमित करतात.

साइट नकाशा तपासत आहे(https://webmaster.yandex.ru/sitemaptest.xml)

.html फॉरमॅटमधील योग्य साइटमॅपचे उदाहरण:

3. पुनर्निर्देशन (पुनर्निर्देशन)

वेबसाइट अभ्यागतांना एका पृष्ठावरून दुसऱ्या पृष्ठावर पुनर्निर्देशित करण्यासाठी पुनर्निर्देशन वापरले जाते. पुनर्निर्देशने का आवश्यक आहेत याची बरीच उदाहरणे आहेत:

  1. साइटचे डोमेन नाव बदलणे.
  2. प्लायवुड मिरर. बऱ्याच साइट्समध्ये 301 रीडायरेक्ट डोमेनवरून कॉन्फिगर केलेले नसते ज्यात www नसलेल्या डोमेनच्या पत्त्यामध्ये www आहे किंवा त्याउलट.

.htaccess फाइलमध्ये पुनर्निर्देशने प्रविष्ट करणे आवश्यक आहे. शोध इंजिने site.ru आणि www.site.ru या वेगवेगळ्या साइट्स मानू शकतात, परिणामांमध्ये डुप्लिकेट दिसू शकतात. यामुळे शोध परिणाम इत्यादींमध्ये रँकिंगमध्ये अडचणी निर्माण होतील.

मुख्य पुनर्निर्देशित स्थिती कोड:

  • 300 - एकाधिक निवडी (निवडण्यासाठी अनेक पर्याय);
  • 301 - कायमचे हलविले (कायमचे हलविले);
  • 302 - तात्पुरते पुनर्निर्देशन;
  • 303 - इतर पहा (विनंती केलेले संसाधन दुसर्या पत्त्यावर आढळू शकते);
  • 304 - सुधारित नाही (सामग्री बदलली गेली नाही - ही चित्रे, शैली पत्रके इ. असू शकतात);
  • 305 - प्रॉक्सी वापरा (प्रवेश प्रॉक्सीद्वारे असणे आवश्यक आहे);
  • 306 - न वापरलेले (वापरात नाही).

पृष्ठ प्रतिसाद निश्चित करण्यासाठी उपयुक्त सेवा: http://www.bertal.ru/

4. URL पृष्ठ दृश्ये सानुकूलित करणे

साइटच्या सर्व पृष्ठांचे पत्ते सुसंगत आहेत याची खात्री करण्यासाठी साइट तपासणे महत्वाचे आहे. उदाहरणार्थ, संपूर्ण साइटवर, पृष्ठांवर क्लोजिंग स्लॅश असणे आवश्यक आहे: http://site.ru/katalog/ आणि http://site.ru/products/. काही पृष्ठे http://site.ru/katalog सारखी दिसत असल्यास आणि काही http://site.ru/products/ सारखी दिसत असल्यास, हे चुकीचे आहे.

पत्ते तपासा अंतर्गत पृष्ठेसाइट नकाशा तयार केल्यानंतर त्रुटींसाठी स्त्रोत सोयीस्कर होईल.

5. साइट त्रुटी

जेव्हा साइटवरील कोणतेही पृष्ठ लोड केले जाते, तेव्हा सर्व्हरला विनंती पाठविली जाते, जी कोडसह प्रतिसाद देते HTTP स्थितीआणि पृष्ठ लोड करते (किंवा लोड होत नाही).

मूलभूत स्थिती कोड:

  • 200 - पृष्ठ ठीक आहे;
  • 404 - अस्तित्वात नसलेले पृष्ठ;
  • 503 - सर्व्हर तात्पुरता अनुपलब्ध आहे.

"404 त्रुटी" ही सर्वात महत्वाची आहे तांत्रिक मापदंडऑप्टिमायझेशन, जे निश्चितपणे सुधारणे आवश्यक आहे.

जर पृष्ठ अस्तित्वात असेल आणि सर्व्हरने विनंती करताना 404 त्रुटीबद्दल माहिती दिली, तर पृष्ठ शोध इंजिनद्वारे अनुक्रमित केले जाणार नाही. अन्यथा, निर्देशांक मिळू शकतो मोठ्या संख्येनेसमान मजकूर असलेली पृष्ठे, ज्याचा क्रमवारीवर अत्यंत नकारात्मक प्रभाव पडतो.

तुम्ही http://www.bertal.ru/ किंवा Yandex.Webmaster वापरून स्टेटस कोड तपासू शकता.

आम्ही साइटच्या तांत्रिक सुधारणेच्या केवळ मुख्य पॅरामीटर्सचा विचार केला आहे, ज्याकडे आपण प्रथम लक्ष देणे आवश्यक आहे. तुम्हाला तुमच्या वेबसाइटवर अशा त्रुटी आढळल्यास किंवा त्या दूर करण्यात अडचण येत असल्यास, केवळ व्यावसायिक एसइओ कंपनीशी संपर्क साधा.

तांत्रिक ऑप्टिमायझेशनचे मुख्य कार्य म्हणजे साइटच्या सर्व पृष्ठांची जास्तीत जास्त अनुक्रमणिका सुनिश्चित करणे. हे पूर्ण न केल्यास, TOP वर बढती देण्यासाठी इतर उपाय व्यर्थ ठरू शकतात.

अर्थात, तांत्रिक ऑप्टिमायझेशन व्यावसायिकांनी केले पाहिजे - वेबसाइट विकसक. ज्यांना HTML कोडमध्ये पारंगत नाही त्यांनी काहीही बदलण्याचा प्रयत्न करू नये - यामुळे फक्त नुकसान होऊ शकते.

सर्वकाही योग्यरित्या केले असल्यास, साइट विलंब, त्रुटी किंवा अपयशांशिवाय लोड होते, तुटलेली दुवे किंवा प्रतिमा नसतात आणि त्वरीत अनुक्रमित केली जाते. हा परिणाम साध्य करण्यासाठी, आपल्याला अनेक घटक विचारात घेणे आवश्यक आहे.

साइट लोडिंग वेळ

वेबसाइट लोड होण्यासाठी लागणारा कालावधी पूर्ण भारविनंती प्राप्त झाल्यापासून त्याचे सर्व घटक. यात समाविष्ट आहे:

  • सर्व्हर प्रतिसाद वेळ;
  • सर्व्हरने पाठवलेल्या पहिल्या बाइटला संगणकावर येण्यासाठी लागणारा वेळ – TTFB (टाईम टू फर्स्ट बाइट);
  • वेळ HTML प्रक्रियाआणि सामग्री डाउनलोड करणे;
  • प्रस्तुतीकरण सुरू होण्यापूर्वीचा वेळ - पृष्ठ दृश्यमान होईल तो क्षण.

या प्रक्रियेची गती कोडच्या शुद्धतेवर, फायलींचे "वजन", लेआउटची शुद्धता आणि योग्यतेवर अवलंबून असते. CSS ऑप्टिमायझेशनआणि जे.सी.

Google उघडपणे कबूल करते की साइट लोड वेळ हा एक रँकिंग घटक आहे. MOZ कंपनीने या विषयावर एक अभ्यास केला, ज्याने मनोरंजक परिणाम दिले:

यांडेक्स, जरी ते अधिकृत विधाने करत नसले तरी, वेबमास्टरच्या प्रमाणपत्रात ते सूचित करते "वेबसाइटसाठी होस्टिंग निवडताना, तुम्ही ॲक्सेस स्पीड आणि अयशस्वी दरम्यानचा वेळ लक्षात घेतला पाहिजे", आणि सल्ला देते "प्रदान करणारी होस्टिंग वापरा सर्वोत्तम गतीसाइटवर प्रवेश आणि किमान वेळ, ज्या दरम्यान तांत्रिक समस्यांमुळे साइट अनुपलब्ध असू शकते."

तुम्ही पेजस्पीड इनसाइट्स सेवा वापरून तुमची लोडिंग गती तपासू शकता.

तसेच, आपण हे विसरू नये वर्तणूक घटक. पृष्ठ लोडिंग गती कमी असल्यास, याचा ब्राउझिंग खोली आणि बाउंस रेटवर महत्त्वपूर्ण आणि नकारात्मक प्रभाव पडतो. डाउनलोड संपण्याची वाट न पाहता वापरकर्ता संयम गमावू शकतो आणि फक्त प्रतिस्पर्ध्यांकडे जाऊ शकतो. शिवाय, पेक्षा जास्त विलंब, त्या कमी पृष्ठेएका सत्रात पाहिले.

सर्व्हर प्रतिसाद

तुम्ही योग्य Yandex.Webmaster टूलसह सर्व्हरचा प्रतिसाद तपासू शकता. मुख्य सेवा प्रतिसादांची यादी Yandex.Webmaster च्या "मदत" विभागात आढळू शकते.

वेब पृष्ठे तपासताना, 200 ओके ("चांगले") च्या सर्व्हर प्रतिसादाद्वारे मार्गदर्शन करा. याचा अर्थ असा आहे की पृष्ठासह सर्व काही ठीक आहे - अनुक्रमित करण्यापासून काहीही प्रतिबंधित नाही आणि कोणतेही पुनर्निर्देशन नाहीत.

इतर सामान्य सर्व्हर प्रतिसाद:

  • 301 कायमस्वरूपी हलवले ("कायमचे हलवले") - कायमचे पुनर्निर्देशन कॉन्फिगर केले आहे. याचा अर्थ पान हलवले आहे नवीन पत्ताकायमचे, आणि लिंक दुसऱ्या पृष्ठावर पुनर्निर्देशित करते. वापरकर्ते त्यांना पाहू शकत नाहीत, म्हणून शोध रोबोट त्यांना अनुक्रमित करत नाही, परंतु ज्या पृष्ठावर पुनर्निर्देशन स्थापित केले आहे ते अनुक्रमित करते.

    अशा प्रकरणांमध्ये वापरले जाते जेथे व्यापलेले जतन करणे महत्वाचे आहे जुनी URLमध्ये ठेवा शोध परिणाम, रहदारी आणि दुवा रस. तथापि, पुनर्निर्देशनांचा गैरवापर न करण्याचा प्रयत्न करा. शोध परिणामांमध्ये साइटची स्थिती कमी होऊ शकते: 301 रीडायरेक्ट लिंक ज्यूस 90% पेक्षा जास्त नाही आणि लोडिंग गती वाढवते. सर्व अंतर्गत दुवे नवीनसह पुनर्स्थित करा आणि पुनर्निर्देशनाची संख्या कमी करा.

  • 302 तात्पुरते हलविले - तात्पुरते पुनर्निर्देशन. विनंती केलेले संसाधन तात्पुरते वेगळ्या पत्त्याखाली स्थित आहे आणि जुन्या पत्त्यावरील पृष्ठ लवकरच वापरकर्त्यांसाठी उपलब्ध होईल असे सूचित केले आहे. 301 रीडायरेक्टच्या विपरीत, 302 पुनर्निर्देशन नवीन पृष्ठ पत्त्यावर दुव्याचा रस हस्तांतरित करत नाही.

    बाबतीत 302 पुनर्निर्देशन वापरणे योग्य आहे तांत्रिक कामसाइटवर, अभ्यागतांना कोणतीही सामग्री (जे वारंवार बदलू शकते) तात्पुरते प्रदर्शित करण्यासाठी, त्यात बदल न करता जुने पान– उदाहरणार्थ, ऑनलाइन स्टोअरच्या जाहिराती.

  • 404 सापडले नाही(“सापडले नाही”) – पृष्ठ अस्तित्वात नाही. अशा पृष्ठाचे मुख्य कार्य म्हणजे तुटलेल्या दुव्यांद्वारे रहदारी प्राप्त करणे. शोध रोबोट त्याचे अनुसरण केल्यास ते सामान्यपणे हाताळतो बाह्य दुवा, परंतु अंतर्गत बाजूने फिरताना ते नकारात्मक प्रतिक्रिया कारणीभूत ठरते.

    अयशस्वी होण्याचे प्रमाण कमी करण्यासाठी, ते ऑप्टिमाइझ करणे महत्वाचे आहे. डिझाइन साइटच्या एकूण शैलीशी संबंधित असणे आवश्यक आहे आणि वापरकर्त्यास समस्येचे निराकरण करण्यासाठी पर्याय देखील प्रदान करणे आवश्यक आहे. या पृष्ठावरील मुख्य दुवे सूचित करा आणि साइट शोध फॉर्म ठेवा.

  • 503 सेवा अनुपलब्ध(“सेवा अनुपलब्ध”) – सर्व्हर तात्पुरता अनुपलब्ध आहे आणि तांत्रिक कारणांमुळे (ओव्हरलोड, देखभाल, इ.) विनंतीवर प्रक्रिया करू शकत नाही.

सर्व गैर-मुख्य वेबसाइट मिररमधून मुख्य वेबसाइटवर 301 पुनर्निर्देशन स्थापित करणे

मुख्य गोष्ट ठरवा डोमेन नावआणि शोध इंजिनसाठी .htaccess फाइलमध्ये सूचित करा जेणेकरून तीच साइट डुप्लिकेट म्हणून समजली जाणार नाही. यामध्ये “vkontakte.ru” आणि “vk.com” सारखे मिरर एकत्र चिकटविणे, तसेच “www” आणि “www” शिवाय मिरर समाविष्ट आहेत.

डुप्लिकेट आणि क्लोन

इंटरनेटवर तुमच्या साइटचे क्लोन असल्यास, याचा प्रमोशनवर वाईट परिणाम होतो - शोध इंजिने त्यांचे स्वतःचे फिल्टर लादण्याची शक्यता असते. डुप्लिकेट पृष्ठे अनुक्रमणिकेपासून बंद करणे आवश्यक आहे किंवा अजून चांगले, पूर्णपणे हटविले पाहिजे.

साइट संरचना आणि पृष्ठ नेस्टिंग पातळी

खोल संरचनेऐवजी विस्तृत रचना वापरा. पृष्ठ मुख्य पृष्ठाच्या जितके जवळ असेल तितके चांगले ते अनुक्रमित आणि प्रचारित केले जाईल.

पृष्ठ पत्ते

सर्वोत्तम पृष्ठ पत्ता मानवी-वाचनीय URL आहे - CNC. वापरकर्त्यासाठी हे लक्षात ठेवणे सोपे आहे आणि साइटवरील स्थान नेव्हिगेट करण्यास देखील मदत करते. एका संसाधनामध्ये, CNC संकलित करण्यासाठी एक पर्याय वापरला जावा - एकतर भाषांतर किंवा लिप्यंतरण.

Robots.txt फाइल

या फाईलमध्ये अनुक्रमणिकेसाठी अनुमत आणि प्रतिबंधित पृष्ठांची सूची आहे. साइट अनुक्रमित करणे कठीण होऊ शकते कारण शोध रोबोट अनुक्रमणिकेवर बंदी येताच पृष्ठ सोडतो. साइटचा प्रशासकीय भाग, यासह पृष्ठे वैयक्तिक माहितीवापरकर्ते, साइट शोध, ऑर्डर आणि शॉपिंग कार्ट.

robots.txt सेट अप करण्यामध्ये sitemap.xtml फाइल तयार करणे आणि निर्दिष्ट करणे देखील समाविष्ट आहे, जे शोध रोबोटला साइटची रचना अधिक चांगल्या प्रकारे समजून घेण्यास आणि शक्य तितक्या लवकर पृष्ठे अनुक्रमित करण्यात मदत करेल.

शीर्षक, वर्णन आणि शीर्षके

शीर्षक, वर्णन आणि शीर्षके देखील तांत्रिक ऑप्टिमायझेशनवर अंशतः प्रभाव पाडतात. डुप्लिकेट मेटा टॅग आणि शीर्षक असलेली कोणतीही पृष्ठे नसावीत.

कीवर्ड असलेले h1 शीर्षक पृष्ठावर एकापेक्षा जास्त वेळा दिसू शकत नाही. श्रेणीकरणानंतर प्रत्येक पृष्ठावर अनेक h2-h6 शीर्षलेख असू शकतात: h2 टॅग h1 नंतर येतो, h3-h6 h2 नंतर येतो. यांडेक्सने h2 बनवल्यामुळे जाहिरातीसाठी h2 हेडर कमी महत्त्वाचे नाही अतिरिक्त शीर्षलेखस्निपेट्ससाठी, त्याचा प्रचार करण्यासाठी वापर केला जाऊ शकतो कमी वारंवारता क्वेरी. वेबसाइट डिझाइन घटक (संपर्क, टेलिफोन, जाहिराती, बातम्या) म्हणून मथळे वापरू नयेत.

तांत्रिक ऑप्टिमायझेशनमध्ये प्रत्येक चूक केली प्रारंभिक टप्पे, नंतर नक्कीच येईल. जे आता क्षुल्लक दिसत आहे ते भविष्यात काही समस्या निर्माण करेल आणि शोध परिणामांच्या शीर्षस्थानी तुमची प्रगती रोखेल. अशा क्षुल्लक गोष्टींमुळे ग्राहक गमावणे ही लाजिरवाणी गोष्ट आहे, त्यामुळे ऑप्टिमायझेशन ही एक प्रक्रिया आहे ज्याकडे सर्वात जवळचे लक्ष आवश्यक आहे.

वेबसाइटची जाहिरात तांत्रिक ऑप्टिमायझेशनसह सुरू होते. नियमानुसार, ही प्रक्रिया एकदाच केली जाते, ज्यामुळे भविष्यात फक्त किरकोळ समायोजन केले जाऊ शकतात.

संसाधनाच्या ऑपरेशनमधील कोणतीही कमतरता याद्वारे ओळखली जाते तांत्रिक ऑडिट. जर पृष्ठे हळू लोड होत असतील तर, शोध रोबोट्सद्वारे साइट खराबपणे अनुक्रमित केली गेली आहे आणि दुवे उघडताना त्रुटी दिसून आल्यास, साइटला तांत्रिकदृष्ट्या ऑप्टिमाइझ करण्याची वेळ आली आहे.

वेबसाइटचे तांत्रिक ऑप्टिमायझेशन सर्वात पूर्ण आणि सुनिश्चित करण्याच्या उद्देशाने क्रियांचा एक संच आहे जलद अनुक्रमणिकापृष्ठे, शोध इंजिनसह परस्परसंवाद सुधारणे, प्रभावी वेबसाइट जाहिरात. हे एक गंभीर काम आहे, जे एकत्रितपणे उच्च-गुणवत्तेच्या आणि दीर्घकालीन एसइओ कंपनीसाठी आधार आहे.

तांत्रिक वेबसाइट ऑप्टिमायझेशनचे काम अनेक टप्प्यात विभागलेले आहे.

कोड लेआउट आणि ऑप्टिमायझेशन

स्थिर आणि स्वयंचलित ऑपरेशनसंसाधने अभ्यागतांना आकर्षित करतात जे केवळ मध्येच नाही तर पृष्ठे उघडतात भिन्न ब्राउझर, परंतु विविध उपकरणांद्वारे देखील. साइट कोणत्याही रिझोल्यूशनच्या स्क्रीनवर तसेच मोबाइल डिव्हाइसवर योग्यरित्या प्रदर्शित करणे आवश्यक आहे.

कोडमध्ये जितका अधिक "कचरा" असेल तितकी पृष्ठे लोड होण्यास जास्त वेळ लागतो आणि याचा परिणाम होतो वर्तणूक घटकवापरकर्ते.

पुनर्निर्देशन सेट करत आहे

.htaccess फाइल वापरून पुनर्निर्देशन (पुनर्निर्देशन) तयार केले जातात. शोध इंजिन www सह किंवा त्याशिवाय पत्ता पूर्णपणे भिन्न मानू शकतात. भिन्न डोमेन. साइटचा पत्ता वेगळ्या पद्धतीने टाइप करणाऱ्या वापरकर्त्यांनी संसाधनावर जाण्यासाठी, योग्य पुनर्निर्देशनाची नोंदणी करणे आवश्यक आहे.

404 त्रुटी सेट करत आहे

अस्तित्त्वात नसलेली पृष्ठे दिसणे अनेक वापरकर्त्यांना घाबरवू शकते आणि दुव्यांमधील त्रुटींच्या उपस्थितीमुळे साइट अनुक्रमणिका कमी होते. म्हणून, संसाधनाचा प्रचार करण्यापूर्वी, 404 त्रुटींचे योग्य हाताळणी कॉन्फिगर करणे महत्वाचे आहे.

Robots.txt फाइल

पृष्ठांच्या प्रतींची उपस्थिती (डुप्लिकेट) - बाह्य आणि अंतर्गत दोन्ही - शोध इंजिनद्वारे प्रतिबंध लागू करू शकतात. साइटचे घटक घटक समायोजित करून, संपूर्ण संसाधनाचे ऑपरेशन सुधारले जाते, अनावश्यक "कचरा" आणि न वापरलेले स्टेटस कोड काढले जातात.

निर्देश robots.txt फाइलमध्ये लिहिलेले आहेत शोध इंजिन, साइटचे कोणते विभाग आणि पृष्ठे अनुक्रमित केली जाऊ शकतात आणि कोणती करू शकत नाहीत हे दर्शविते. नियमानुसार, या फाईलमधील सर्व डुप्लिकेट पृष्ठे अनुक्रमित करण्यापासून बंद आहेत.

पृष्ठ URL सेट करत आहे

साइटवरील सर्व पृष्ठ पत्त्यांची रचना समान असणे महत्वाचे आहे.

बऱ्याचदा, वेबसाइट पृष्ठ पत्त्यांमध्ये हे समाविष्ट असते: लोअरकेस अक्षरे, आणि कॅपिटल अक्षरे. या प्रकरणात, जेव्हा वापरकर्ता पृष्ठ शोधतो तेव्हा त्रुटी निर्माण होऊ शकतात. ही परिस्थिती टाळण्यासाठी, पत्त्यांमध्ये फक्त लोअरकेस अक्षरे वापरणे चांगले.

तसेच विशेष महत्त्व आहे योग्य सेटिंगजुन्या लिंक्सवरून नवीन लिंकवर पुनर्निर्देशित करते.

इतर तांत्रिक सुधारणा

तांत्रिक ऑप्टिमायझेशन चेकलिस्ट बरीच मोठी आहे. प्रत्येक वैयक्तिक परिस्थितीत, विविध उणीवा आणि समस्या उद्भवू शकतात ज्यासाठी वैयक्तिक समाधान आवश्यक आहे (उदाहरणार्थ, रचना बदलणे किंवा डिझाइन समायोजित करणे).

सुधारणांकडे दुर्लक्ष केल्याने अनेक साइट्सना शोधांमध्ये सर्वोच्च स्थान प्राप्त होण्यापासून रोखले जाते, म्हणजेच ते पुढील सर्व शोध प्रोत्साहन प्रयत्नांना नकार देते. वेबसाइटचे अचूक आणि संपूर्ण तांत्रिक ऑप्टिमायझेशन ही शोध इंजिनमध्ये यशस्वी जाहिरातीची गुरुकिल्ली आहे.

अंतर्गत सुधारण्यासाठी तांत्रिक निर्देशकसंसाधन, तांत्रिक ऑप्टिमायझेशन लागू केले आहे. तांत्रिक घटक साइटचा प्रोग्राम कोड आहे आणि तो आहे कार्यात्मक घटकसाइटची कार्यक्षमता, संभाव्यता आणि सुरक्षिततेशी संबंधित.

तांत्रिक ऑप्टिमायझेशनच्या भूमिकेवर

महत्व हा टप्पाकामाचा अतिरेक करणे कठीण आहे. कोणत्याही वेबसाइटचा समावेश होतो प्रोग्राम कोड, जे इतर प्रोग्रामशी संवाद साधते - ब्राउझर, शोध इंजिन, अंगभूत मॉड्यूल, सॉफ्टवेअरसर्व्हर यापैकी एका दुव्यातील त्रुटी अनिवार्यपणे इतर गंभीर समस्यांना कारणीभूत ठरते.

जर तांत्रिक बाजूत्रुटी आहेत, साइट वापरकर्त्याच्या विनंत्यांना प्रतिसाद देत नाही किंवा लोड होण्यासाठी खूप वेळ घेते, ब्राउझरद्वारे प्रदर्शित केले जात नाही, अभ्यागतांना काहीही दिसणार नाही अद्वितीय डिझाइन, चांगली उपयोगिता किंवा नाही दर्जेदार मजकूर, कोणतेही उत्पादन कार्ड नाहीत. जेव्हा रोबोट पृष्ठांवर प्रवेश करू शकणार नाहीत तेव्हा शोध इंजिनमध्ये समान समस्या दिसून येतील.

कोणतीही समस्या दिसली नसतानाही तांत्रिक साइट ऑप्टिमायझेशन आवश्यक आहे. या प्रकरणात, ऑप्टिमायझेशन साइटची गुणवत्ता सुधारेल, त्याच्या ऑपरेशनला गती देईल आणि डुप्लिकेट पृष्ठे आणि तुटलेली दुवे दूर करेल.

तांत्रिक ऑप्टिमायझेशन

तुमचा लोडिंग स्पीड तपासण्यासाठी, Google कडून PageSpeed ​​Insights नावाचे सार्वजनिकरित्या उपलब्ध साधन वापरणे चांगले. हीच सेवा तुम्हाला पुढील तांत्रिक ऑप्टिमायझेशन कोणत्या दिशेने पार पाडायचे, कोणते पॅरामीटर्स सुधारायचे आणि कोणत्या समस्या दूर करायच्या हे सांगतील.

येथे वेबसाइट वेगवान करण्यासाठी सर्व टिपांचे वर्णन करणे अशक्य आहे, परंतु त्यापैकी सामान्य शिफारसीनोंद:

गुणवत्तेची हानी न करता प्रतिमांचे ऑप्टिमायझेशन (संक्षेप);

सर्व एक्झिक्युटेबल स्क्रिप्ट्सच्या लोडिंग सूचीच्या शेवटी हलवत आहे (JavaScript, CSS);

एकल फायलींमध्ये घटक एकत्र करणे (स्क्रिप्ट - स्क्रिप्ट, शैली - शैलींमध्ये);

लहान चित्रांना सिंगल स्प्राइट्स (चित्रांच्या शीट्स) मध्ये एकत्र करणे;

शैली वर्णन आणि अनावश्यक, "जंक" कोड पासून पृष्ठ कोड साफ करणे;

स्थिर तुकड्यांचे कॉम्प्रेशन आणि संग्रहण सक्षम करणे;

वापरकर्ता ब्राउझरमध्ये कॅशिंग क्षमता वापरणे.

2. तुटलेले दुवे. सर्व संसाधन दुवे (बाह्य आणि अंतर्गत) निर्दोषपणे कार्य करणे आवश्यक आहे आणि निर्देशित केले पाहिजे वास्तविक पृष्ठेकिंवा सेवा. तथाकथित “तुटलेल्या” (नॉन-वर्किंग) लिंक्सच्या प्रकल्पातून सुटका – महत्वाचा भागतांत्रिक ऑप्टिमायझेशन.

दुवे शोध रोबोट्स आणि प्राप्त करू इच्छिणारे वापरकर्ते अनुसरण करतात आवश्यक माहिती. तुटलेली लिंक अभ्यागताला शेवटपर्यंत घेऊन जाते, 404 त्रुटी असलेल्या पृष्ठाकडे निर्देशित करते, क्रॅश होते आणि साइटच्या वापरण्यावर वाईट परिणाम करते. सर्व "तुटलेले" दुवे ताबडतोब काढले जाणे किंवा दुरुस्त करणे आवश्यक आहे, अन्यथा कालांतराने त्यापैकी आणखी बरेच काही असतील.

3. दुहेरी. डुप्लिकेट पृष्ठे हे साइटचे विभाग आहेत ज्यात समान किंवा समान सामग्री आहे परंतु भिन्न URL आहेत. अशा पृष्ठांची अनुक्रमणिका आणि रँकिंग करताना, नैसर्गिक गोंधळ निर्माण होतो. परिणामी, शोध परिणाम वेबमास्टरद्वारे जाहिरात केलेल्या पृष्ठांनी भरलेले नसून त्यांच्या डुप्लिकेटसह भरले जाऊ शकतात. डुप्लिकेटमुळे पृष्ठाचे महत्त्व कमी होते, विशिष्टता कमी होते आणि स्थिर वजन कमी होते.

यातून सुटका करून घेण्यासाठी अप्रिय क्षणआणि दूर करा तांत्रिक त्रुटी, आवश्यक आहे:

रचना सक्षमपणे डिझाइन करा;

रोबोट्स .txt फाइलमध्ये निर्बंध जोडा (रोबोट्ससाठी आदेश);

वापरा noindex टॅगआणि nofollow लिंक विशेषता;

विशेष कॅनोनायझेशन विशेषता वापरा (rel = “canonical”).

4. URL. च्या संबंधात आधीच लॉन्च केलेल्या आणि कार्यरत संसाधनाचे तांत्रिक ऑप्टिमायझेशन करणे कठीण आहे URLs. अनुक्रमित पृष्ठांच्या पत्त्यांसह कोणताही हस्तक्षेप वाईटरित्या समाप्त होतो. तथापि, नवीन आणि तरुण साइट्स हा घटकते अद्याप स्थिरावले नाही आणि तरीही ते सुधारले जाऊ शकते.

URL ऑप्टिमायझेशनचे सार त्याची वाचनीयता, संस्मरणीयता वाढवणे, CNC (“मानवी-वाचनीय URLs”) वापरणे, सरलीकरण, कीवर्ड सादर करणे आणि पत्ता स्थिर स्वरूपात आणणे हे खाली येते. साधे आणि वाचनीय पत्ते जे स्थिर राहतात ते वापरकर्ते आणि रोबोट्सना अधिक चांगल्या प्रकारे समजले जातात, जे ऑप्टिमायझरला आवश्यक असते.

5. मांडणी. हा घटकसाइट नक्की कशी प्रदर्शित केली जाईल यासाठी जबाबदार आहे भिन्न ब्राउझरआणि वर विविध उपकरणे. साइट बनवणाऱ्या सॉफ्टवेअर कोडचे स्वतःचे वाक्यरचना नियम आहेत आणि त्यांचे पालन करणे आवश्यक आहे.

लेआउटच्या गुणवत्तेचे मूल्यांकन करण्यासाठी, कोड प्रमाणीकरण (वैधता, स्वच्छता, शुद्धता) तपासण्याचे साधन वापरले जाते. या प्रकरणात, मूल्यांकन आणि तांत्रिक ऑप्टिमायझेशन अधीन आहेत:

मूलभूत HTML कोड (निर्दिष्ट दस्तऐवजाच्या प्रकारानुसार);

शैली कोड (CSS वैधता);

एक्झिक्युटेबल स्क्रिप्ट कोड (JavaScript, PHP).

याव्यतिरिक्त, लेआउटचे मूल्यांकन केले जाते दृष्यदृष्ट्याव्हिज्युअल त्रुटींसाठी. या उद्देशासाठी, साइट वेगवेगळ्या ब्राउझरमध्ये उघडणे आणि निकालाचे विश्लेषण करणे हा सर्वात सोपा मार्ग आहे. तसे, वरील सर्व काम पूर्ण आणि खात्री करण्यासाठी चालते करणे आवश्यक आहे मोबाइल आवृत्तीमोबाइल ट्रॅफिकमधील महत्त्वाचा वाटा गमावू नये म्हणून प्रकल्प.

6. मथळे. पृष्ठ शीर्षकांची विशिष्टता तपासल्याशिवाय तांत्रिक ऑप्टिमायझेशन अपूर्ण असेल. साइटमध्ये 2 पृष्ठे असू शकत नाहीत समान शीर्षकांसह, आणि हे पॅरामीटर तपासणे सोपे आहे विशेष साधनेतांत्रिक ऑडिट. अशी घटना घडल्यास ती दूर झाली पाहिजे.

7. सर्व्हर प्रतिसाद. ऑप्टिमायझेशनच्या शेवटच्या टप्प्यावर, सर्व्हरचा प्रतिसाद तपासणे उपयुक्त आहे भिन्न पृष्ठेसंसाधन 200 चा प्रतिसाद सामान्य मानला जातो, परंतु पुनर्निर्देशनास देखील अनुमती आहे (301, 302, इ.). यामधून, 404 प्रतिसाद विचारात घेतला जातो गंभीर त्रुटीआणि एक स्पष्ट सूचक वर्तमान समस्यावेबसाइट (वगळून विशेष पृष्ठ 404 त्रुटी).

अशा प्रकारे, वेबसाइटच्या तांत्रिक ऑप्टिमायझेशनमध्ये किती काम होते ते तुम्ही पाहू शकता. काही बाबी एका छोट्या लेखात उघड केल्या जाऊ शकत नाहीत आणि अनेक ऑपरेशन्स वैयक्तिक स्वरूपाची असतात आणि विशिष्ट साइटच्या प्रकारावर, त्याच्या ऑपरेशनची वैशिष्ट्ये, प्रोग्राम कोडची वैशिष्ट्ये आणि सर्व्हर (होस्टिंग) सेटिंग्ज यावर अवलंबून असतात.

चला मुद्द्यांवर विचार करूया साइटचे तांत्रिक ऑप्टिमायझेशन.

तांत्रिक वेबसाइट ऑप्टिमायझेशन म्हणजे काय?

वेबसाइटच्या तांत्रिक ऑप्टिमायझेशनमध्ये वेबसाइटच्या ऑपरेशनमधील तांत्रिक त्रुटी दूर करण्यासाठी उपायांचा एक संच लागू करणे समाविष्ट आहे जे साइटला शोध इंजिनद्वारे योग्यरित्या अनुक्रमित करण्यापासून आणि वापरकर्त्यांद्वारे वापरण्यापासून प्रतिबंधित करते. पहिली बारकावे तांत्रिक वेबसाइट ऑप्टिमायझेशनते सहसा जाहिरातीच्या सुरुवातीला फक्त एकदाच केले जाते.

नवशिक्या किंवा बेईमान ऑप्टिमायझर्सची एक सामान्य चूक म्हणजे या टप्प्याला प्रक्रियेतून वगळणे. शोध इंजिन ऑप्टिमायझेशनसाइट. संसाधनाबद्दल अशा निष्काळजी वृत्तीचा परिणाम म्हणून, ते पूर्णपणे अनुक्रमित केले जाऊ शकत नाही, जे पदोन्नतीच्या शक्यतांवर लक्षणीय मर्यादा घालते.

निर्मूलन तांत्रिक मुद्देसाइट तज्ञांनी हाताळली पाहिजे, कारण अयोग्य बदलांमुळे केवळ हानी होऊ शकत नाही, परंतु साइटची कार्यक्षमता आणि त्याची कार्यक्षमता देखील पूर्णपणे व्यत्यय आणू शकते.

मी साइटवर कोणत्या तांत्रिक सुधारणांकडे लक्ष दिले पाहिजे?

प्रकाशनात मी आधीच नमूद केले आहे तांत्रिक ऑप्टिमायझेशन. आता मी काही गटबद्धता देऊ इच्छितो जे अधिक अचूकपणे समस्या ओळखण्यास, त्या दूर करण्यात किंवा तांत्रिक तज्ञांना कार्ये सोपविण्यात मदत करतील जर स्वतः सुधारणा करणे शक्य नसेल.

प्रतिबंधित साइटसह तांत्रिक समस्या प्रभावी जाहिरात, खालील गटांमध्ये विभागले जाऊ शकते:

    होस्टिंग आणि सॉफ्टवेअर कोडसह समस्या.हा घटक सर्वात गंभीर आहे, कारण शोध इंजिन रोबोट्स ते कसे अनुक्रमित करतील हेच नाही तर संसाधन अभ्यागतांची निष्ठा देखील होस्टिंगची गती आणि प्रोग्राम कोडच्या योग्य ऑपरेशनवर अवलंबून असते. खराबी, वेबसाइट अनुपलब्धता आणि इतर समस्या यामुळे कमी गुणवत्ताहोस्टिंग आणि सामग्री व्यवस्थापन प्रणाली नकारात्मकरित्या प्रभावित करू शकतात. आपण असल्यास विविध कारणेतरीही, आम्ही स्वस्त होस्टिंग निवडले, नंतर मी त्याबद्दल पुनरावलोकने वाचण्याची आणि शक्य असल्यास ऑर्डर करण्याची शिफारस करतो चाचणी कालावधीतुमची होस्टिंग विश्वासार्ह आहे आणि तुमच्या गरजेनुसार आहे याची खात्री करण्यासाठी.

    पुनर्निर्देशन आणि त्रुटी पृष्ठे सेट करणे.या गटामध्ये साइट मिरर सेट करणे आणि मुख्य दर्शवणे, डुप्लिकेट पृष्ठे चिकटविणे समाविष्ट आहे. साइटवरील सर्व पृष्ठे योग्य कोड परत करतात आणि ते लिंक करतात याची खात्री करण्यासाठी काळजी घेतली पाहिजे अस्तित्वात नसलेली पृष्ठेएकतर 404 त्रुटी पृष्ठावर नेले किंवा योग्यरित्या त्याच्या नवीन पत्त्यावर पुनर्निर्देशित केले, किंवा मुख्यपृष्ठसाइट

    शोध रोबोट्ससाठी वेबसाइट सेट करणे.या गटामध्ये परवानगीसाठी सेटिंग्ज आणि robots.txt फाइलमध्ये अनुक्रमणिका करण्यावर बंदी, तसेच परवानगी देणारी sitemap.xml फाइल तयार करणे आणि निर्दिष्ट करणे समाविष्ट आहे रोबोट शोधाआपल्या साइटच्या संरचनेचा अभ्यास करणे आणि त्यावरील सर्व विद्यमान पृष्ठांचा अहवाल देणे चांगले आहे जे आपण अनुक्रमित करू इच्छिता.

    टेम्प्लेट, नेव्हिगेशन, स्ट्रक्चरचे समायोजन.तांत्रिक साइट ऑप्टिमायझेशनच्या या गटामध्ये साइटचे स्वरूप समायोजित करणे समाविष्ट आहे जेणेकरून ते शक्य तितक्या कार्यक्षमतेने शोध इंजिनद्वारे अनुक्रमित केले जाईल, भिन्न ब्राउझरमध्ये योग्यरित्या प्रदर्शित केले जाईल आणि वापरण्यास सोपे असेल. हे वापरून बनवलेल्या साइटसाठी विशेषतः खरे आहे फ्लॅश तंत्रज्ञान, JavaScript आणि इतर आधुनिक तांत्रिक घंटा आणि शिट्ट्यांची विपुलता जी शोध इंजिन यंत्रमानवांना योग्यरित्या समजू शकत नाही.

    पृष्ठांसाठी URL सेट करणे.प्रभावी साठी शोध इंजिन जाहिरातसाइटचे दुवे असल्याचे मानले जाते विविध पृष्ठेसाइट कायम आणि समाविष्ट होत्या कीवर्ड(उदाहरणार्थ या प्रकाशनाचा पत्ता असेल). या प्रकारचा पत्ता CMS च्या विशेष विभागात किंवा .htaccess फाइलमधील विशेष निर्देश वापरून कॉन्फिगर केला जाऊ शकतो. जर देखावालिंक्स सुरुवातीला अजिबात निर्दिष्ट केल्या नाहीत योग्य पद्धतीनेआणि ते बदलावे लागले, जुन्या पत्त्यांकडून नवीन पत्त्यांकडे योग्य पुनर्निर्देशनाची काळजी घेणे योग्य आहे. हे शोध इंजिनांना साइटला अधिक जलद आणि योग्यरित्या पुन्हा अनुक्रमित करण्यास अनुमती देईल, तसेच त्यांच्याकडे येणाऱ्या दुव्यांपासून आधीच मिळवलेल्या पृष्ठांचे वजन वाचवेल.

    डुप्लिकेट पृष्ठे आणि क्लोन काढत आहे.साइटवर कोणतीही डुप्लिकेट सामग्री नाही याची खात्री करणे योग्य आहे. शिवाय, सामग्री इतर संसाधनांवर किंवा तथाकथित डुप्लिकेट केलेली नाही हे महत्त्वाचे आहे. डुप्लिकेट आणि सहयोगींची उपस्थिती वेबसाइट प्रमोशनच्या शक्यतेवर नकारात्मक परिणाम करू शकते, कारण उच्च संभाव्यता



आम्ही वाचण्याची शिफारस करतो

वर