Semalt ექსპერტი: გზამკვლევი Google- ის თავიდან აცილების მიზნით, ძველი საიტების საიტებიდან

თქვენი ვებ – გვერდი იზრდება, თქვენ მაქსიმალურად შეეცდებით იპოვოთ ინტერნეტში მისი ხილვადობისა და სანდოობის გასაუმჯობესებლად. ზოგჯერ, ეფექტები იმაზე, თუ როგორ მუშაობდნენ ჩვენი საიტები ადრე, და სწორედ აქ უნდა მივაქციოთ ყურადღება.

მიიღეთ ქვემოთ მოცემული რჩევები მაქს ბელისგან , Semalt- ის მომხმარებელთა წარმატების მენეჯერმა, რათა Google– ს არ დაეცვათ ძველი საიტების მცოცავი.

რამდენიმე კვირის წინ ერთ-ერთმა კლიენტმა მითხრა, რომ მას აქვს ელექტრონული კომერციის ვებსაიტი. მან გაიარა სხვადასხვა ცვლილებები: URL სტრუქტურადან საიტის რუქამდე, ყველაფერი შეიცვალა იმისთვის, რომ საიტი უფრო ხილული ყოფილიყო.

მომხმარებელმა შენიშნა Google Search Console- ში გარკვეული ცვლილებები და აღმოაჩინა Crawl- ის შეცდომები. რაც მან დაინახა, რომ ძველი და ახალი მისამართების დიდი რაოდენობა არსებობს, რომლებიც ყალბ ტრეფიკს წარმოქმნიდნენ. ზოგი მათგანი აჩვენებს წვდომის უარყოფას 403 და ვერ მოიძებნა 404 შეცდომა.

ჩემმა მომხმარებელმა მითხრა, რომ ყველაზე დიდი პრობლემა ის იყო ძველი საიტის რუკა, რომელიც ფესვების საქაღალდეში არსებობდა. ადრე მის ვებსაიტს იყენებდა Google XML საიტის საიტების სხვადასხვა მოდული, მაგრამ ახლა ის საიტის რუქაზე იყო დამოკიდებული WordPress SEO- ს მიერ Yoast. ამასთან, მრავალრიცხოვანმა საიტის საიტის დანამატებმა მისთვის სასადილო შექმნა. ისინი იმყოფებოდნენ sitemap.xml.gz დაასახელეს ძირეულ საქაღალდეში. მას შემდეგ, რაც მან დაიწყო Yoast დანამატების შექმნა ყველა საიტის, გვერდების კატეგორიებისა და ტეგების საიტების რუკების შესაქმნელად, მას აღარ სჭირდებოდა ეს დანამატები. სამწუხაროდ, პირმა არ წარუდგინა sitemap.xml.gz Google ძიების კონსოლს. მან მხოლოდ წარადგინა Yoast საიტის რუკა და Google- მა ასევე იწვა ძველი საიტის საიტები.

რა უნდა იტირო?

პირმა არ წაშალა ძველი საიტის რუკა root საქაღალდედან, ასე რომ ხდება ინდექსის გაკეთება. მე მას დავუბრუნდი და ავუხსენი, რომ საიტის რუკა მხოლოდ შემოთავაზებაა, თუ რა უნდა იყოს crawled საძიებო სისტემის შედეგებში. თქვენ ალბათ ფიქრობთ, რომ ძველი საიტის რუქების წაშლა შეაჩერებს Google- ს არასაკმარისი URL– სგან, მაგრამ ეს ასე არ არის. ჩემი გამოცდილებით ნათქვამია, რომ Google ცდილობს ყოველ ძველ URL- ს ინდექსირება დღეში რამდენჯერმე, დარწმუნდით რომ 404 შეცდომა რეალურია და არა უბედური შემთხვევა.

Googlebot- ს შეუძლია შეინახოს ძველი და ახალი ბმულების მეხსიერება, რომელსაც იგი იპოვის თქვენი საიტის საიტის რუქაში. ის რეგულარულად სტუმრობს თქვენს ვებსაიტს, დარწმუნდებით, რომ ყველა გვერდი სწორად ინდექსირებულია. Googlebot ცდილობს შეაფასოს, ბმულები მართებულია თუ არასწორია, რათა ვიზიტორებმა რაიმე პრობლემა არ შექმნან.

აშკარაა, რომ ვებ-მასტერები დაბნეული იქნებიან, როდესაც მათი Crawl შეცდომების რაოდენობა იზრდება. ყველა მათგანს სურს მისი შემცირება დიდწილად. როგორ ვაცნობოთ Google- ს ყველა ძველი საიტის რუკის უგულებელყოფის შესახებ? ამის გაკეთება შეგიძლიათ ყველა არასასურველი, და უცნაური საიტის რუკა მცოცავი. ადრე, ერთადერთი გზა ამის შესაძლებელი იყო .htaccess ფაილები. მადლობა WordPress- ს, რომ მოგვაწოდეთ რამდენიმე მოდული.

WordPress ვებსაიტებს აქვთ ეს ფაილი თავიანთი root საქაღალდეებში. ასე რომ, თქვენ უბრალოდ უნდა წვდეთ FTP და ჩართოთ cPanel ფარული ფაილები. გადადით ფაილ მენეჯერის ოფციაზე, რომ შეცვალოთ ეს ფაილი თქვენი მოთხოვნილების შესაბამისად. არ უნდა დაგვავიწყდეს, რომ მისი არასწორად რედაქტირებამ შეიძლება ზიანი მიაყენოს თქვენს საიტს, ასე რომ თქვენ ყოველთვის უნდა იყოთ სარეზერვო ყველა მონაცემი.

მას შემდეგ, რაც ფაილს დაამატეთ ნახატი, ვადაგასული ყველა URL გაქრება თქვენი Crawl შეცდომებისგან არასოდეს. არ უნდა დაგვავიწყდეს, რომ Google- ს სურს თქვენი საიტის შენარჩუნება, 404 შეცდომის შანსების შემცირებით.

send email