Eliminați https din index, de ce ai nevoie de sus

Provocarea a venit ca urmare a atitudinii indiferente în timpul orelor de limitat ... client webmaster pentru responsabilitățile lor directe.

Robo-Yandex a fugit vesel de referință prostie site-ul ... Nu a fost văzut acolo erori în index își ia concediu ...
Tot site-ul este indexat de două ori, ca http-versiune și ca o versiune https.

Și toate pozițiile nafig scufundat ...

Cum de a șterge duplicate?

Ei bine, primul lucru pe care l-am corectat meniul. Ok ... cu excepția faptului că duplicate nu sunt lăsate în afara indicelui.

Am încercat să plece în deleteurl - nu există nici un motiv pentru a elimina!

Pune prin .htaccess redirect 301 linie aruncă totul, așa cum ar trebui să fie, dar timpul se scurge și să rămână în duplicate index! Din nou, nu există nici un motiv pentru a elimina din Yandex ***** ...

Ideea este, care nu știe ce să ștergeți o pagină din index, poate doar:
1) eliminarea sa fizică,
2) pune o interdicție de indexare de robots.txt
3) introducerea unei interdicții de indexare pe pagina de meta tag

Dar elimina fizic o pagină tematică a site-ului, în special pentru a promova?

Și cât de aproape de roboți, în cazul în care nu este scris doar o cale relativă, cum ar fi /page15.html?

Am avut o idee care nu a găsit un răspuns în sufletul alarmarea clientului: alternativ pus meta tag-ul NOINDEX pe toate paginile, duplicat, le arunca indicelui prin DeleteUrl, la plecarea din meta tag-ul de index pentru a elimina și re-intra în index.

Așa am gândit inteligent în jurul valorii de problema!

M-am dus la un prieten seoshnyh, iar răspunsul dat repede:

pe ce trebuie să fie două dosare - pentru HTTP și HTTPS pentru, arunca doar roboți cu Disallow: / folder în versiunea https!

Doar nu există nici un astfel de dosar! În general, a fost articulațiilor ...

Dar dintr-o dată am crezut că - într-adevăr am fost primul cu problema cu care se confruntă, și se uita pe net ...

Și Căutarea a găsit o soluție simplă, dar elegantă este:

.htaccess pentru a indica faptul că pentru https versiunile Roboți are un nume diferit. Da, da, da, da! Eu fac tot ce-mi SEO viața a crezut că numele Roboți fișier trebuie să fie robots.txt și nu altfel, și se pare, totul .htaccess reglementate invizibil pentru vizitatorii site-ului.

Pentru al doilea său, roboți anormale a crea un text l-am găsit, de exemplu, numit roboți-https.txt prescrie instrucțiunile necesare, pentru mine este doar o pereche de linii

Se pune în site-ul rădăcină.

Și în regulă prescrie .htaccess

RewriteEngine on
RewriteCond% pe
RewriteRule ^ robots.txt $ roboți-https.txt

Ha! Acesta funcționează cu un bang!

P.S. În timp ce scrieți un post, m-am gândit - ce împiedică astfel încât să se ascundă de ochii indiscreti vizitatori roboți obișnuiți? Oh, nimic!