我最近安装在我的网站之一的SSL证书。 我注意到,谷歌现在已经收录两每个页面的HTTP和HTTPS版本。 我还没有真正发现任何问题排名明智的,到目前为止,但我意识到可能有重复的内容可能会出现问题。
我该如何克服这个问题? 只有我的几个页面将使用HTTPS,大多数网站上的页面将最好只用HTTP服务,其实我可以不使用https网页都暂且如果有必要离开。
我所遇到的一些想法是:301个重定向,重定向所有的HTTPS的.htaccess为HTTP。
robots.txt的对SSL页面,再次使用的.htaccess。 这里的问题是,https网页已经被收录,我想他们被deindexed。 我不知道如果robots.txt的就足够了,因为据我所知的robots.txt只会让一个机器人不抓取网页,但它已经被编入索引。
是否有任何其他建议?