中山php|最优网络 :中山做网站 中山php建站
最优良人
Posts Tagged With: seo
网站被百度k了怎么办?被惩罚后如何恢复排名
2012/09/13 at 11:45 » Comments (475)
网站被百度惩罚,两个多月了,排名还没有恢复,蜘蛛爬行正常,收录和快照也正常,应该就是域名被降权处理了。 这么久时间过去了,排名还是没有,说明被百度降权的域名想恢复是多么不容易,很多站长网站被降权后,做了很多补救工作,希望可以恢复,其实,我想百度数据库肯定有无数的降权域名,想单单把你的域名拿出来恢复权重几乎是不可能的,其实有一种有效的补救措施,不过代价比较大,就是被降权的域名直接不要了,换新的域名。 前天我做了一个尝试,注册了新域名 zui88.com ,把原来的域名zui88.com进行301重定向,到了第二天新域名zui88.com被收录,并且大部分关键词排名恢复,然后服务器被关闭,因为新域名没有备案,今天正式把网站迁移到香港服务器,以后就使用新域名,老域名就做转向用了。有待测试!! more »新站如何能快速被百度收录
2012/08/21 at 16:55 » Comments (437)
刚刚做好的一个网站,如何能快速被百度收录,并且可以查询的到呢,个人以为有以下几点: 1,网站上线时必须至少有一点原创内容支撑,可以先发一些新闻产品,公告通知,技术知识的文章,保障网站不会太空洞,避免完全复制网络的内容。 2,必须存放在一个相对干净的主机空间,所谓干净的主机空间就是该主机ip没有被搜索引擎降权,该ip下的其他网站没有不良内容或垃圾站,有可能的话尽量用一个独立ip的空间,并且查一些该ip以前的使用情况。 3,必须有高质量的外部导入链接,比如收录良好的资讯类网站,发布一条公司介绍的信息,带上公司的网址链接,如果该信息被收录的话,那么网站很可能也已经被顺带收录了,应该提供给了搜索引擎蜘蛛一个入口爬行到我们网站来 第三点尤为重要,我曾经试过帮客户发了一条信息,信息秒收,客户站也被秒收。 more »robots.txt文件的规则以及限制目录带不带斜杠的区别
2011/09/03 at 10:11 » Comments (349)
一个网站的robots文件对于做seo是至关重要的,它可以限制搜索引擎蜘蛛抓取不该收录的目录或者页面,避免资源的浪费,它的规则主要有以下几点: 1) User-Agent键 后面的内容对应的是各个具体的搜索引擎爬行器的名称。如百度是Baiduspider,谷歌是Googlebot。 一般我们这样写: User-Agent: * 表示允许所有搜索引擎蜘蛛来爬行抓取。如果只想让某一个搜索引擎蜘蛛来爬行,在后面列出名字即可。如果是多个,则重复写。 注意:User-Agent:后面要有一个空格。 在robots.txt中,键后面加:号,后面必有一个空格,和值相区分开。 2)Disallow键 该键用来说明不允许搜索引擎蜘蛛抓取的URL路径。 例如:Disallow: /index.php 禁止网站index.php文件 Allow键 该键说明允许搜索引擎蜘蛛爬行的URL路径 例如:Allow: /index.php 允许网站的index.php 通配符* 代表任意多个字符 例如:Disallow: /*.jpg 网站所有的jpg文件被禁止了。 结束符$ 表示以前面字符结束的url。 例如:Disallow: /?$ 网站所有以?结尾的文件被禁止。 应该注意的是: 1,在"/robots.txt"文件中,至少要有一条Disallow记录,允许收录优先级要高于禁止收录,如 User-agent: * Allow: /a/b.htm Disallow: /a/ 则a目录下b.htm可以访问,其他禁止 2,注意路径后面加斜杠和不加斜杠的区别 如果目录后边带斜杠,那么访问不带斜杠的地址时还是可以访问目录首页,如果想屏蔽掉整个目录,建议不带斜杠 Allow或Disallow的值 URL 匹配结果 /tmp /tmp yes /tmp /tmp.html yes /tmp /tmp/a.html yes /tmp/ /tmp no /tmp/ /tmphoho no /tmp/ /tmp/a.html yes /Hello* /Hello.html yes /He*lo /Hello,lolo yes /Heap*lo /Hello,lolo no html$ /tmpa.html yes /a.html$ /a.html yes htm$ /a.html no 3,robots文件只有放在根目录才有效,放在子目录没效。 4,robots.txt文件用法举例 例1. 禁止所有搜索引擎访问网站的任何部分 User-agent: * Disallow: / 例2. 允许所有的robot访问 (或者也可以建一个空文件 “/robots.txt”) User-agent: * Disallow: 或者 User-agent: * Allow: / 例3. 仅禁止Baiduspider访问您的网站 User-agent: Baiduspider Disallow: / 例4. 仅允许Baiduspider访问您的网站 User-agent: Baiduspider Disallow: User-agent: * Disallow: / 例5. ...more »记录一下网站百度谷歌的收录情况,对比两大搜索引擎的差别
2011/08/24 at 22:09 » Comments (294)
网站上线19天,今天百度终于收录了首页,总算度过了这个漫长的考核期,虽然网上一般说法是百度对新站会有一个月左右的考核期,现在这个时候收录应该算正常吧,接下来会不会像某些新站一样很长一段时间只收录首页就要继续观察了。 网站上线第二天,谷歌百度的蜘蛛就造访了,谷歌很快就收录并放出了抓到的页面,百度就先抓取不显示,刚开始两条蜘蛛都非常勤快,百度蜘蛛最多一天爬300多次,谷歌蜘蛛3000多次,现在每天一般是前者100次,后者2000次这样的频率。 谷歌收录页面数量一直都是稳定地增长,到昨天达到将近6000个页面,并且谷歌给这个博客的权重还算比较高的,关键词都能获得比较好的排名,每天都会有不少ip是通过谷歌搜索技术问题过来的,并且谷歌对新文章的反应速度极快,基本上发一篇新博文在两三分钟内会被收录并且放出来。 百度虽然也会比较快抓取新文章,但是就是不放出,在8月10号也就是10天前放出了通过ip抓取的首页,然后就一直没更新快照,前天我把ip都301到域名下来,那个应该不会再更新了。 这期间没有去做什么外链,只是在博客里面对百度做了一点小小的优化,不知道对今天的收录有没有一点影响。 说实话我还是比较看重网站在百度的表现,谷歌退出大陆之后,在市场份额方面已经很难跟百度抗衡了,百度现在拥有中国大陆绝大部分的搜索流量,对网站的收录情况直接影响到网站的访问量。 more »wordpress防止百度收录动态链接,针对百度做SEO优化
2011/08/19 at 23:37 » Comments (504)
通过网站的服务器日志分析,百度经常会先访问博客文章的动态页,再被301重定向到固定链接,可能由于wordpress是国外的产物,没有专门针对百度做seo,甚至连robots文件都没有,今天主要做了以下优化工作,过几天看效果如何: 一,安装wp的百度地图插件:Baidu Sitemap Generator,生成网站地图 插件使用方法: 1.在 http://www.tianchuangseo.com/wp-content/uploads/2010/09/baidu-sitemap-generator.zip 下载插件,安装并激活。 2.点击设置里面的 Baidu-Sitemap 选项,即可看到设置界面,第一次使用你需要先激活配置。 3.然后点击"更新 XML 文件"按钮即可生成上述的 XML 文件和 Html 静态页面。 4.在你网站的合适位置加入这两个链接即可。 二,添加robots.txt文件,文件内容为: User-agent: * Disallow: /wp- Allow: /wp-content/uploads/ Disallow: /? Disallow: /feed Disallow: /*/*/feed Disallow: /trackback Disallow: /*/*/trackback Disallow: /index.php? Disallow: /index.php/ Disallow: /*.php$ Disallow: /*.css$ Disallow: /date/ Sitemap: http://www.zui88.com/blog/sitemap_baidu.xml Sitemap: http://www.zui88.com/blog/sitemap.html 三,在百度博客提交页面提交了博客feed地址 http://ping.baidu.com/ping.html 四,设置wordrpess的自动ping服务。登陆博客后台,选择"设置"->"撰写"功能模块,在更新服务ping service那一栏填写各个Ping中心地址保存即可。 百度博客的ping中心地址是:http://ping.baidu.com/ping/RPC2 我这边添加的ping地址是: http://rpc.pingomatic.com/ http://ping.baidu.com/ping/RPC2 http://blogsearch.google.com/ping/RPC2 http://api.my.yahoo.com/RPC2 http://api.my.yahoo.com/rss/ping http://ping.feedburner.com http://www.zhuaxia.com/rpc/server.php http://www.xianguo.com/xmlrpc/ping.php http://www.feedsky.com/api/RPC2 http://blog.iask.com/RPC2 http://ping.blog.qikoo.com/rpc2.php http://rpc.technorati.com/rpc/ping http://www.blogsdominicanos.com/ping/ more »把网站页面自动提交到搜索引擎
2011/08/18 at 14:26 » Comments (437)
很多搜索引擎都提供了博客地址的提交入口,可以把我们博客的网址或者文章地址提交到他们的数据库以供索引,其中有些在提交过程中需要输入验证码,如百度,有道;有些则不需要,如谷歌,腾讯搜搜;不需要输入验证码的入口我们可以通过写程序把文章自动提交到搜索引擎。 下面是一些搜索引擎提供的博客搜索服务: http://blogsearch.google.com/ 谷歌博客搜索 http://blogsearch.baidu.com/ 百度博客搜索 http://blog.soso.com/ 腾讯搜搜博客搜索:可以搜QQ空间 http://blog.youdao.com/ 网易有道博客搜索:有一些有趣的数据整理方式 下面则是这些搜索引擎相应提供的提交博客入口: http://blogsearch.google.com/ping?hl=zh-CN google博客提交入口 http://utility.baidu.com/blogsearch/submit.php 百度博客提交入口,有验证码 http://tellbot.youdao.com/report?type=BLOG 有道博客提交入口,有验证码 http://blog.soso.com/join.html 腾讯搜搜博客搜索提交入口 博客ping服务地址: ping是基于XML_RPC标准协议的更新通告服务,是用于blog在内容更新时通知博客搜索引擎及时进行抓取、更新的方式。博客搜索引擎在成功接受到ping以后,会立刻进行抓取并更新。使用ping服务,可以让博客搜索引擎在第一时间抓取到您博客上的新内容。 http://blogsearch.google.com/ping/rpc2 谷歌博客搜索ping服务 http://ping.baidu.com/cgi-bin/blog 百度博客搜索ping服务 http://blog.youdao.com/ping/RPC2 网易有道博客搜索ping服务 下面的代码是天涯博客实现博客的博文自动提交,其他网站页面的提交道理也是相同的,都是利用博客的自动ping服务: <form id=frm_google_ping name=frm_google_ping action=http://blogsearch.google.com/ping method=get target="iframe__google_ping"> <input type="hidden" name="name" value="tianyablog" ...more »