让网站运营更简单
让搜索引擎更喜欢的网站
立即咨询
福利,定制网站送小程序, 名额有限,先到先得
一、前言在信息大爆炸时代,搜索引擎是获取精准信息的最主要途径,所以像公司官网这种承载了公司所有产品及服务信息的网站,确保被各大搜索引擎全面收录且搜索展示的排名尽可能靠前是一件非常重要的事情,因此就需要对网站进行一些必要的搜索引擎优化设置,也就是SEO优化。
SEO优化是一个非常专业的领域,涵盖内容广泛,限于篇幅,本文仅对网站SEO优化的一般步骤进行阐述,权当抛砖引玉
二、网站SEO优化一般步骤2.1 创建robots.txt文件robots.txt文件是网站与搜素引擎爬虫之间的协议,用简单直接的txt格式文本方式告诉搜素引擎爬虫被允许的权限,也就是说robots.txt是搜索引擎访问网站的时候要查看的第一个文件。
当一个搜素引擎爬虫访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;robots.txt文件必须位于根目录下robots.txt协议主要有三个关键字:
1)User-agent - 设置允许搜索引擎的名称,如Googlebot,Baiduspider,sogou spider等等,通过名称可以很容易看出来它们各自对应的搜索引擎,通配符*表示允许所有搜索引擎;
2)Disallow - 设置不希望被搜索引擎访问的URL,如/admin后台管理目录,根路径/表示全部不被索引;3)Allow - 设置希望被搜索引擎访问的URL,根路径/表示希望全部被索引;robots.txt一些常用的
示例:1)希望被所有搜索引擎搜索(注意冒号后面的空格!):User-agent: *Disallow:等同于:User-agent: *Allow: /2)禁止所有搜索引擎访问网站:User-agent: *
Disallow: /3)除了admin后台管理目录,允许所有搜索引擎访问所有文件:User-agent: *Disallow: /admin/4)禁止Google索引:User-agent: Googlebot
Disallow: /5)仅允许百度索引,禁止其它所有搜索引擎(注意描述的顺序):User-agent: BaiduspiderDisallow:User-agent: *Disallow: /更复杂的设置,可以借助通配符进行精准限制,如限制某个搜索引擎不得访问JPG图片之类。
2.2 在页面增加关键词然后就是通过meta标签向每个HTML页面加入索引关键词,每个关键词用逗号隔开,比如笔者公司网站所涉及的关键词多达十几个,为了省事,每个页面都添加一样的。
除了关键词之外,还有一个网页描述,就是一句话描述该页面是介绍什么内容的2.3 向搜索引擎提交链接搜索引擎访问每个站点是有一定的周期的,所以如果网站内容发生了比较大的变更,搜索引擎那边是不会立即进行同步的,如果希望尽快保持同步,就需要手动向搜索引擎提交链接;。
上面对网站的索引规则进行了变动后,也可以通过这种方式主动请求搜索引擎进行同步,如主动向百度提交链接:
顺便可以检查一下前面添加的robots.txt是否正确并生效:
本文图文来源于网络,版权属于原作者或网站,内容为作者观点,内容版权归原作者所有、本站不对文章中的任何观点负责,内容只用于提供信息阅读,无任何商业用途。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站(文章、图片、音频、视频)有涉嫌抄袭侵权/违法违规的内容,请联系管理员,一经查实,将立刻删除、维护您的正当权益。
扫一扫,关注我们