超简单记住网站优化SEO-SEM几大要素
签位于HTML代码的头部,还有就是对长眼睛的访客是不可见的。如:www.xianfeng365.cn的元标签是:<meta http-equiv="Content-Type" content="text/html; charset=UTF-8">
11. 搜索算法(Search Algorithm)
Google的搜索算法是为了给每一次搜索请求找到最为相关的网站和页面而设定。这个算法考量的因素超过200种(谷歌自称),其中包括页面等级、标题、元标签、网站内容,以及域名的年龄等。
12. 搜索结果页面(SERP)
搜索结果页面(SERP)的英文全称为Search Engine Results Page.基本上,这就是你平时在Google键入关键词回车后的页面了。你的网站从这个页面得到的流量取决于你的网站在搜索结果中的排名等级。
13. 沙盒(Sandbox)就是一个观察服务器看你网站是否合法
Google除了所有网站的索引之外,还有一个单独的索引沙盒,那里面是新近发现和收录的网站。当你的网站存在这个沙盒之中时,它就不会在一般的搜索结果中出现,而只有当Google确认了你的网站是合法的,这才会将其从沙盒中移出进入所有网站的索引。
14. 关键词密度(Keyword Density)就是关键词再网页中的密度
如何判断一个特定页面的关键词密度?你只要将一个关键词使用的次数除以页面的总词数就可以了。关键词密度过去是搜索引擎优化中非常重要的一个因素,因为早期的搜索算法对此十分看重,但现在已经时过境迁了。
15.关键词堆积(Keyword Stuffing)就是很多关键词堆积在一起
因为早期搜索算法对关键词密度非常看重,站长们便通过使用人工堆积关键词的手法来作弊和蒙骗搜索引擎。这种手法就叫做关键词堆积,当然现在已经没用了,而且你还可能会因此受到惩罚。
16. 障眼法(Cloaking)这个手段很垃圾就是把链接隐藏起来属于黑帽
障眼法(Cloaking)是指利用代码在同一个页面上让机器人和真人看到不一样的内容。其目的是为了让页面通过关键词而提升页面评级,而真正的目的是推销和出售各种不相关的产品或服务。当然,这也是一种作弊的手段,有很大可能会受到搜索引擎惩罚,甚至剔除。
17. 网络爬虫或网络蜘蛛(Web Crawler)要进入索引就靠这个
网络爬虫或网络蜘蛛(Web Crawler)也简称为爬虫或蜘蛛,代表搜索引擎在网路上进行浏览,目的是发现新的链接和页面,这是进行索引的第一个环节。
18. 复制内容(Duplicate Content)就是复制别人的网站的内容很傻很呆
复制内容(Duplicate Content)也叫“重复内容”,通常是指一个页面在引用了站内或站外的大段实质内容,或者是存在完全相同和极其相似的情况,而这也是一个网站应该尽量避免发生的情况,否则很容易让你的网站受到惩罚。
19. 标准链接(Canonical URL)
标准链接(Canonical URL)是指一个网页的链接要符合规范和标准。
20. 机器人协议(Robots.txt)这个是搜索引擎指定的协议
机器人协议(Robots.txt)不过是一个TXT文本文件,存在于你域名根目录之下,作用是将网站的目录结构信息告诉爬虫和蜘蛛,并限制其对特定文件夹和内容的访问,或者是完全将它们关在门外。
11. 搜索算法(Search Algorithm)
Google的搜索算法是为了给每一次搜索请求找到最为相关的网站和页面而设定。这个算法考量的因素超过200种(谷歌自称),其中包括页面等级、标题、元标签、网站内容,以及域名的年龄等。
12. 搜索结果页面(SERP)
搜索结果页面(SERP)的英文全称为Search Engine Results Page.基本上,这就是你平时在Google键入关键词回车后的页面了。你的网站从这个页面得到的流量取决于你的网站在搜索结果中的排名等级。
13. 沙盒(Sandbox)就是一个观察服务器看你网站是否合法
Google除了所有网站的索引之外,还有一个单独的索引沙盒,那里面是新近发现和收录的网站。当你的网站存在这个沙盒之中时,它就不会在一般的搜索结果中出现,而只有当Google确认了你的网站是合法的,这才会将其从沙盒中移出进入所有网站的索引。
14. 关键词密度(Keyword Density)就是关键词再网页中的密度
如何判断一个特定页面的关键词密度?你只要将一个关键词使用的次数除以页面的总词数就可以了。关键词密度过去是搜索引擎优化中非常重要的一个因素,因为早期的搜索算法对此十分看重,但现在已经时过境迁了。
15.关键词堆积(Keyword Stuffing)就是很多关键词堆积在一起
因为早期搜索算法对关键词密度非常看重,站长们便通过使用人工堆积关键词的手法来作弊和蒙骗搜索引擎。这种手法就叫做关键词堆积,当然现在已经没用了,而且你还可能会因此受到惩罚。
16. 障眼法(Cloaking)这个手段很垃圾就是把链接隐藏起来属于黑帽
障眼法(Cloaking)是指利用代码在同一个页面上让机器人和真人看到不一样的内容。其目的是为了让页面通过关键词而提升页面评级,而真正的目的是推销和出售各种不相关的产品或服务。当然,这也是一种作弊的手段,有很大可能会受到搜索引擎惩罚,甚至剔除。
17. 网络爬虫或网络蜘蛛(Web Crawler)要进入索引就靠这个
网络爬虫或网络蜘蛛(Web Crawler)也简称为爬虫或蜘蛛,代表搜索引擎在网路上进行浏览,目的是发现新的链接和页面,这是进行索引的第一个环节。
18. 复制内容(Duplicate Content)就是复制别人的网站的内容很傻很呆
复制内容(Duplicate Content)也叫“重复内容”,通常是指一个页面在引用了站内或站外的大段实质内容,或者是存在完全相同和极其相似的情况,而这也是一个网站应该尽量避免发生的情况,否则很容易让你的网站受到惩罚。
19. 标准链接(Canonical URL)
标准链接(Canonical URL)是指一个网页的链接要符合规范和标准。
20. 机器人协议(Robots.txt)这个是搜索引擎指定的协议
机器人协议(Robots.txt)不过是一个TXT文本文件,存在于你域名根目录之下,作用是将网站的目录结构信息告诉爬虫和蜘蛛,并限制其对特定文件夹和内容的访问,或者是完全将它们关在门外。