SEO如何改进网页源代码,增强用户感受
SEO改进网页源代码,借鉴夫唯“关键词分布”原则,主要在以下几个维度进行:
1、标题标签
标题标签揭示了用户与搜索引擎对网页主题的感知,一直是搜索引擎关注的焦点。通常,搜索引擎提取标题标签出于两个目的:一是作为影响网页排名的关键因素,二是作为搜索结果页面的展示信息。无论目的如何,对于SEO来说都至关重要。
通常,标题标签中的词汇最好保持在3~5个左右,最好包含关键词。但标题标签中的词汇不要全是关键词,以免造成页面关键词堆砌,导致过度优化。所选词汇应简洁明了、具有描述性,与网页内容紧密相关,并且每个不同的页面都应该包含标题标签。
2、meta关键词标签
告知搜索引擎本页面要优化的关键词是什么,标签中最好包含关键词,用英文逗号隔开。
3、meta描述标签
meta描述标签可以视为对标题标签的补充说明,可以是一句话或包含十几个单词的短语。每个页面都应具备自己的Meta Description标签,并且Meta Description标签还可以包含一些与网站内容相关但标题标签中未提及的信息。与标题标签要求相似,该部分内容也应具有描述性,与网页内容相关,可包含关键词,但不可过多。
4、h1标签
H1是搜索引擎识别页面信息的重要标记。合理使用H1可以使得页面结构更加清晰,有利于搜索引擎的抓取。H1用于文章标题,并且用一句话合理包含关键词。
5、strong标签
Strong标签不仅是对文字加粗,并且这种形式的加粗会告诉搜索引擎该部分文字比较重要。所以文章正文开头合理出现关键词,并用Strong标签。
6、alt标签
图文并茂。ALT标签是一种图片标签,它将图片的信息以文本的形式展现。对ALT标签的使用没有太多要求,只要在网页中出现图片的部分添加上该属性即可,但其标签内容应与相应页面内容具有相关性,长度不得过长,一般1~5个单词即可。
如何利用SEO针对源代码,进行9个维度的优化
1.网站布局
一般采用扁平化的树形结构,将重要的文章和栏目布局到首页,然后通过首页点击栏目进入列表页,再点击列表页中的标题进入最终页面,这样就为蜘蛛描述了一条从树干到树枝再到树叶的抓取模式,这种方式有助于蜘蛛抓取到页面,另外根据网站的大小按需生成xml地图和HTML地图,目的是让蜘蛛能有更多渠道去抓取页面和为用户提供一个全面的地图导航,让用户了解网站的大体结构,当然如果是小型网站的话一般是不需要HTML地图的。
2.代码编写
采用DIV CSS的模式来进行代码编写,TABLE表格布局已经是过去式了,当然有时候可能还会用到,但请不要以表格的形式为主来做网站的结构的布局,使用DIV CSS布局网站的话能使整个网站的代码和格式控制分离,从而达到减少首页体积的目的,这对网站的打开速度和抓取速度都有着极大的帮助。
3.alt属性设置
蜘蛛是不认识图片的,所以需要设置图片的ALT属性让蜘蛛明白这个图片是什么,并作为百度图片的索引的参数,通常将图片的这些参数设置完整,能带来更高的综合得分,另外alt的属性也要和页面相关,这能让主关键词的排名更稳定也更靠前。
4.内链建设
一个网站好不好,要看内部链接是否通畅而不混乱,而且要设置好相关性的链接,这有助于提高网站的阅读性和联系性,比如一篇介绍手机的文章,其可以再相关性链接下面增加手机的保养知识,手机的品牌,手机图片展示等等与之相关的信息,这对于读者和蜘蛛来说都是有好的。
5.空间购买
网站制作完成在本地测试无误后就需要按需购买空间或者是服务器了,对于个人网站而言往往是不需要单独的购买服务器的,只需要买一个价钱中等的空间即可,需要注意的是在选择共享IP时我们必须了解同IP下是否有垃圾站,一般同IP下存在上百个网站的话往往风险是比较大的,建议大家在选择的时候最多选择同IP下几十个的空间,而且还要远离和图片、视频类型的网站放在一起,这样才能提高你网站的访问速度。
6.DNS防护
空间购买以后就需要解析域名,一般来说现在有很多的漏洞扫描程序会通过服务器的漏洞和DNS的漏洞或者网站程序的漏洞作为攻击的切入点,而一旦被添加了恶意代码将会造成排名降低甚至被K,所以我们通常在解析域名时都需要做DNS的防护,在百度站长资讯中也提到了《当心dns服务器不稳导致站点被屏》,大家可以去看看。
7.文章更新频率
文章更新不在多、而在于持续稳定的增加,不管是个人网站还是企业、门户网站都有一个内容更新频率策略,每天更新多少篇文章那都是需要计划好的,不能说今天发了几篇明天你就发100篇,总的来幅度不要太大,以持续稳定为前提。但也需要注意文章的质量、可读性、用户体验等方面,不然最终排名上去了也是会下来的,一般来说文章的更新频率往往和所在行业的竞争有关,竞争激烈的行业你必须跟上对手,不然你很快将被淘汰!
8.目标关键词和长尾关键词布局
不仅要合理地分配到页面标题、描述以及页面正文中的重要位置,还要避免关键词堆砌的情况,一般可以利用语义变化词(如计算机和电脑)、同义词、完全匹配的出现、拆分出现等方式来解决这类问题,这样做的一个好处就是提高页面相关度的同时也避免了被搜索引擎惩罚的可能性!
不仅要恰当地分配至页面标题、描述以及正文关键区域,还需防止关键词过度堆叠。通常可借助语义相近词汇(如计算机与电脑)、同义词、精确匹配的呈现、分词出现等方法来应对此类问题。如此操作的一大益处在于,不仅能提升页面的相关性,还能降低被搜索引擎处罚的风险!
- robots文件编写
robots文件可限制蜘蛛的抓取范围,但不同搜索引擎对robots文件的支持度各异。例如,谷歌支持在robots文件中声明网站的地图,而百度则不支持。因此,在编写robots文件时,需根据不同搜索引擎的特性来设定规则。关于编写方法的相关知识,大家可以查阅百度百科的《robots》相关内容。
如满意,请予以采纳,谢谢!