网站打开速度缓慢如何改进及优化策略
一.网站JS脚本过多
众多企业网站为了提升网页的视觉效果,常常使用滚动展示产品,从视觉美感上讲,这类滚动效果确实比单调的静态展示更吸引人;然而,百度无法识别JS脚本代码,过多的JS脚本会导致百度在抓取内容时无法获取相关内容,甚至可能抓取到无法识别的JS代码,甚至不抓取,使得百度难以辨别网站的主旨,过多的JS脚本也会使网站加载速度极慢;同时,用户浏览网页的主要目的是寻找有价值的内容,网站的美观仅是用户体验评分的一部分,而非全部;
解决策略:最佳选择是使用DIV+CSS进行布局,代码应尽量精简,能省则省;
二.网站图片过大
对于网页图片,也需要进行细致的优化。如果一张图片过大,达到几百KB,那么几百张图片就会占用大量空间,如果多个图片在同一页面上,那么很抱歉,你的网站图片加载将非常缓慢。除了限制图片大小外,还要考虑文字说明,图文并茂的文章最符合用户体验,图片还需添加“alt属性”。
解决策略:使用绘图软件对图片进行压缩,适当降低画质,但不能过于模糊,控制每张图片在100KB以下,可以使用PS软件进行处理;
三.无价值内容过多
在与“三丰量具”的朋友交流后,发现一个思想上的误区,量具朋友总是关注如何设置标题以吸引用户搜索,他曾告诉我,在文章标题中添加地区词,这样当搜索地区词时就会找到网页;而我认为,仅仅为了吸引用户搜索,并不能解决用户的根本问题,反而会增加用户的跳出率,无法留住客户,而且网站内容过多,会让更多用户找不到想要的内容,即使找到了,那么多相似的标题也会让用户产生浏览的视觉疲劳和反感。因此,在制作内容时,思维上要转变,不要为了排名而进行排名优化,而是要为解决用户所有问题进行优化,百度也更喜欢这类网站。对于那些投机取巧的企业站,大多被百度排在百名之外;
解决策略:可以搜索网上用户最关心的话题,去贴吧看看哪些问题提出较多,通过专业知识进行详细解答,从而增加用户的好感;
四.缺乏代码专业知识
想要优化好一个网站,没有相关的代码知识是不行的。最糟糕的情况就是被挂上黑链还毫无察觉,找不到排名上不去的原因。昨天给朋友查看首页源代码时,发现被挂上了娱乐行业的黑链,至于内页是否被挂,我还没仔细检查,而且在后台无法处理,非常麻烦。建议使用织梦程序进行建站,操作简单;如果请专业人员进行维护,工资可能你承担不起,难免优化人员偷懒,还不如自己掌握一些基本知识,节省网站成本;
解决策略:对于代码,其实并不难。岑辉宇之前连DIV+CSS都不会,通过网上学习和QQ群交流,结合实际操作,很快就掌握了。没有学习过,别说不会,那是逃避;
五.关键词选取定位不精准
在查看朋友的网站后,发现他网站的关键词非常多,刀具、量具、钻头、测量仪、配件等等。虽然我找刀具可能需要量具,但在同一个网站上,不利于排名优化,分散了权重。一块蛋糕,一个人可以吃饱,为什么要分给那么多人呢?建议如果非要做,最好采取多个空间,然后用二级域名进行优化,不要在同一个空间上。优化关键词的核心是:精、准、细!
解决策略:利用百度指数工具找出一些具有流量但竞争力适中的关键词,又能体现网站的产品主题,进行细节分化;
六.网站标题和描述出现致命错误
针对昨天量具朋友的网站,最致命的错误就是标题写法错误,将所有关键词都放在标题上。昨天给朋友示范了一下,我说百度标题只会显示30个字左右,然后把显示的标题发给他看,他才发现后面的标题都不显示。目前很多优化人员也常出现这样的问题,认为把关键词写在标题上,百度就会给予好的排名,用户就会搜索得到。这是标题的一个误区。在做标题时,一定要精简,30字简短的突出页面主要内容,而且每个页面都有自己的标题。
解决策略:对于撰写网页标题,对于一些新手来说是非常难的,不知道从哪里入手。可以从下拉框和相关搜索词找到用户最关心的话题,用简短的文字描述在标题上,一个良好的标题就诞生了。
1、session id的运用,有时蜘蛛对session id的识别可能存在偏差,导致收录多个包含不同session id的URL,而这些URL的内容却完全相同,从而产生大量重复内容,这对搜索引擎优化(SEO)极为不利。
2、除开301重定向之外,应尽量避免使用其他跳转方式,因为在黑帽SEO策略中,滥用跳转手段常被用来误导搜索引擎和用户。
3、frame的禁用。搜索引擎在抓取frame时,仅能获取其中的HTML代码,而不包含任何文字信息,这使得搜索引擎无法判断该网址的实际内容。
4、动态URL的处理,搜索引擎对静态URL更为青睐,有利于蜘蛛对网站的抓取。若必须使用动态URL,需注意避免参数过多的问题。
5、某些网站利用JS技术创造吸引人的视觉效果,但对搜索引擎而言,这往往不是一件令人愉悦的事。蜘蛛在抓取JS中的链接时存在一定的困难。
6、部分网站的内容仅限登录后查看,对于蜘蛛而言,这部分内容是无法访问到的。
7、强制使用cookies,某些网站为了保存用户信息,会强制用户启用cookies,若用户未启用cookies,页面可能会显示异常,而蜘蛛正是一个未启用cookies的用户,这会导致蜘蛛无法正常访问。
如有疑问,可点击我的名字,进入“给我留言”功能,或许我能提供更详细的解答。