smarteng 发布于 2021-09-06 11:25

百度自己需要做seo吗?

开始看到这个标题我觉得好笑,百度做seo干啥?

之后细细想来,确实,百度才是seo做的最好的公司。

下面摘自之后的答案:

黄平炜:

百度的seo已经是深入骨髓了,自然而然的优化

整个信息架构都是非常有利于搜索引擎和用户体验的

就说它的百科、知道、贴吧,整个分类结构和内链等都做的非常漂亮

在百度里排名好固然是因为百度对自家产品的眷顾

但是在google里,你会发现它们的排名也是非常的好

不同就在于google做了去重...

阅读全文→

smarteng 发布于 2012-09-12 13:04

如何有效的提高关键词百度指数

百度指数是以百度网页搜索和百度新闻搜索为基础的免费海量数据分析服务,用以反映不同关键词在过去一段时间里的"用户关注度"和"媒体关注度"。您可以发现、共享和挖掘互联网上最有价值的信息和资讯,直接、客观地反映社会热点、网民的兴趣和需求。

阅读全文→

smarteng 发布于 2011-04-16 17:07

网站必须作的30条优化措施

30条优化措施,几乎等于放之四海皆准的标准,也是我对一个网站进行评估时的标准。
你也可以把这30条作为一个设计或者优化网站时的一个样板来看。

阅读全文→

smarteng 发布于 2011-04-16 17:06

改善网页设计的10个绝佳SEO建议

一个优秀的网页设计对于任何试图在网上取得成功的业务来说都是很重要的,但是如果一个网站没有机会得到好的搜索排名,那么几乎没有多少人会看到你的网站。为了避免一个网站对搜索引擎不友好,你只需要考虑一些基本的搜索引擎优化准则以及优质内容开发实践。

阅读全文→

smarteng 发布于 2011-04-01 15:32

SEO成功的网站架构

对我来说,好的网站架构是一切关于提高用户和搜索引擎怎么在你的网站找到他们的路径。在用户面前呈现最好的相关性最高的内容并且减少他们不得不点击去寻找所花的时间。通过使你的网站架构扁平化同样适用于搜索引擎。你可能在指数化衡量中有所进展,例如引起搜素引擎爬行的网页数量和在搜索引擎首页显示的网页数量。

阅读全文→

smarteng 发布于 2011-03-09 14:12

测试了一下当当的智能广告

在当当工作了半年多了,

把联盟的平台转换了,

添加了新的东西,

智能广告也已经完成,

下面是测试结果~

详情请登录 http://union.dangdang.com/ads/makesmartad  查看~

阅读全文→

smarteng 发布于 2011-01-09 09:15

网站运营策划被淡忘的关键指标

近几年无论在互联网上,还是在书店里可能在策划、设计方面关于交互设计、用户体验方面的内容比较多,包括我在面试的一些应聘人员时他们会经常会谈到其对用户体验方面的心得和经验,但是问之其在运营方面的产品规划的原则包括要求却含糊不清。。。

网站策划的目的是为了运营,以B2C网站为例,策划人员除了策划网站的前台页面之外,后台系统的策划也是必不可少的(如,产品发布模块,等某些大型网站可能会有订单处理后台、结算处理后台等),我们必须先指明关键指标的适用角色,操作后台的角色无疑是:数据录入员、订单处理人员、结算人员。

那对于他们而言是其关键指标就是:提升效率、降低差错率![break]

如何提升效率并降低差错率,就成了我这所述的网站运营策划的关键指标和原则:

原则1: 能在一个页面完成的工作,决不在两个页面实现!
其实这涉及到了一个表单的问题,通常我们在前台设计时的原则是让用户填写最少的内容,获得最满意的信息。但在后台设计时恰恰相反,多一步的保存就是对时间的损耗,多一步的页面跳转就是多增加一份差错率的几率!特别是在产品维护时,若维护一个数据需要跳转,翻山越岭才能针对那个字段进行修改,那其效率该如何保证呢?

原则2:如果可能,千万别忘记批量操作!
对于我们的顾客而言,批量操作无疑会增加顾客系统使用的学习成本,但在后台系统设计时,我们的数据操作人员应该接受过系统培训,所以不用担心学习成本问题。产品的批量操作无疑是大大节省了操作人员的时间成本;

原则3:表单的设计,应该更贴和实际业务!
通常我们在进行表单设计时,会从其整体度或其结构的逻辑性去对一个表单进行设计,但是我们千万别忽视了用户的使用习惯、操作规范、流程守则,我们的表单设计应该与实际更加贴合,举个例子,通常数据录入人员录入数据是根据产品经理给予的文件进行数据录入,那我们的表单设计则应该尽量的与文件保持一致,这样数据录入人员将大大降低录入数据时判断时间,大大增加工作效率并能在一定程度上降低差错率;

原则4:如果系统能办到,千万别用人脑!
这主要体现在功能设计上,很多功能设计时可以通过系统自动读取数据或计算数据获得,而不用人脑自动的去识别,将可大大提高其工作效率;

原则5:系统设计需切合实际,别增加工作复杂度!
很多系统设计时并不能达到完全流水线操作,还是需要人工线下操作,则需判断是否我们的系统设计是否对其线下的工作造成阻碍,最终影响实际工作运营的效率;

原则6:后台设计也需讲究美观!
很多开发人员通常都会认为后台只要能用,反正都是自己用难看点也没关系,但是我们的后台操作人员每天将花费60%以上时间花在后台的使用上,若经常使用一个及其丑陋的后台,不仅他的工作效率难以保证,久而久之其的工作心态会发生变化,从而影响到所有业务运营;

原则7:关键按钮请谨慎放置,并加以不同识别!
该原则主要适用于降低差错率,通常差错经常出与删除,批量保存时会存在较高的差错率,所以需寻找出容易出现差错的位置和功能设计,考虑其位置是否合理,提醒信息是否完备,是否可以进行颜色区分,并进行逐渐优化;

原则8:后台设计也不要忘记信息、交互和反馈!
合理的功能设计和友好设计对于效率和差错率均会有非常大的提高,小小的设计可能会起到非凡的作用;

企业做网站的目的是为了赚钱,前台负责如何建立客户群增加销售量,而后台或运营平台则注重成本的降低,两者对于企业来说都是十分重要的!

 


smarteng 发布于 2009-11-18 11:49

规范的robots.txt写法

规范的robots.txt写法要规范

网站管理者似乎对robots.txt并没有引起多大重视,应一些朋友之请求,今天想通过这篇文章来简单谈一下robots.txt的写作。

robots.txt基本介绍

robots.txt是一个纯文本文件,在这个文件中网站管理者可以声明该网站中不想被robots访问的部分,

或者指定搜索引擎只收录指定的内容。

当一个搜索机器人(有的叫搜索蜘蛛)访问一个站点时,它会首先检查该站点根目录下是否存在

robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,

那么搜索机器人就沿着链接抓取。

另外,robots.txt必须放置在一个站点的根目录下,而且文件名必须全部小写。

robots.txt写作语法[break]

首先,我们来看一个robots.txt范例:http://www.beidou365.cn/robots.txt

访问以上具体地址,我们可以看到robots.txt的具体内容如下:

# Robots.txt file from http://www.beidou365.cn
# All robots will spider the domain

User-agent: *
Disallow:

以上文本表达的意思是允许所有的搜索机器人访问www.beidou365.cn站点下的所有文件。

具体语法分析:其中#后面文字为说明信息;User-agent:后面为搜索机器人的名称,后面如果是*,则泛

指所有的搜索机器人;Disallow:后面为不允许访问的文件目录。

下面,我将列举一些robots.txt的具体用法:

允许所有的robot访问

User-agent: *
Disallow:

或者也可以建一个空文件 “/robots.txt” file

禁止所有搜索引擎访问网站的任何部分

User-agent: *
Disallow: /

禁止所有搜索引擎访问网站的几个部分(下例中的01、02、03目录)

User-agent: *
Disallow: /01/
Disallow: /02/
Disallow: /03/

禁止某个搜索引擎的访问(下例中的BadBot)

User-agent: BadBot
Disallow: /

只允许某个搜索引擎的访问(下例中的Crawler)

User-agent: Crawler
Disallow:

User-agent: *
Disallow: /

另外,我觉得有必要进行拓展说明,对robots meta进行一些介绍:

Robots META标签则主要是针对一个个具体的页面。和其他的META标签(如使用的语言、页面的描述、关

键词等)一样,Robots META标签也是放在页面的<head></head>中,专门用来告诉搜索引擎ROBOTS

如何抓取该页的内容。

Robots META标签的写法:

Robots META标签中没有大小写之分,name=”Robots”表示所有的搜索引擎,可以针对某个具体搜索引

擎写为name=”BaiduSpider”。 content部分有四个指令选项:index、noindex、follow、nofollow,

指令间以“,”分隔。

INDEX 指令告诉搜索机器人抓取该页面;

FOLLOW 指令表示搜索机器人可以沿着该页面上的链接继续抓取下去;

Robots Meta标签的缺省值是INDEX和FOLLOW,只有inktomi除外,对于它,缺省值是INDEX,NOFOLLOW。

这样,一共有四种组合:

<META NAME=”ROBOTS” CONTENT=”INDEX,FOLLOW”>
<META NAME=”ROBOTS” CONTENT=”NOINDEX,FOLLOW”>
<META NAME=”ROBOTS” CONTENT=”INDEX,NOFOLLOW”>
<META NAME=”ROBOTS” CONTENT=”NOINDEX,NOFOLLOW”>

其中

<META NAME=”ROBOTS” CONTENT=”INDEX,FOLLOW”>可以写成<META NAME=”ROBOTS” CONTENT=”

ALL”>;

<META NAME=”ROBOTS” CONTENT=”NOINDEX,NOFOLLOW”>可以写成<META NAME=”ROBOTS”

CONTENT=”NONE”>

目前看来,绝大多数的搜索引擎机器人都遵守robots.txt的规则,而对于Robots META标签,目前支持的

并不多,但是正在逐渐增加,如著名搜索引擎GOOGLE就完全支持,而且GOOGLE还增加了一个指令

“archive”,可以限制GOOGLE是否保留网页快照。例如:

<META NAME=”googlebot” CONTENT=”index,follow,noarchive”>


smarteng 发布于 2009-10-28 11:00

网站被K之后的处理——SEO

对于百度K首页的一些抢救建议!
  相信很多人碰到首页被百度K了,当然有几种情况。
  先例举下我知道的类似于百度K首页的情况:
  1、一个月之内的新站,百度一直不收录首页,其它页面收录正常;
  2、一个月以上的老站,百度以前收录正常,突然有一天site不到首页,但是直接用http://haotushu.sinaapp.com//的形式能搜索到首页;
  3、站点在百度收录一直正常,突然有一天出现了“贞子现象”,也就是首页在一天内的一段时间里在百度里出现正常排名及能够用http://haotushu.sinaapp.com//的形式能搜索到首页;[break]
  基本上我目前能想到的就现在的三种情况。
  更多的细节及相关的解决办法:
  1、百度被K首页符合以上第1种情况:一个月之内的新站,百度一直不收录首页,其它页面收录正常。
  a:出现这种情况,最大的可能性就是首页优化过度。如果网站可能有这种情况。
  建议解决办法:有必要降低首页的SEO痕迹,如清除H1标签、降低关键词密度以及对加粗标签<strong><b>等的使用次数进行降低。
  b:首页链接中有被百度降权的站点。直接用http://haotushu.sinaapp.com//的形式查首页的友情链接,看是否有记录,如果出现无记录的情况,说明百度已经K了此站(可用site:xxx.com进行再确认)或者已经对其降权。
  建议解决办法:这样的情况应该及时对降权的友情链接进行删除,否则情况严重的可能导致你的站被K!
  2、百度被K首页符合以上第2种情况:一个月以上的老站,百度以前收录正常,突然有一天site不到首页,但是直接用http://haotushu.sinaapp.com//的形式能搜索到首页。
  a:首页突然从百度消失,并持续三天以上,前提是百度基本上一周最少更新你的站两次以上(如果不是这样,那么观察期相应适当放长)。如果是三天以上你的站首页从来没有在百度site记录里出现过,那么基本上可以认为你的站已经被降权,这期间如果还出现了收录减少,并且持续减少,每天以百页数减少,这种情况下的站可能面临被K了,而且有可能表现为你的站排名并没有掉。
  建议解决办法:请首先检查你的IP下的其它站点是否有相同的情况,如果有相当部分的站点是这种情况,建议尽快换空间,这个IP可能被百度惩罚了。
  b:如果上述A情况基本相符,那么你最近一周左右的时间有增加首页的链接,而且接下来可能就出现了降权或者首页消失。
  建议解决办法:老站的链接出问题其实跟第一种情况的B类似,所以按上面的办法检查网站链接,进行清理。
  3、百度被K首页符合以上第3种情况:站点在百度收录一直正常,突然有一天出现了“贞子现象”,也就是收录及更新都很正常,首页在一天内的一段时间里在百度里出现正常排名,并能够用http://haotushu.sinaapp.com//的形式能搜索到首页。但时间一过,就site不到,用http://haotushu.sinaapp.com//的形式也不能搜索到首页。
  a:如果是一个新站,如果可以明确自己没做过SEO优化,那么很有可能是属于链接牵连,如果你有加友情链接的话,不管是链接自动交换的形式,还是自己的首页链接,都有可能导致一个新站的首页出现这样的情况。
  建议解决办法:将所有可能出现的友情链接删除,首页友情链接也清理掉。观察一周左右。因为大多数时候有可能你第一天加的链接,第二天百度对其降权,你的首页就牵连了。所以大多数SEO会建议对一个链接站进行长达半个月的观察。(我碰到过这种情况,当时做一个词,链接了一个百度排名第一的站,链接的第三天这个站被百度K掉首页,后来我的站首页直接也被K掉了,我删掉链接后,重新出现,那个原来排名第一的站一周之内就被清空了。汗~!)
  b:如果是一个老站,并且降权K首页之前有进行SEO优化,表现为修改首页TITLE,关键字布局强化,各种H系列等加重标签的增加等等,那么有可能是属于优化过度。
  建议解决办法:降低SEO程度。也许还有链接的情况,请参照a的办法。
  基本上上面的情况都有些类似,总结下来几点:
  1、新站请小心做链接,老站请定期检查链接。如果你实力不够的话,百度对其不友好的站不要跟它做链接。
  2、优化适可而行,不要太过分。百度对SEO太过分的站惩罚越来越重,特别是做那种前10全为推广的词,如果优化过度,可能直接K站,也许没有任何能挽救的机会。
  3、如果你的站是由于换空间之类的突然有间接性不能访问空间的原因引起的首页消失,想办法让你的首页更多地让百度找到,加速其对你的重新索引。
  4、如果可以肯定不是由于SEO优化过度的原因,不要在被降权的时间进行大规模的首页内容变动。如修改标题,KEYWORDS,或者进行改版等等。建议去改善你的链接及努力更新好的内容,适当找一些好的站进行交换。
  5、找时间检查你的服务器IP下站点收录的情况。有的时候邻居家里有炸弹,会把你家的房子也毁了!
  6、见机行事,在感到无力回天的时候,换域名重新再来。或者再开一个新站,老站放着,毕竟还有GG没对你进行惩罚,尽量让损失减轻。有的时候一个新站发展的机会远比你对老站进行抢救的机会要大得多。
 


smarteng 发布于 2009-10-28 10:24

如何快速找到系统瓶颈

今天去面试,有这么一个题,我觉得挺好:如何快速找到系统的瓶颈

网上的答案 :

测试人员对系统进行性能测试,目的就是为了发现系统的瓶颈,从而可以提高系统的性能,使系统能够符合用户的需求。
分析系统的瓶颈,是需要丰富的经验的,而经验是需要不断总结和积累的。
一般我们应该注意以下几个方面的经验总结:
应该系统瓶颈分析经验:对于那些拥有不同目标客户同时需要进行参数配置的产品,很多时候由于配置不正确导致系统性能不高。[break]

数据库瓶颈分析经验:数据库经常由于配置或者设计不合理产生瓶颈,通过在项目中积累经验,可以在以后的测试分析中对数据库问题快速定位。例如Oracle拥有100多个可以配置的参数,经常由于配置问题导致运行缓慢,通过积累解决这方面问题的经验,测试人员完全可以象DBA一样快速解决问题。
Web服务器分析:Web服务器和数据库服务器一样,经常由于配置不合理导致系统产生瓶颈,因此也应该总结测试中解决问题的经验,以后实习项目遇到类似的问题就可以快速解决,可省去厂商的高额技术支持成本。
操作系统及硬件:操作系统以及硬件资源也是系统产生瓶颈的根源之一,通过分析总结应用系统在不同配置环境下的表现,可以为以后的测试提供有利的参考。
可见厉害的测试人员一点不比系统分析员逊色。

 


smarteng 发布于 2009-10-13 21:40

URL长度对搜索引擎优化的影响

URL长度


搜索引擎在抓取页面时,对页面的 URL 长度存在一定的限制。对于超过限定长度的 URL 指向的页面,搜索引擎就可能放弃收录。而决定 URL 长度的主要因素包括“域名长度”、“路径长度”及“文件名长度”。[break]


4.3.1 域名长度

域名长度是指“子域名+域名名称+域名类型”所占用的字符数。例如:对于“www.pqshow.com”,子域名是“www” ,域名是“seochat”,而域名类型“org”,则域名长度为15。

4.3.2 路径长度

路径长度指文件存放路径的名称所占用的字符数,路径长度=目录1名称长度+目录2名称长度+……+目录 N 名称长度,例如:“http://www.pqshow.com/mobile/nokia/n95.htm”。其中,“/”为根目录、“mobile/”二级目录、“nokia/”为三级目录,则该页面的路径长度=1+7+6,即 14。

4.3.3 文件名长度

指文件名称所占用的字符数(包括后缀名),例如:“n95.htm”,文件名长度就是 7。

4.3.4 URL长度

综上所述,URL 长度=Internet 资源类型+域名长度+端口号+路径长度+文件名长度。例如:“http://www.pqshow.com/mobile/nokia/n95.htm”的 URL 长度=7+15+14+7,即 43。

4.3.5 URL长度的影响


搜索引擎抓取页面时,对页面的 URL 长度是有一定限制的,对于超过这个限制的页面搜索引擎就可能会放弃收录;而且,页面的 URL 越短,得到的权重就越高(详细请参考“网站结构”一章中的“目录深度”一节)。

例如:

URL A: http://www.a.com/n95.htm

URL B: http://www.a.com/mobile/nokia/n95.htm

同样的页面“n95.htm”,使用“URL A”比“URL B”能获得更高的权重。
 


smarteng 发布于 2009-10-08 22:33
    1 2