目录

SEO

SEO

一、SEO的核心是内容

白帽seo

黑帽SEO

网站标题,关键字,描述,

网站内容优化

wedshell工具

代码放到hear头

买网站

3w-5w,4000-5000

接单

30%,付,网上排名一个月

淘宝客-阿里妈妈淘宝联盟

销量-选词建站建 企业官方企业网站

二、确定和部署关键词

筛选完关键词后就要确定关键词,把不关联不重要的关键词删除掉,关键词堆积的基本错误坚决不能犯,部署关键词至关重要;关键词部署的规则是:

1、首页 - 最核心关键词

2、频道页 - 核心关键词

3、栏目页 - 热门关键词

4、详情页 - 长尾关键词

部署关键词时应注意一下几点:

1、网页title最多部署两个关键词;

2、同意关键词或相似关键词本鞥重复出现两次以上;

3、title长度应尽可能控制在20个汉字以内;

4、keywords、description在百度中 基本上已经没有什么权重了,但是切忌不要乱写,必须认真去写;

5、网页内容的关键词不集中堆砌,应保持在7%左右。

三、网站结构合理规划

网页结构不超过三层,这是最基本的常识,网页首页、主导航、频道、栏目之间结构要清晰分明。如果用户能清晰的浏览网站,那么搜索引擎也就能正常抓取网站。

网站结构:网页首页—》主导航—》频道—》栏目—》详情页

四、门户网站SEO与UE相结合 ##:

搜索引擎蜘蛛的抓取模式:

1、广度抓取

2、深度抓取

3、自上而下抓取

4、自左向右抓取

UE用户体验:

1、 用户从左向右浏览

2、 用户从上往下浏览

3、 用户从频道向另一个频道浏览

4、 用户从首页向详情页浏览

SEO基础知识

确保网站是可以被索引的

一些常见的页面不能被访问的原因

  1. 隐藏在需要提交的表格中的链接
  2. 不能解析的JavaScript脚本中的链接
  3. Flash、Java和其他插件中的链接
  4. PowerPoint和PDF文件中的链接
  5. 指向被meta Robtots标签、rel="NoFollow"和robots.txt屏蔽的页面的链接
  6. 页面上有上几百个链接
  7. frame(框架结构)和iframe里的链接

对于现在的网站来还有下面的原因,通过来说是因为内容是动态生成的,而不是静态的

  1. 网站通过WebSocket的方法渲染内容
  2. 使用诸如Mustache之类的JS模板引擎

什么样的网页可以被索引

  1. 确保页面可以在没有JavaScript下能被渲染。对于现在JavaScript语言的使用越来越多的情况下,在使用JS模板引擎的时候也应该注意这样的问题。
  2. 在用户禁用了JavaScript的情况下,保证所有的链接和页面是可以访问的。
  3. 确保爬虫可以看到所有的内容。那些用JS动态加载出来的对于爬虫来说是不友好的
  4. 使用描述性的锚文本的网页
  5. 限制的页面上的链接数量。除去一些分类网站、导航网站之类有固定流量,要不容易被认为垃圾网站。
  6. 确保页面能被索引。有一指向它的URL
  7. URL应该遵循最佳实践。如blog/how-to-driver有更好的可读性

在正确的地方使用正确的关键词

  1. 把关键词放URL中
  2. 关键词应该是页面的标签
  3. 带有H1标签
  4. 图片文件名、ALT属性带有关键词
  5. 页面文字
  6. 加粗文字
  7. Descripiton标签

用户需要看到多元化的搜索结果 所以对于搜索引擎来说,复制带来的结果

  1. 搜索引擎爬虫对每个网站都有设定的爬行预算,每一次爬行都只能爬行trpgr页面数
  2. 连向复制内容页面的链接也浪费了它们的链接权重
  3. 没有一个搜索引擎详细解释他们的算法怎样选择显示页面的哪个版本

链接建设 在某种意义上,这个是提高PR值,及网站流量的另外一个核心,除了内容以外的核心。

  1. 链接建设是SEO的基础部分。除非你有一个异常强大的品牌,不需要干什么就能吸引到链接。
  2. 链接建设永不停止。这是不间断营销网站的过程