企业网络营销
整体解决方案供应商

全国咨询热线:4008925101

页面长度过长,也会导致不收录?

最近院长收到一个非常典型的抓取优化例子,整理一下分享给各位,各位站长们谨记不要出现相同的情况:

站点反馈:


网站主体内容都是js生成,针对用户访问,没有做优化;但是网站特针对爬虫抓取做了优化,且将图片也直接做了base64转化;然而优化后发现内容却不被百度收录。


页面质量很好,还特意针对爬虫做了优化,为什么内容反而不收录了呢?


工程师分析:


1、网站针对爬虫爬取做的优化,直接将图片二进制内容放到了html中导致页面长度过长,网站页面长度达164k;


2、 站点优化后将主体内容放于最后,图片却放于前面;


3、爬虫抓取内容后,页面内容过长被截断,已抓取部分无法识别到主体内容,最终导致页面被认定为空短而不收录。


工程师建议:


1、不建议站点使用js生成主体内容,如js渲染出错,很可能导致页面内容读取错误,页面无法抓取


2、 如站点针对爬虫爬取做优化,建议页面长度在128k之内,不要过长


3、针对爬虫爬取做优化,请将主题内容放于前方,避免抓取截断造成的内容抓取不全


  • 关注创搜
  • 扫描二维码
  • 关注公众号
  • 常州网络公司,常州网站建设,常州网络推广,创搜软件,CCTV品牌加油站
         
  • 地址:常州市新北区高新科技园10号楼东楼2楼
  • 电话:4008925101
  • 邮箱:Service@0519see.com
版权所有: 江苏创搜软件有限公司 ©Copyright ©2015 www.jscsrj.com All Rights Reserved 苏ICP备17006714号-7
 
QQ咨询
QQ在线咨询
售前咨询热线
4008925101
售后咨询热线
15151942373