<tbody id='s79sjk6x'></tbody>
<tfoot id='okfyui24'></tfoot>

<small id='4qh56s5c'></small><noframes id='cllxvqkh'>

  • <legend id='9nue15p8'><style id='36cvns4z'><dir id='cnx3fp0i'><q id='42cmfwed'></q></dir></style></legend>

      1. <i id='9fzk16cy'><tr id='jdjq5m2z'><dt id='jmddlr25'><q id='gzheqr0l'><span id='efnixflp'><b id='1cnyqqa4'><form id='jquffha8'><ins id='jtxsxu6d'></ins><ul id='6apssxsz'></ul><sub id='zce7wtjy'></sub></form><legend id='k7raxe45'></legend><bdo id='9heofvdn'><pre id='3t6cp3fh'><center id='31s0wu74'></center></pre></bdo></b><th id='ve927oy3'></th></span></q></dt></tr></i><div id='s7dsb0lo'><tfoot id='1d1k2fsv'></tfoot><dl id='rsa15hxp'><fieldset id='3w0h2ztl'></fieldset></dl></div>
        网站建设公司当前位置 : 网站建设公司 > 知识普及

        个人网站SEO-小总结

        发布时间:2021-09-29 11:01   浏览次数:次   
        最近在对自己的小说网站做seo,发现遇到了很多挺无奈的事情,中间也碰到了很多问题,这篇博客记录了对自己网站seo这过程,稍微做了下总结,希望对大家有所帮助,避免过多的进坑。
        前段时间,感觉自己太穷了,总想着有没什么办法可以在业余时间挣点外快,于是想到了做个小说网站好了,靠打点广告挣点钱。于是,说开动就开动,把我累的,想找小伙伴一起,一个个的都说没有时间,好吧!我自己搞,一坚持,两个月都快过去了,网站现在已经上线了,大家可以去看看
        虫子小说 :http://www.cznovel.com
        新事物:http://www.v2tn.com
        如果喜欢看小说,欢迎常光顾,哈哈~。
        小说资源都收集于网上,做了侵权声明,如果侵权的话,联系我,我会马上处理。
        好了不多说,接下来说说对该网站的SEO吧
        SEO即搜索引擎优化,简单的说,就是让百度、google、360等搜索引擎,可以发现我们的网站,让别人在搜索某些关键词时,能够展现出我们的网站,从而让用户有机会访问我们的网站。
        以下内容主要以百度站长为例。
         
        1.到各大站长平台中提交我们的网站
        这里以国内三大搜索引擎为例
        百度站长:http://zhanzhang.baidu.com
        360站长:http://zhanzhang.so.com
        搜狗站长:http://zhanzhang.sogou.com
        其中搜狗站长属于最坑的,很难被收录,即使提交了好多次,依然没有用,那只好等着吧。我们主要把重心放在百度站长上面。
        在站长平台注册账户,进网站所有权验证,必须要经过备案的域名,方可认证,否则我也没办法了。
        当然你也可以不需要注册,也能提交,不过很多功能你就无法享受到了,比如sitemap、主动推送、自动推送等等,后面会具体介绍。
        无注册情况提交
        具体示例
        如:http://www.cznovel.com/type/1/detail/8152
        如果没有被百度收录,则得到如下结果:
         
         
        此时我们地点击**“提交网站”**
        根据情况,填写相关信息即可,不过提交可不一定会收录,那要看网站的质量。
        质量判定:通常重代码结构、访问速度等方便进行评估,其中原创最为重要,如果网站上的内容都是原创的,百度的蜘蛛就会非常喜欢,收录可能性非常大。因为我的小说网站大部分内容都是从网上爬来的,原创度上就会很低很低,这也是我很苦恼的地方。导致了提交的上万个链接都无法被收录。(好吧!我慢慢优化吧)
        **注:**网络爬虫(又被称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。
         
        以下2,3,4都需要在百度站长注册成功,进行网站验证后才可进行操作。
        2.主动推送
        百度站长提供了主动提交的方式,详情可参考之前这篇文章,里面详细介绍了使用java进行百度的主动推送:http://blog.csdn.net/it_faquir/article/details/76284330
        如有疑问请留言。
         
        3.自动推送
        只需要在head中添加相应的脚本即可。
        代码获取:百度站长——>链接提交——>自动推送 在下面将会展现自动推送的代码,代码每个人的都是相同的,具体代码如下:
         
        <script>
        (function(){
            var bp = document.createElement('script');
            var curProtocol = window.location.protocol.split(':')[0];
            if (curProtocol === 'https') {
                bp.src = 'https://zz.bdstatic.com/linksubmit/push.js';        
            }
            else {
                bp.src = 'http://push.zhanzhang.baidu.com/push.js';
            }
            var s = document.getElementsByTagName("script")[0];
            s.parentNode.insertBefore(bp, s);
        })();
        </script>
        1
        2
        3
        4
        5
        6
        7
        8
        9
        10
        11
        12
        13
        14
        4.sitemap生成与提交
        sitemap方式提交,百度会周期性的抓取检查您提交的Sitemap,对其中的链接进行处理,但收录速度慢于主动推送。
        百度提供支持了三种sitemap的格式,一种是txt文档,另外两只为xml文档,但格式不同。具体可详情百度提供的参考文档:http://zhanzhang.baidu.com/college/courseinfo?id=267&page=2#h2_article_title19
        三种格式都有各自遵循的规则
         
        第一种txt格式:
        · 文本文件每行都必须有一个网址。网址中不能有换行。
        · 不应包含网址列表以外的任何信息。
        · 您必须书写完整的网址,包括 http。
        · 每个文本文件最多可包含 50,000 个网址,并且应小于10MB(10,485,760字节)。如果网站所包含的网址超过 50,000 个,则可将列表分割成多个文本文件,然后分别添加每个文件。
        · 文本文件需使用 UTF-8 编码或GBK编码。
         
        第二种和第三种xml格式:
        若有多条url,按照上述格式重复之间的片断,列明所有url地址,打包到一个xml文件,向站长平台进行提交。
         
        以上三种sitemap必须遵循的规则:
        第一,一个Sitemap文件包含的网址不得超过 5 万个,且文件大小不得超过 10 MB。如果您的Sitemap超过了这些限值,请将其拆分为几个小的Sitemap。这些限制条件有助于确保您的网络服务器不会因提供大文件而超载。
        重点内容
        第二,一个站点支持提交的sitemap文件个数必须小于5万个,多于5万个后会不再处理,并显示“链接数超”的提示。
         
        第三,如果验证了网站的主域,那么Sitemap文件中可包含该网站主域下的所有网址。
         
        这里以其中一种xml的文件生成方式为例,利用java进行批量生成。
        形如格式如下:
         
        <?xml version="1.0" encoding="utf-8"?>
        <!-- XML文件需以utf-8编码-->
        <urlset>
        <!--必填标签-->
            <url>
                <!--必填标签,这是具体某一个链接的定义入口,每一条数据都要用<url>和</url>包含在里面,这是必须的 -->
            <loc>http://www.yoursite.com/yoursite.html</loc>
                <!--必填,URL链接地址,长度不得超过256字节-->
                <lastmod>2009-12-14</lastmod>
                <!--可以不提交该标签,用来指定该链接的最后更新时间-->
                <changefreq>daily</changefreq>
                <!--可以不提交该标签,用这个标签告诉此链接可能会出现的更新频率 -->
                <priority>0.8</priority>
                <!--可以不提交该标签,用来指定此链接相对于其他链接的优先权比值,此值定于0.0-1.0之间-->
            </url>
            <url>
             <loc>http://www.yoursite.com/yoursite2.html</loc>
                <lastmod>2010-05-01</lastmod>
                <changefreq>daily</changefreq>
                <priority>0.8</priority>
            </url>
        </urlset>
        1
        2
        3
        4
        5
        6
        7
        8
        9
        10
        11
        12
        13
        14
        15
        16
        17
        18
        19
        20
        21
        22
        在java中可以利用dom4j这个xml工具包进行生成xml文档
        导入相关Maven声明
         
                <!-- https://mvnrepository.com/artifact/dom4j/dom4j -->
                <dependency>
                    <groupId>dom4j</groupId>
                    <artifactId>dom4j</artifactId>
                    <version>1.6.1</version>
                </dependency>
        1
        2
        3
        4
        5
        6
        其具体生成代码示例
         
         public void createSitemap() throws Exception {
                List<String> allNovelUrl = new ArrayList<>();
                for (int i = 0; i < 10; i++) {
                    List<Integer> novelIdList = baseDao.getNovelIdList(i, 0, 40000);
                    for (Integer id : novelIdList)
                        allNovelUrl.add("http://www.cznovel.com/type/" + i + "/detail/" + id);
                }
                Document document = DocumentHelper.createDocument();
                Element rootElement = createElement("urlset");
                for (int i = 0; i < allNovelUrl.size(); i++) {
                    Element node1_0_url = createElement("url");
                    Element node2_0_loc = createElement("loc");
                    Element node2_1_lastmod = createElement("lastmod");
                    Element node2_2_freq = createElement("changefreq");
                    Element node2_3_priority = createElement("priority");
                    node2_0_loc.addText(allNovelUrl.get(i));
                    node2_1_lastmod.addText("2017-08-15");
                    node2_3_priority.addText("1");
                    node2_2_freq.setText("weekly");
                    node1_0_url.add(node2_0_loc);
                    node1_0_url.add(node2_3_priority);
                    node1_0_url.add(node2_1_lastmod);
                    node1_0_url.add(node2_2_freq);
                    rootElement.add(node1_0_url);
                }
                document.add(rootElement);
                OutputFormat format = new OutputFormat("", true);
                format.setEncoding("UTF-8");//设置编码格式
                XMLWriter xmlWriter = new XMLWriter(new FileOutputStream("C:\\Users\\Administrator\\Desktop\\Sitemap.xml"), format);
                xmlWriter.write(document);
                xmlWriter.close();
            }
        1
        2
        3
        4
        5
        6
        7
        8
        9
        10
        11
        12
        13
        14
        15
        16
        17
        18
        19
        20
        21
        22
        23
        24
        25
        26
        27
        28
        29
        30
        31
        32
        其中allNovelUrl里存放着所有小说url,主要用于设置其中某个字段的值。点击运行即可将sitemap文档生成在桌面上,名字为Sitemap.xml。
        可以看如下生成的效果内容片断:
         
        <urlset>
        <url>
        <loc>http://www.cznovel.com/type/0/detail/1</loc>
        <priority>1</priority>
        <lastmod>2017-08-15</lastmod>
        <changefreq>weekly</changefreq>
        </url>
        <url>
        <loc>http://www.cznovel.com/type/0/detail/2</loc>
        <priority>1</priority>
        <lastmod>2017-08-15</lastmod>
        <changefreq>weekly</changefreq>
        </url>
        <url>
        <loc>http://www.cznovel.com/type/0/detail/3</loc>
        <priority>1</priority>
        <lastmod>2017-08-15</lastmod>
        <changefreq>weekly</changefreq>
        </url>
        <url>
        <loc>http://www.cznovel.com/type/0/detail/4</loc>
        <priority>1</priority>
        <lastmod>2017-08-15</lastmod>
        <changefreq>weekly</changefreq>
        </url>
          ......
        <urlset>
        1
        2
        3
        4
        5
        6
        7
        8
        9
        10
        11
        12
        13
        14
        15
        16
        17
        18
        19
        20
        21
        22
        23
        24
        25
        26
        27
        生成好文档后,即可进行提交,入口:
        链接提交——>自动提交——>sitemap
         
        本人小说网站sitemap示例url: http://www.cznovel.com/sitemaps/sitemap-detail.xml
         
        5.外联
        这个简单,但比较耗时,算是一个累活吧。将我们的页面URL到各大网站上去发表,如百度贴吧、新浪微博、腾讯微博、博客,对于格式没有具体的要求,重点把你的链接发不去,这样百度收录该网站的页面时就会爬取到其中了链接,可以大大增加百度的收录,当然还是要看质量。
         
        6.蜘蛛池
        说白了,蜘蛛池就是一堆由垃圾域名组成的站群,在每个站点下都生成海量页面(抓一堆文本内容相互组合),页面模板与正常网页没多大区别。由于每个站点都有海量的页面,所以整个站群的蜘蛛总抓取量也是巨大的。给未收录的页面引蜘蛛,就是在站群正常网页的模板中单独开一个DIV,塞上未收录网页的链接,服务器不设缓存,蜘蛛每次访问,这块DIV中展现的链接都是不一样的。
        说到这你应该明白了,其实就是给那些未收录的页面,在短时间内提供大量的真实的外链,入口曝光多了,被抓取几率就大,收录率自然也就上去了,又因为是外链,所以在排名上也有一定的正向加分。说到底,蜘蛛池的做的就是外链,所谓日发外链300万,并不是不可能实现的。比如第一个例子中做搜索外推的,就是在站群的网页中挂了一堆大中型网站搜索结果页的链接。
         
      2. <tfoot id='5xgy8h7w'></tfoot>

            <legend id='fq6supcw'><style id='1173f2q7'><dir id='u44ykfzf'><q id='hhed8scw'></q></dir></style></legend>

            <small id='ulc06ta9'></small><noframes id='w6sssduy'>

            <i id='26yto04g'><tr id='ykmeejfx'><dt id='u45a0lvx'><q id='zwst6opg'><span id='p2xc57qz'><b id='duwjd3g3'><form id='3ttdeztt'><ins id='rssy80ie'></ins><ul id='blte1klc'></ul><sub id='06a8nrq0'></sub></form><legend id='zgrontyi'></legend><bdo id='dfqgv41w'><pre id='1xgstbj1'><center id='amjxwafv'></center></pre></bdo></b><th id='hql6jipg'></th></span></q></dt></tr></i><div id='pssjl187'><tfoot id='uq6m6fbm'></tfoot><dl id='20ce2mer'><fieldset id='t1wkl9j4'></fieldset></dl></div>
                <tbody id='kwdq4zho'></tbody>

              本文来源于网络,若有侵权请联系3449817223#qq.com,将在第一时间删除。

              下一篇公众号开发下一篇:个人网站seo技巧
                <tfoot id='6d1bqtj3'></tfoot>
                <i id='le5y7v83'><tr id='pun3nphc'><dt id='xrd0esr2'><q id='55judrfn'><span id='p88t8o0x'><b id='emu7qe5z'><form id='jys3aphr'><ins id='cxf7g5ov'></ins><ul id='hxh92ss8'></ul><sub id='527iuuzy'></sub></form><legend id='q8tj3m4g'></legend><bdo id='8ectunfr'><pre id='3q6w861y'><center id='ngmod7ep'></center></pre></bdo></b><th id='ligocmuh'></th></span></q></dt></tr></i><div id='1jd20d6f'><tfoot id='ak84o4wo'></tfoot><dl id='rdc7xmcw'><fieldset id='gtubba34'></fieldset></dl></div>
              1. <legend id='h6ewi50d'><style id='1z9d926k'><dir id='64adc553'><q id='88ifglm7'></q></dir></style></legend>

                  <tbody id='dobehlz7'></tbody>
                • <small id='ovugsxkw'></small><noframes id='w0ygj629'>