Scrapy介绍及入门

开发者社区.png

一、Scrapy简介

    Scrapy是一个为了爬取网站数据,提取结构性数据而编写的应用框架。 可以应用在包括数据挖掘,信息处理或存储历史数据等一系列的程序中。
    其最初是为了页面抓取 (更确切来说, 网络抓取 )所设计的, 也可以应用在获取API所返回的数据(例如 Amazon Associates Web Services ) 或者通用的网络爬虫。

二、架构概览

1. Scrapy Engine

    引擎负责控制数据流在系统中所有组件中流动,并在相应动作发生时触发事件。 详细内容查看下面的数据流(Data Flow)部分。此组件相当于爬虫的“大脑”,是整个爬虫的调度中心。

2. 调度器(Scheduler)

    调度器从引擎接受request并将他们入队,以便之后引擎请求他们时提供给引擎。
    初始的爬取URL和后续在页面中获取的待爬取的URL将放入调度器中,等待爬取。同时调度器会自动去除重复的URL(如果特定的URL不需要去重也可以通过设置实现,如post请求的URL)
3. 下载器(Downloader)
    下载器负责获取页面数据并提供给引擎,而后提供给spider。
4. Spiders
    Spider是Scrapy用户编写用于分析response并提取item(即获取到的item)或额外跟进的URL的类。 每个spider负责处理一个特定(或一些)网站。
5. Item Pipeline
    Item Pipeline负责处理被spider提取出来的item。典型的处理有清理、 验证及持久化(例如存取到数据库中)。
    当页面被爬虫解析所需的数据存入Item后,将被发送到项目管道(Pipeline),并经过几个特定的次序处理数据,最后存入本地文件或存入数据库。
6. 下载器中间件(Downloader middlewares)
    下载器中间件是在引擎及下载器之间的特定钩子(specific hook),处理Downloader传递给引擎的response。 其提供了一个简便的机制,通过插入自定义代码来扩展Scrapy功能。通过设置下载器中间件可以实现爬虫自动更换user-agent、IP等功能。
7. Spider中间件(Spider middlewares)
    Spider中间件是在引擎及Spider之间的特定钩子(specific hook),处理spider的输入(response)和输出(items及requests)。 其提供了一个简便的机制,通过插入自定义代码来扩展Scrapy功能。
8. 数据流(Data flow)
    1) 引擎打开一个网站(open a domain),找到处理该网站的Spider并向该spider请求第一个要爬取的URL(s)。
    2) 引擎从Spider中获取到第一个要爬取的URL并在调度器(Scheduler)以Request调度。
    3) 引擎向调度器请求下一个要爬取的URL。
    4) 调度器返回下一个要爬取的URL给引擎,引擎将URL通过下载中间件(请求(request)方向)转发给下载器(Downloader)。
    5) 一旦页面下载完毕,下载器生成一个该页面的Response,并将其通过下载中间件(返回(response)方向)发送给引擎。
    6) 引擎从下载器中接收到Response并通过Spider中间件(输入方向)发送给Spider处理。
    7) Spider处理Response并返回爬取到的Item及(跟进的)新的Request给引擎。
    8) 引擎将(Spider返回的)爬取到的Item给Item Pipeline,将(Spider返回的)Request给调度器。
    9) (从第二步)重复直到调度器中没有更多地request,引擎关闭该网站。Scrapy介绍及入门_第1张图片

三、创建项目

    在开始抓取之前,你必须建立一个新的零碎项目。输入要在其中存储代码并运行的目录:
image.png
    创建了一个tutorial目录包含以下内容:
            Scrapy介绍及入门_第2张图片

四、创建第一只spider

    爬行器是定义的类,Scrapy使用它从一个网站(或一组网站)中抓取信息。它们必须是子类 Spider 并定义要做出的初始请求,可选的是如何跟随页面中的链接,以及如何解析下载的页面内容以提取数据。
    创建第一只spider的代码。将其保存在tutorial/spiders 项目命名文件为quotes_spider.py中:
      Scrapy介绍及入门_第3张图片
    Spider子类 scrapy.Spider 并定义了一些属性和方法:
    name :标识spider。它在一个项目中必须是唯一的,即不能为不同的爬行器设置相同的名称。
    start_requests() :必须返回请求的可迭代(可以返回请求列表或编写生成器函数),爬行器将从该请求开始爬行。后续请求将从这些初始请求中相继生成。
    parse() :将被调用以处理为每个请求下载的响应的方法。Response参数是 TextResponse 它保存页面内容,并具有进一步有用的方法来处理它。
    这个 parse() 方法通常解析响应,将抓取的数据提取为字典,还查找要遵循的新URL并创建新请求 (Request )。
    运行创建的spider,此命令运行我们刚刚添加的spider quotes,这将发送一些 quotes.toscrape.com 领域。将得到类似于以下内容的输出:
Scrapy介绍及入门_第4张图片
    现在,检查当前目录中的文件。您应该注意到已经创建了两个新文件: quotes-1.html 和 quotes-2.HTML, 将各个URL的内容作为 parse 方法指示。
                Scrapy介绍及入门_第5张图片

五、提取数据

    scrappy提取数据的最佳方法是使用 Scrapy shell :
Scrapy介绍及入门_第6张图片
Scrapy介绍及入门_第7张图片
    使用shell,可以尝试使用 CSS 对于响应对象:
image.png
    要从上述标题中提取文本,可以执行以下操作:
          image.png
    这里有两件事需要注意:一是我们已经添加了 ::text 对于CSS查询,意味着我们只想直接选择内部的文本元素 元素。如果我们不指定 ::text ,我们将获得完整的title元素,包括其标记:<br>            <span class="img-wrap"><a href="https://img.it610.com/image/info9/c46cda15f6c945df9f7710f56687061c.jpg" target="_blank"><img class="lazy" alt="image.png" title="image.png" src="https://img.it610.com/image/info9/c46cda15f6c945df9f7710f56687061c.jpg" width="338" height="37"></a></span><br>    另一件事是呼叫的结果 .getall() 是一个列表:选择器可能返回多个结果,因此我们提取所有结果。只想要第一个结果时,如本例所示:<br>            <span class="img-wrap"><a href="https://img.it610.com/image/info9/12efa07a84904955b88463aada0d7163.jpg" target="_blank"><img class="lazy" alt="image.png" title="image.png" src="https://img.it610.com/image/info9/12efa07a84904955b88463aada0d7163.jpg" width="337" height="37"></a></span><br>    作为替代,可以写下:<br>            <span class="img-wrap"><a href="https://img.it610.com/image/info9/06604821fc10429a937a0dbf1c643392.jpg" target="_blank"><img class="lazy" alt="image.png" title="image.png" src="https://img.it610.com/image/info9/06604821fc10429a937a0dbf1c643392.jpg" width="348" height="37"></a></span><br>    使用 .get() 直接在A上 SelectorList 实例避免了 IndexError 回报 None 当它找不到任何与所选内容匹配的元素时。<br>    除 getall() 和 get() 方法以外,也可以使用 re() 提取方法 regular expressions :<br>      <span class="img-wrap"><a href="https://img.it610.com/image/info9/5b4aeb32da6e4413bde42d787c5cb236.jpg" target="_blank"><img class="lazy" alt="Scrapy介绍及入门_第8张图片" title="image.png" src="https://img.it610.com/image/info9/5b4aeb32da6e4413bde42d787c5cb236.jpg" width="471" height="133" style="border:1px solid black;"></a></span><br>    除 CSS外 ,scrapy选择器也支持使用 XPath 表达<br>  <span class="img-wrap"><a href="https://img.it610.com/image/info9/f79566ea54c342faa6068265cad76c02.jpg" target="_blank"><img class="lazy" alt="image.png" title="image.png" src="https://img.it610.com/image/info9/f79566ea54c342faa6068265cad76c02.jpg" width="538" height="80"></a></span><br>    XPath表达式是非常强大的,是抓取选择器的基础。实际上,CSS选择器在引擎盖下转换为xpath。xpath表达式提供了更多的功能,因为除了导航结构之外,它还可以查看内容。使用xpath,您可以选择如下内容:<em>选择包含文本“下一页”</em>的链接,这使得xpath非常适合于抓取任务。</p> <h4><strong>六、提取引用和作者</strong></h4> <p>    编写代码从网页中提取引号来完成spider程序。<a href="https://link.segmentfault.com/?url=http%3A%2F%2Fquotes.toscrape.com" rel="nofollow">http://quotes.toscrape.com</a>中的每个引号都由如下所示的HTML元素表示:<br><span class="img-wrap"><a href="https://img.it610.com/image/info9/d601f1271efb45f7bab7a7ca43d931b5.jpg" target="_blank"><img class="lazy" alt="Scrapy介绍及入门_第9张图片" title="image.png" src="https://img.it610.com/image/info9/d601f1271efb45f7bab7a7ca43d931b5.jpg" width="553" height="252" style="border:1px solid black;"></a></span><br>    打开Scrapy Shell并提取所需数据:<br><span class="img-wrap"><a href="https://img.it610.com/image/info9/07df342f821a4bb390491d75e932f828.jpg" target="_blank"><img class="lazy" alt="image.png" title="image.png" src="https://img.it610.com/image/info9/07df342f821a4bb390491d75e932f828.jpg" width="554" height="66"></a></span><br>    得到了一个quote HTML元素的选择器列表,其中包括:<br><span class="img-wrap"><a href="https://img.it610.com/image/info9/3e98f8ca4a29431ca2b3cf707867c8d7.jpg" target="_blank"><img class="lazy" alt="Scrapy介绍及入门_第10张图片" title="image.png" src="https://img.it610.com/image/info9/3e98f8ca4a29431ca2b3cf707867c8d7.jpg" width="553" height="202" style="border:1px solid black;"></a></span><br>    上面查询返回的每个选择器都允许对其子元素运行进一步的查询。将第一个选择器分配给一个变量,这样我们就可以直接在特定的引号上运行CSS选择器:<br>          <span class="img-wrap"><img class="lazy" alt="image.png" title="image.png" src="https://img.it610.com/image/info9/b7881e782ebc491583e3c47874d82263.jpg" width="384" height="27"></span><br>    提取 text , author以及 tags,其中tags是字符串列表,我们可以使用 .getall() 方法获取所有这些参数:<br><span class="img-wrap"><a href="https://img.it610.com/image/info9/242aa09c58c7482292bbba9a6f9cbb9e.jpg" target="_blank"><img class="lazy" alt="Scrapy介绍及入门_第11张图片" title="image.png" src="https://img.it610.com/image/info9/242aa09c58c7482292bbba9a6f9cbb9e.jpg" width="553" height="140" style="border:1px solid black;"></a></span><br>    提取每个位之后,迭代所有的quotes元素,并将它们放在Python字典中:<br><span class="img-wrap"><a href="https://img.it610.com/image/info9/3c76ee96f2f94fe6a6e45a323ede3561.jpg" target="_blank"><img class="lazy" alt="Scrapy介绍及入门_第12张图片" title="image.png" src="https://img.it610.com/image/info9/3c76ee96f2f94fe6a6e45a323ede3561.jpg" width="553" height="250" style="border:1px solid black;"></a></span><br>    在spider中提取数据,使用 yield 回调response中的python关键字,如下所示:<br><span class="img-wrap"><a href="https://img.it610.com/image/info9/b4e57f2311bf444d9dcb805f9b55906f.jpg" target="_blank"><img class="lazy" alt="Scrapy介绍及入门_第13张图片" title="image.png" src="https://img.it610.com/image/info9/b4e57f2311bf444d9dcb805f9b55906f.jpg" width="553" height="340" style="border:1px solid black;"></a></span><br>    存储抓取的数据,最简单方法是使用 Feed exports ,使用以下命令:<br><span class="img-wrap"><a href="https://img.it610.com/image/info9/359b0a2f280a480cb305eb9a53f7e4c2.jpg" target="_blank"><img class="lazy" alt="Scrapy介绍及入门_第14张图片" title="image.png" src="https://img.it610.com/image/info9/359b0a2f280a480cb305eb9a53f7e4c2.jpg" width="553" height="171" style="border:1px solid black;"></a></span><br>    这将生成一个 quotes.json 包含所有抓取的项目的文件,序列化在JSON。<br><span class="img-wrap"><a href="https://img.it610.com/image/info9/4b8532b880fa43aeb21c501e69fb8011.jpg" target="_blank"><img class="lazy" alt="Scrapy介绍及入门_第15张图片" title="image.png" src="https://img.it610.com/image/info9/4b8532b880fa43aeb21c501e69fb8011.jpg" width="553" height="236" style="border:1px solid black;"></a></span><br>    这个 -O 命令行开关覆盖任何现有文件;使用 -o 而是将新内容附加到任何现有文件中。但是,附加到JSON文件会使文件内容无效JSON。附加到文件时,请考虑使用不同的序列化格式,例如 JSON Lines ::<br><span class="img-wrap"><a href="https://img.it610.com/image/info9/5ddd5502f27f4a7ca561c83f0a693392.jpg" target="_blank"><img class="lazy" alt="image.png" title="image.png" src="https://img.it610.com/image/info9/5ddd5502f27f4a7ca561c83f0a693392.jpg" width="553" height="83"></a></span><br><span class="img-wrap"><a href="https://img.it610.com/image/info9/35c86eb91e3d4e88a54bedb9219a7236.jpg" target="_blank"><img class="lazy" alt="Scrapy介绍及入门_第16张图片" title="image.png" src="https://img.it610.com/image/info9/35c86eb91e3d4e88a54bedb9219a7236.jpg" width="553" height="231" style="border:1px solid black;"></a></span><br>    JSON Lines 类似于流,可以很容易地向它附加新记录。当运行两次时,它不存在相同的JSON问题。另外,由于每个记录都是单独的一行,可以处理大文件,而不必将所有内容都放入内存中,因此有如下工具: JQ以帮助在命令行中执行此操作。<br>    从网站上所有页面的引用抓取内容。从页面中跟踪链接第一件事是提取到要跟踪的页面的链接。检查页面,可以看到有一个链接指向下一个带有以下标记的页面:<br><span class="img-wrap"><a href="https://img.it610.com/image/info9/3cb19808030943f3809056d015e8b59f.jpg" target="_blank"><img class="lazy" alt="Scrapy介绍及入门_第17张图片" title="image.png" src="https://img.it610.com/image/info9/3cb19808030943f3809056d015e8b59f.jpg" width="553" height="154" style="border:1px solid black;"></a></span><br>    在外壳中提取:<br><span class="img-wrap"><a href="https://img.it610.com/image/info9/ba080de11b89452586f6e5be58b04699.jpg" target="_blank"><img class="lazy" alt="image.png" title="image.png" src="https://img.it610.com/image/info9/ba080de11b89452586f6e5be58b04699.jpg" width="554" height="37"></a></span><br>    获取到anchor元素,但需要该属性href ,Scrapy支持CSS扩展,允许选择属性内容,如下所示:<br>      <span class="img-wrap"><a href="https://img.it610.com/image/info9/dc16f7b650de454aa0b0083a4cc60cd7.jpg" target="_blank"><img class="lazy" alt="image.png" title="image.png" src="https://img.it610.com/image/info9/dc16f7b650de454aa0b0083a4cc60cd7.jpg" width="414" height="38"></a></span><br>    还有一个 attrib 可用属性<br>       <span class="img-wrap"><a href="https://img.it610.com/image/info9/62b89cf8aca748f3a25848f56b1c969f.jpg" target="_blank"><img class="lazy" alt="image.png" title="image.png" src="https://img.it610.com/image/info9/62b89cf8aca748f3a25848f56b1c969f.jpg" width="404" height="36"></a></span><br>    将spider被修改为递归地跟踪下一页的链接,从中提取数据:<br><span class="img-wrap"><a href="https://img.it610.com/image/info9/995cbc52b095442fa3d00498d7124de0.jpg" target="_blank"><img class="lazy" alt="Scrapy介绍及入门_第18张图片" title="image.png" src="https://img.it610.com/image/info9/995cbc52b095442fa3d00498d7124de0.jpg" width="553" height="451" style="border:1px solid black;"></a></span><br>    在提取数据之后, parse() 方法查找到下一页的链接,并使用 urljoin() 方法(因为链接可以是相对的),并生成对下一页的新请求,将自身注册为回调,以处理下一页的数据提取,并保持爬行在所有页中进行。<br>    scrapy的以下链接机制:在回调方法中生成一个请求时,scrapy将计划发送该请求,并注册一个回调方法,以便在该请求完成时执行。<br>    使用它可以构建复杂的爬虫程序,这些爬虫程序根据定义的规则跟踪链接,并根据所访问的页面提取不同类型的数据。<br>    示例中,创建了一种循环,跟踪到下一页的所有链接,直到找不到一个为止——这对于爬行博客、论坛和其他带有分页的站点很方便。</p> <h4><strong>七、创建请求的快捷方式</strong></h4> <p>    作为创建请求对象的快捷方式,可以使用 response.follow ::<br>    <span class="img-wrap"><a href="https://img.it610.com/image/info9/a6b984bce8ec4ba897a4b63b58abee39.jpg" target="_blank"><img class="lazy" alt="Scrapy介绍及入门_第19张图片" title="image.png" src="https://img.it610.com/image/info9/a6b984bce8ec4ba897a4b63b58abee39.jpg" width="472" height="318" style="border:1px solid black;"></a></span><br>    不像Scrapy.Request, response.follow 直接支持相对URL-无需调用URLJOIN。注意 response.follow 只返回一个请求实例;仍然需要生成这个请求。<br>    也可以将选择器传递给 response.follow 而不是字符串;此选择器应提取必要的属性:<br>    <span class="img-wrap"><a href="https://img.it610.com/image/info9/7a146816001c4fea8bdb17bc62c776fc.jpg" target="_blank"><img class="lazy" alt="image.png" title="image.png" src="https://img.it610.com/image/info9/7a146816001c4fea8bdb17bc62c776fc.jpg" width="474" height="47"></a></span><br>    为了元素有一个快捷方式: response.follow 自动使用其href属性。因此代码可以进一步缩短:<br>        <span class="img-wrap"><a href="https://img.it610.com/image/info9/6481302eb4bd48d08ab37f22e3fcc585.jpg" target="_blank"><img class="lazy" alt="image.png" title="image.png" src="https://img.it610.com/image/info9/6481302eb4bd48d08ab37f22e3fcc585.jpg" width="415" height="46"></a></span><br>    要从iterable创建多个请求,可以使用 response.follow_all 取而代之的是:<br>    <span class="img-wrap"><a href="https://img.it610.com/image/info9/a552a5fc8d854967b76c143980fd5ce1.jpg" target="_blank"><img class="lazy" alt="image.png" title="image.png" src="https://img.it610.com/image/info9/a552a5fc8d854967b76c143980fd5ce1.jpg" width="472" height="45"></a></span><br>    进一步缩短:<br><span class="img-wrap"><img class="lazy" alt="image.png" title="image.png" src="https://img.it610.com/image/info9/bc56bb2d6e4d430b861ebfcfbabdbe0d.jpg" width="542" height="29"></span><br>    另一个spider,演示回调和以下链接,抓取作者信息:<br><span class="img-wrap"><a href="https://img.it610.com/image/info9/d42c5187d3e545f1a0e01ddee6382c64.jpg" target="_blank"><img class="lazy" alt="Scrapy介绍及入门_第20张图片" title="image.png" src="https://img.it610.com/image/info9/d42c5187d3e545f1a0e01ddee6382c64.jpg" width="553" height="392" style="border:1px solid black;"></a></span><br><span class="img-wrap"><img class="lazy" alt="image.png" title="image.png" src="https://img.it610.com/image/info9/c90d8f4e23024d69a6783dfffdbe3cf0.jpg" width="554" height="30"></span><br><span class="img-wrap"><a href="https://img.it610.com/image/info9/41dca7a5113149b984e7e8413ec1f667.jpg" target="_blank"><img class="lazy" alt="Scrapy介绍及入门_第21张图片" title="image.png" src="https://img.it610.com/image/info9/41dca7a5113149b984e7e8413ec1f667.jpg" width="553" height="126" style="border:1px solid black;"></a></span><br>    这个spider将从主页开始,跟踪所有指向作者页面的链接,调用 parse_author 它们的回调,以及与 parse 像我们以前看到的那样回拨。<br>    在这里,我们将回调传递给 response.follow_all 作为位置参数,以使代码更短;它还适用于 Request 。<br>    这个 parse_author 回调定义了一个助手函数,用于从CSS查询中提取和清理数据,并用作者数据生成python dict。<br>    这个spider展示的另一个有趣的事情是,即使同一作者引用了很多话,我们也不需要担心多次访问同一作者页面。默认情况下,scrapy过滤掉对已经访问过的URL的重复请求,避免了由于编程错误而太多地访问服务器的问题。这可以通过设置进行配置 DUPEFILTER_CLASS .</p> <h4><strong>八、使用spider参数</strong></h4> <p>    通过使用 -a 运行它们时的选项:<br><span class="img-wrap"><img class="lazy" alt="image.png" title="image.png" src="https://img.it610.com/image/info9/ca5804773f354d90ae99ca3a808d10ab.jpg" width="553" height="26"></span><br>    这些论点被传给spider <strong>init</strong> 方法并默认成为spider属性。<br>    在本例中,为 tag 参数将通过 self.tag 。可以使用它的spider只获取带有特定标记的引号,并基于以下参数构建URL::<br>    <span class="img-wrap"><a href="https://img.it610.com/image/info9/aec31ed1956f4044b5ca05dd799946d8.jpg" target="_blank"><img class="lazy" alt="Scrapy介绍及入门_第22张图片" title="image.png" src="https://img.it610.com/image/info9/aec31ed1956f4044b5ca05dd799946d8.jpg" width="500" height="406" style="border:1px solid black;"></a></span><br>    如果你通过 tag=humor 对于这个spider,您会注意到它只访问来自 humor 标记,如 <a href="https://link.segmentfault.com/?url=http%3A%2F%2Fquotes.toscrape.com%2Ftag%2Fhumor" rel="nofollow">http://quotes.toscrape.com/ta...</a> .</p> </article> </div> </div> </div> <!--PC和WAP自适应版--> <div id="SOHUCS" sid="1434716771167883264"></div> <script type="text/javascript" src="/views/front/js/chanyan.js"></script> <!-- 文章页-底部 动态广告位 --> <div class="youdao-fixed-ad" id="detail_ad_bottom"></div> </div> <div class="col-md-3"> <div class="row" id="ad"> <!-- 文章页-右侧1 动态广告位 --> <div id="right-1" class="col-lg-12 col-md-12 col-sm-4 col-xs-4 ad"> <div class="youdao-fixed-ad" id="detail_ad_1"> </div> </div> <!-- 文章页-右侧2 动态广告位 --> <div id="right-2" class="col-lg-12 col-md-12 col-sm-4 col-xs-4 ad"> <div class="youdao-fixed-ad" id="detail_ad_2"></div> </div> <!-- 文章页-右侧3 动态广告位 --> <div id="right-3" class="col-lg-12 col-md-12 col-sm-4 col-xs-4 ad"> <div class="youdao-fixed-ad" id="detail_ad_3"></div> </div> </div> </div> </div> </div> </div> <div class="container"> <h4 class="pt20 mb15 mt0 border-top">你可能感兴趣的</h4> <div id="paradigm-article-related"> <div class="recommend-post mb30"> <ul class="widget-links"> <li><a href="/article/13.htm" title="github中多个平台共存" target="_blank">github中多个平台共存</a> <span class="text-muted">jackyrong</span> <a class="tag" taget="_blank" href="/search/github/1.htm">github</a> </li> <li><a href="/article/140.htm" title="ip地址与整数的相互转换(javascript)" target="_blank">ip地址与整数的相互转换(javascript)</a> <span class="text-muted">alxw4616</span> <a class="tag" taget="_blank" href="/search/JavaScript/1.htm">JavaScript</a> </li> <li><a href="/article/267.htm" title="读书笔记-jquey+数据库+css" target="_blank">读书笔记-jquey+数据库+css</a> <span class="text-muted">chengxuyuancsdn</span> <a class="tag" taget="_blank" href="/search/html/1.htm">html</a><a class="tag" taget="_blank" href="/search/jquery/1.htm">jquery</a><a class="tag" taget="_blank" href="/search/oracle/1.htm">oracle</a> </li> <li><a href="/article/394.htm" title="javaSE javaEE javaME == API下载" target="_blank">javaSE javaEE javaME == API下载</a> <span class="text-muted">Array_06</span> <a class="tag" taget="_blank" href="/search/java/1.htm">java</a> </li> <li><a href="/article/521.htm" title="shiro入门学习" target="_blank">shiro入门学习</a> <span class="text-muted">cugfy</span> <a class="tag" taget="_blank" href="/search/java/1.htm">java</a><a class="tag" taget="_blank" href="/search/Web/1.htm">Web</a><a class="tag" taget="_blank" href="/search/%E6%A1%86%E6%9E%B6/1.htm">框架</a> </li> <li><a href="/article/648.htm" title="Array添加删除方法" target="_blank">Array添加删除方法</a> <span class="text-muted">357029540</span> <a class="tag" taget="_blank" href="/search/js/1.htm">js</a> </li> <li><a href="/article/775.htm" title="navigation bar 更改颜色" target="_blank">navigation bar 更改颜色</a> <span class="text-muted">张亚雄</span> <a class="tag" taget="_blank" href="/search/IO/1.htm">IO</a> </li> <li><a href="/article/902.htm" title="unicode转换成中文" target="_blank">unicode转换成中文</a> <span class="text-muted">adminjun</span> <a class="tag" taget="_blank" href="/search/unicode/1.htm">unicode</a><a class="tag" taget="_blank" href="/search/%E7%BC%96%E7%A0%81%E8%BD%AC%E6%8D%A2/1.htm">编码转换</a> </li> </ul> </div> </div> </div> <div> <div class="container"> <div class="indexes"> <strong>按字母分类:</strong> <a href="/tags/A/1.htm" target="_blank">A</a><a href="/tags/B/1.htm" target="_blank">B</a><a href="/tags/C/1.htm" target="_blank">C</a><a href="/tags/D/1.htm" target="_blank">D</a><a href="/tags/E/1.htm" target="_blank">E</a><a href="/tags/F/1.htm" target="_blank">F</a><a href="/tags/G/1.htm" target="_blank">G</a><a href="/tags/H/1.htm" target="_blank">H</a><a href="/tags/I/1.htm" target="_blank">I</a><a href="/tags/J/1.htm" target="_blank">J</a><a href="/tags/K/1.htm" target="_blank">K</a><a href="/tags/L/1.htm" target="_blank">L</a><a href="/tags/M/1.htm" target="_blank">M</a><a href="/tags/N/1.htm" target="_blank">N</a><a href="/tags/O/1.htm" target="_blank">O</a><a href="/tags/P/1.htm" target="_blank">P</a><a href="/tags/Q/1.htm" target="_blank">Q</a><a href="/tags/R/1.htm" target="_blank">R</a><a href="/tags/S/1.htm" target="_blank">S</a><a href="/tags/T/1.htm" target="_blank">T</a><a href="/tags/U/1.htm" target="_blank">U</a><a href="/tags/V/1.htm" target="_blank">V</a><a href="/tags/W/1.htm" target="_blank">W</a><a href="/tags/X/1.htm" target="_blank">X</a><a href="/tags/Y/1.htm" target="_blank">Y</a><a href="/tags/Z/1.htm" target="_blank">Z</a><a href="/tags/0/1.htm" target="_blank">其他</a> </div> </div> </div> <footer id="footer" class="mb30 mt30"> <div class="container"> <div class="footBglm"> <a target="_blank" href="/">首页</a> - <a target="_blank" href="/custom/about.htm">关于我们</a> - <a target="_blank" href="/search/Java/1.htm">站内搜索</a> - <a target="_blank" href="/sitemap.xml">Sitemap</a> - <a target="_blank" href="/custom/delete.htm">侵权投诉</a> </div> <div class="copyright">版权所有 IT知识库 CopyRight © 2000-2050 IT知识库 IT610.com , All Rights Reserved. <a href="https://beian.miit.gov.cn/" rel="nofollow" target="_blank">京ICP备09083238号</a><br> </div> </div> </footer> <!-- 代码高亮 --> <script type="text/javascript" src="/static/syntaxhighlighter/scripts/shCore.js"></script> <script type="text/javascript" src="/static/syntaxhighlighter/scripts/shLegacy.js"></script> <script type="text/javascript" src="/static/syntaxhighlighter/scripts/shAutoloader.js"></script> <link type="text/css" rel="stylesheet" href="/static/syntaxhighlighter/styles/shCoreDefault.css"/> <script type="text/javascript" src="/static/syntaxhighlighter/src/my_start_1.js"></script> </body> </html>