gb2312GetSiteUrl(站点地址)(规则编号)_光明网(组图)

优采云 发布时间: 2021-05-18 01:16

  gb2312GetSiteUrl(站点地址)(规则编号)_光明网(组图)

  第1步:让我们复制原创规则作为模板。例如,我今天展示的采集网站是一个名为feiku的新颖网站,然后我将复制的模板规则的副本命名为dhabc。 xml这主要是为了易于记忆。步骤2:我们在采集器中运行规则管理工具,并在打开后将其加载。我们只是将其命名为dhabc。 xml XML文件步骤3:开始正式编写规则RULEID(规则编号)这个任意的GetSiteName(站点名称)在这里我们编写GetSiteCharset(站点代码)在这里我们打开以查找字符集=该数字是我们需要我们的站点代码找到的是gb2312 GetSiteUrl(站点地址)。不用说,编写NovelSearchUrl(站点搜索地址)。根据每个网站程序的差异获得此地址。但是,有一种通用方法。通过捕获数据包获取所需的内容。尽管它是通过捕获数据包获得的,但我们如何知道所获得的正是我们想要的?看我的*敏*感*词*。首先,我们运行数据包工具并选择IEXPLORE。如果只打开一个网站,即只打开要编写规则以确保该过程中只有一个IEXPLORE的网站,则EXE进程是最好的。在此处输入EXE,我们可以看到提交的地址是/ book / search。

  Aspx,我们将获得的地址SearchKey =%C1%AB%BB%A8&SearchClass = 1&SeaButton组合起来。 x = 26&SeaButton。 y = 10,但对我们有用的是SearchKey =%C1%AB%BB%A8&SearchClass = 1此处获得的本节将用于NovelSearchData(搜索提交)中,此处将本节更改为我们想要的代码。替换本段%带有{SearchKey}的C1%AB%BB%A8,这意味着搜索提交的内容是完整的代码,即SearchKey = {SearchKey}&SearchClass = 1然后我们测试它是否正确。经过测试,我们获得的内容是正确的NovelListUrl(最新的站点列表地址),由于每个站点都不相同,因此我不再赘述。您需要自己查找FEIKU NovelList_GetNovelKey(从最新列表中获取小说编号。在此规则中,您可以同时获取书名。手动获取书名。如果要使用手动模式,则必须获取书名,否则将无法使用手动模式。)我们打开此地址可以查看源文件。编写此规则时,我们会找到要获取内容的地方。例如,我们打开地址。我看到想要获得的内容的第一本小说的名字叫李迪承德。我们在源文件中找到了用于编写规则的代码。其实不多。我写规则的原则是保存或保存。也就是说,代码越短越好,除非绝对必要,否则代码越短越好。href =“。

  云莱格。净/图书/ 149539 /索引。 html“ target =” _ blank“>站点为怪物href =”。云来阁。净/图书/(\ d *)/索引。 html“ target =” _ blank“>(。+?)。这意味着该小说的名称已经过正确测试。如果仅单击小说,就很容易找到NovelUrl(小说信息页面的地址),例如,我们可以看到这本小说,让我们在中间更改编号并随意更改它。我们得到的错误标记是找不到该编号的书籍信息!10. NovelName(查看源代码以获取名称我们可以从固定模式开始,例如刚打开的站点。对于Mo的小说,我们看到他的固定小说名称格式为“ Site into a Devil”,然后我们找到“ Site into a Devil”源代码中的“。我们得到的内容是

  “进入恶魔之地”

  我们更改此段

  “(。+?)”

  以下NovelAuthor(获得小说作者)LagerSort(获得小说类别)SmallSort(获得小说类别)NovelIntro(获得小说简介)NovelKeyword(获得小说主角(关键字))NovelDegree(获得写作过程)NovelCover(获得小说)(小说)封面)我不会证明这些与上述获取小说名称的方法相同,因此称为通行证。有时由于格式不固定,此处不使用某些获得的内容,并且某些内容只能先使用。获取并使用过滤器功能过滤掉过滤器的用法。我会说1 1. NovelInfo_GetNovelPubKey(获取新颖的公共目录页面的地址),该地址的获取方法与上述相同。在这里我将不解释12 PubIndexUrl(公共目录页面)地址)让我解释一下它的用法。通常在知道采集目标站的动态地址时使用。如果您不知道对方的动态地址,请在此输入{NovelPubKey}。如果您知道该工作站的动态路径,例如小说的章节目录的动态地址,则PubIndexUrl的规则为{NovelKey} /Index.aspx 1 3. PubVolumeSplit(拆分子卷)。在编写的地方,需要注意拆分子卷的规则性,否则可能会对以下章节名称产生很大影响。在这里,我们获得了分割部分的代码。根据我的经验,找到第一个子卷和随后的子卷以检查它们的共同点。我们分析该目录。本章中的源代码表明它们有一个共同点。用这一段来说明

  对权力的追求

  \ s * \ s *表示与任何白色字符匹配的匹配项,包括空格,制表符,分页符等。也就是说,无论它们之间有多少空格,它们都可以用来表示14 PubVolumeName(获取卷名称)要获取准确的子卷名称,上述拆分部分的规则性必须正确。通常,拆分部分的子卷名称在块的顶部。我们解释说使用了分割部分

  对权力的追求

  如果您关注此段,您会发现它收录我们要在此步骤中获取的子卷名称。让我们更改代码

  (。+?)

  \ s *在我们的测试下,我们可以正常获取子体积,但是通常会在过滤规则中将其过滤掉。 PubChapterName(获取章节名称)让我们以一段来说明强大的驯服方法。对于这种时间,日期和更新字数,我们直接忽略它,因为这些不是我们想要的。有人问为什么我在这里没用。 ()在此附上,让我告诉您,我们得到的内容就是()中的内容。如果不是您想要的,但是在编写规则时必须使用它,我们可以稍微更改一下表达式。让我们更改以上段落并将其更改为表达式(。+?),以正常获取内容。你们觉得这个规则有点尴尬吗?这是因为中间有一个换行符。我没有更改代码。我们使用\ s *来表示换行符,我们修改后的代码是(。+?)现在更好了吗?经过测试,获取内容也是正常的。没有问题。 16. PubChapter_GetChapterKey(获取章节地址(章节编号))在此说明,其中的章节编号在下面的PubContentUrl(章节内容页面地址)中使用。通常用于了解目标站的动态地址。通常,当目标站未知时不使用它。因此,在这里我们需要获取章节地址分析以获取(。

  +?)由于这里是获取章节地址的原因,为什么我们仍然使用章节名称?这主要是为了避免获得的章节名称和获得的章节地址不匹配。这就是说写下一章的数字实际上没有问题,只需对其稍作更改(。+?)。将其更改为此,让我们对其进行测试并查看,然后对其进行更改以获取该数字。仅在知道目标站的动态地址时才能获得该编号。最多使用17个。PubContentUrl(章节内容页面地址)上面获得的章节地址中有解释。这是要知道目标。这是如何使用它。 149539这是新颖的数字。在这里,我们使用{NovelKey}代替3790336。这是在PubChapter_GetChapterKey中获得的章节。对于编号,我们使用{ChapterKey}而不是{NovelKey} / {ChapterKey}的组合。 ASPX是我们动态的章节地址!!!请记住,前提是您知道另一方的动态地址。如果您不知道对方的动态地址,那么我们在PubContentUrl(章节内容页面地址)中写的是{ChapterKey}18。PubContentText(获取章节内容)这种获取方法与获取章节名称相同。这没有解释。现在我们解释一下过滤的用法。这很简单。过滤是删除不需要的过滤器。一个地方是介绍章节名称子卷名和所获得的新颖章节内容。但是,章节内容是替代功能。简介章节名称子卷名称暂时没有替换规则。例如,我们获得的子卷称为text(),但是我们在子卷中时,只想获取文本的两个单词,然后在此处使用过滤器。过滤器的格式是过滤后的内容|过滤器中每个过滤器内容的中间使用|分隔介绍章节名称。过滤器子卷的名称是相同的,例如,据说当我们获得作者的名字时,书的内容中就有额外的内容。作者因其href =“ / Author / WB / 149539。”而随风而散。

  html“>有些(有些)没有,因此我们不需要使用本书的作者\ *(。+?)首先获取内容。根据规则,我们获取的内容为href =” /作者/ WB / 149539。 html“>随风而散,我们要保留在本段中。随风而散,让我们这样做,因为它是固定的,因此只需添加href =” / Author / WB / 149539。 html“>这是一个更改。让我们对其进行更改,并将其更改为常规格式href =” / Author / WB / \ d *。 html“>就是这样,我们添加过滤器href =” / Author / WB / \ d * \。 html“> |内容是这样的。现在让我们讨论章节内容的替换。章节内容替换规则每行替换一次,格式如下。需要替换的内容替换为结果

  这意味着过滤

  这意味着替换。例如,在此站中有单词“ Feiku”的图片。我们应该做什么?在这里,我们使用替换。

  替换内容仅在章节内容中有用。这专用于章节内容。有人问为什么我采集某个电台的章节总是空的。原因可能是空白的章节。可能是目标站刚刚重新启动。网站您的采集 IP被阻止,等等。在这里,我想解释一下,空的章节是由图片章节引起的。 采集器的采集内容的操作步骤将首先检查采集的章节是否为图片章节。如果您的PubContentImages(从章节内容中提取图片)的规律性不正确,请检查您的采集文本内容PubContentText(获取章节内容)是否为常规匹配If PubContentImages(从章节内容中提取图片)PubContentText(获取章节内容)没有匹配的内容,那么我们上面所说的空白章节的原因就会出现。编写完规则后,让我们测试规则是否可以正常获得。内容测试表明,我们编写的规则通常可以获取所需的内容

0 个评论

要回复文章请先登录注册


官方客服QQ群

微信人工客服

QQ人工客服


线