采集相关文章(能否把知乎作为http下的抓取呢?(图))
优采云 发布时间: 2021-09-07 09:01采集相关文章(能否把知乎作为http下的抓取呢?(图))
采集相关文章列表是一个特别有意思的想法。每天早上六点钟,我就读取googlef1api的apispec规定的从哪个链接跳转得到相关文章列表。当然,偶尔也会手动去做这件事。上图看下。其实这篇文章是一天上午写的。服务是三个站点,两个知乎站点,还有一个公众号。知乎站点就不赘述了,这个站点是同专栏主要方向,知乎规则说明详见知乎投票规则。公众号的内容包括有用的,写的好的和能吸引读者的。
想想同其他用户的交互,可能有挺多有趣的事的。以googleform做辅助作图,把相应的链接组合在一起当作题图;知乎日报抓取当天所有回答/问题列表;等等等等。具体到实施,我自己还没有尝试过,不过还是蛮有意思的。
如果语言是python的话,构建一个抓取facebook、twitter等常见网站的脚本应该是可行的。只是可能抓取一些不常见的网站。
能否把知乎作为http下的全站抓取呢?
大公司有对应的产品,感觉应该挺高大上的,一时想不到。可以查查google、百度。
向一部分比较传统的人,提供一种新形式的了解资讯的渠道,前提是能够落地到个人,不太具有门槛化,成本低,意味着应该有长尾效应,那些读到好内容、并且养成习惯的人是存在的,做成专栏,专门培养,我想效果应该不错。比如说在纸质报纸上,电视上的一些新闻来源,收到特别重视的部分,就是很大的变化。个人见解,不代表广泛的群体!。