文章定时自动采集公众号做了这么一个东西
优采云 发布时间: 2021-06-27 03:01文章定时自动采集公众号做了这么一个东西
文章定时自动采集公众号以往的文章链接,复制发布到自己的python接口服务器。或者把部分链接发布到youtube上供感兴趣的读者直接feed化阅读,也可以放在github上面供star。github:,
很多年以前,曾经特别希望能把某领域的专业杂志收集起来收藏。所以我花了一点时间,建了一个仓库,名字是「知识树」。我花了一年的时间,把中国所有各领域的杂志做了一个集中收集整理,并交给中国知网,以及某些外国的、中国大陆不能访问的网站保存起来。所以做了这么一个东西,我相信可以部分满足你的需求。看下我认为目前做得不好的地方:标签还需要一些定义。
主要是「撰写稿件」的义务,另外你将需要将数据流编码到标签内。仓库的全文版本后端是相对复杂的bootstrap。缺少一些基本的api处理请求结果。仓库中有好些电子期刊的期刊名,我认为存在一些设计上的bug。预览目前还不完整。未来我们会在应用上追求更完整。总之,我的期刊采用这种原生标签的方式,主要是怕标签太繁琐,不利于搜索。但如果要从数据中获取一些信息,还是不可或缺。目前仓库还没开放下载,不能保证完整性,先到先得。
完全可以用。为什么不试试收藏长文章的方式。思考的过程跟上面大家不一样,我是一边读一边做笔记,然后分享到问答社区。读完再根据问题去回答。