From 552c8ad5e2536ddd286ee2cfc4fe7a80b54047a7 Mon Sep 17 00:00:00 2001 From: Chen Lei Date: Thu, 11 Jun 2020 11:56:27 +0800 Subject: [PATCH] Update README.md --- README.md | 14 +++++++------- 1 file changed, 7 insertions(+), 7 deletions(-) diff --git a/README.md b/README.md index 440af520..53be2f38 100644 --- a/README.md +++ b/README.md @@ -13,14 +13,14 @@ - 下载用户**原创**微博**Live Photo**中的**视频**([免cookie版](https://github.com/dataabc/weibo-crawler)特有) - 下载用户**转发**微博**Live Photo**中的**视频**([免cookie版](https://github.com/dataabc/weibo-crawler)特有)
-当然,如果你只对用户信息感兴趣,而不需要爬用户的微博,也可以通过设置实现只爬取微博用户信息的功能。
-程序也可以实现**爬取结果自动更新**,即:现在爬取了目标用户的微博,几天之后,目标用户可能又发新微博了。通过设置,可以实现每隔几天**增量爬取**用户这几天发的新微博。具体方法见[定期自动爬取微博](#定期自动爬取微博可选)。
-本程序需要设置用户cookie,以获取微博访问权限,后面会讲解如何获取cookie。如需[免cookie版](https://github.com/dataabc/weibo-crawler),大家可以访问,二者功能类似,免cookie版获取的信息更多,用法更简单,而且不需要cookie。
+如果你只对用户信息感兴趣,而不需要爬用户的微博,也可以通过设置实现只爬取微博用户信息的功能。
+本程序需要设置用户cookie,以获取微博访问权限,后面会讲解如何获取cookie。如需[免cookie版](https://github.com/dataabc/weibo-crawler),可以访问,二者功能类似。
* [获取到的字段](#获取到的字段) * [实例](#实例) * [运行环境](#运行环境) * [使用说明](#使用说明) +* [个性化定制程序(可选)](#个性化定制程序可选) * [定期自动爬取微博(可选)](#定期自动爬取微博可选) * [如何获取cookie](#如何获取cookie) * [如何获取user_id](#如何获取user_id) @@ -111,9 +111,9 @@ $ python3 -m weibo_spider ```bash $ python3 -m weibo_spider --config_path="config.json" ``` -### 4.按需求修改脚本(可选) -本部分为可选部分,如果你不需要自己修改代码或添加新功能,可以忽略此部分。
-本程序所有代码都位于weiboSpider.py文件,程序主体是一个Weibo类,上述所有功能都是通过在main函数调用Weibo类实现的,默认的调用代码如下: +## 个性化定制程序(可选) +本部分为可选部分,如果不需要个性化定制程序或添加新功能,可以忽略此部分。
+本程序主体代码位于weibo_spider.py文件,程序主体是一个Weibo类,上述所有功能都是通过在main函数调用Weibo类实现的,默认的调用代码如下: ```python config = get_config() wb = Weibo(config) @@ -174,4 +174,4 @@ $ python3 -m weibo_spider --config_path="config.json" ## 注意事项 1.user_id不能为爬虫微博的user_id。因为要爬微博信息,必须先登录到某个微博账号,此账号我们姑且称为爬虫微博。爬虫微博访问自己的页面和访问其他用户的页面,得到的网页格式不同,所以无法爬取自己的微博信息;如果想要爬取爬虫微博内容,可以参考[获取自身微博信息](https://github.com/dataabc/weiboSpider/issues/113);
-2.cookie有期限限制,超过有效期需重新更新cookie。 +2.cookie有期限限制,若提示cookie错误或已过期,需要重新更新cookie。