科学的方法:定时任务书写规范

优采云 发布时间: 2022-12-11 06:19

  科学的方法:定时任务书写规范

  定时任务

  时间:2021-06-09

  本次文章为大家介绍了定时任务,主要包括定时任务使用示例、应用技巧、基础知识点总结和注意事项。具有一定的参考价值,需要的朋友可以参考一下。

  什么是定时任务

  1. 定时任务:固定时间,或者周期性的执行一项任务

2. 定时软件可以每天每小时按需求重复的执行一项工作

3. 用法:

- 用户定时任务:

- cron ——是软件名

- crond ——是服务进程名

- crontab ——命令是用来设置定时任务规则的配置命令

- 系统定时任务:系统自动执行,不用人为干预

- /etc/cron.daily/logrotate /etc/logrotate.conf

### 计划任务主要分为以下两种使用情况:

系统级别的定时任务: 临时文件清理、系统信息采集、日志文件切割

用户级别的定时任务: 定时向互联网同步时间、定时备份系统配置文件、定时备份数据库的数据

定时文件位置 /var/log/cron

  定时任务编写规范

  1. crontab ——定时任务(存放位置:/var/spool/cron/)

- -l ——查看已有的定时任务

- -e ——编辑定时任务

- -u user——查看指定用户的定时任务

- -r ——删除

- -i 删除需要确认

2. 语法:

- 第一列:分 minute (0-59)

- 第二列:时 hour (0-23)

- 第三列:日 day (1-31)

- 第四列:月 month (1-12)

- 第五列:周 week (0-6)

- 第六列:要执行的任务或程序

3. 特殊符号:

<p>

* ---表示每

- 一个连续的区间

, ——表示分割时段

/n ——n是任意数字,表示每隔n单位时间

定时任务中,百分号%要加反斜线转意

</p>

  定时任务规范:

  1. 为定时任务加必要的注释(什么任务、什么时间、谁执行)

2. 所有定时任务尽量以脚本形式运行

3 .通过查找/var/log/cron中执行的记录,去推算任务执行的时间

4. 执行shell脚本前加上/bin/sh

5. 定时任务中命令和脚本的结尾加上 >/dev/null 2>& (尽量避免输出) 或者 &>/dev/null

6. 在指定的用户下执行相关的定时任务

7. 生产任务计划程序中不要随意打印输出信息

8. 定时任务执行的脚本要存放在规范路径下/server/scripts

9. 配置定时任务要规范操作过程,减少出错

10. 定时任务中程序命令及路径尽量用全路径

11. 时间变量%百分号要用反斜线转义(只有定时任务里是命令时需要)

12. 若脚本中调用了系统环境变量,要重新定义

13. 定时任务出错或无法执行,就检查/var/log/cron 日志

  实践

  考试题:每天晚上00点10分,打包备份如下文件(/etc/rc.local,/var/spool/cron/root,/etc/hosts),

使用2021-06-09时间作为压缩包文件名的一部分,备份到/backup目录下。

1)命令行命令搞定

mkdir /backup -p

tar zcf /backup/conf_$(date +%F).tar.gz /etc/rc.local /var/spool/cron/root /etc/hosts

ls /backup/

2)写定时任务

10 00 * * * /bin/tar zcf /backup/conf_$(date +%F).tar.gz /etc/rc.d/rc.local /var/spool/cron/root /etc/hosts

上述操作是有问题。

定时任务书写要领:

1)定时任务后面执行的命令不能有百分号,如果非要有就转义 \%

2)定时任务尽量用脚本(命令放到文件里)。脚本结尾加.sh

<p>

3)/bin/sh 脚本全路径

4)结尾记得 &>/dev/null或者>/dev/null 2>&1

生产写定时任务步骤:

1)命令行命令搞定

mkdir /server/scripts/ -p #脚本存放地

mkdir /backup -p

tar zcf /backup/conf_$(date +%F).tar.gz /etc/rc.local /var/spool/cron/root /etc/hosts (#软链接记得czfh)

ls /backup/

2)放入文件

[root@oldboy scripts]# cat tar.sh

/bin/tar zcf /backup/conf_$(date +%F).tar.gz /etc/rc.local /var/spool/cron/root /etc/hosts

3)命令行执行脚本

/bin/sh /server/scripts/tar.sh

4)编辑定时任务

[root@oldboy scripts]# crontab -l|tail -2

#####

10 00 * * * /bin/sh /server/scripts/tar.sh &>/dev/null

5)测试

测试过程最好【线下测试环境】

/bin/sh /server/scripts/tar.sh

真正观察结果。调节每分钟。

#就是用命令转义实现:

* * * * * /bin/tar zcf /backup/conf_$(date +\%F).tar.gz /etc/rc.d/rc.local /var/spool/cron/root /etc/hosts

#调试方法

>/var/log/cron #清空日志便于观察

[root@oldboy scripts]# ls /backup/

conf_2030-06-09.tar.gz

[root@oldboy scripts]# grep tar /var/log/cron

Jun 9 00:21:01 oldboy CROND[2549]: (root) CMD (/bin/tar zcf /backup/conf_$(date +%F).tar.gz /etc/rc.d/rc.local /var/spool/cron/root /etc/hosts)

Jun 9 00:22:01 oldboy CROND[2566]: (root) CMD (/bin/tar zcf /backup/conf_$(date +%F).tar.gz /etc/rc.d/rc.local /var/spool/cron/root /etc/hosts)

##遇到问题

/var/log/cron看日志

百度下

</p>

  专业知识:Seo网络培训:怎么做好seo优化,使网站排名长期稳定?

  网站优化总会看到网站的排名,但是网站的排名总会有很大的波动,这让很多网站优化人员都感到很苦恼。所以今天的seo网络培训就是教大家如何做好优化,让网站排名长期稳定。

  seo网络培训:如何做好seo优化才能让网站排名长期稳定?

  1. 简单明了的网站结构

  蜘蛛爬行相当于遍历网页的有向图,所以一个简单明了、结构化的网站一定是它喜欢的,尽量保证蜘蛛的可读性。

  (1)树形结构的最优结构为“首页-频道-详情页”;

  (2)扁平化首页到详情页的层级尽量少,这样对爬取友好,能够很好的传递权重。

  (3) 网络保证每个页面至少有一个文本链接指向它,这样网站可以尽可能全面地被抓取收录,内链建设也可以对排行。

  (4) 导航 在每个页面添加一个导航,方便用户知道路径。

  

  (5) 子域和目录的选择相信很多站长对此都有疑惑。我们认为,当内容较少,内容相关性高时,建议以目录的形式实现,有利于权重的继承和收敛;当内容较多,与主站关联性稍差时,建议以子域的形式实现。

  2.简单美观的url规则

  (1) 唯一性网站中的相同内容页面只对应一个url。过多的url会分散页面的权重,目标url可能会在系统中被过滤掉;

  (2) 简洁性 动态参数尽量少,url尽量短;

  (3)美学使用户和机器能够通过url判断页面内容;我们推荐如下url:url尽量短,易读,方便用户快速理解,例如目录名用拼音;同样的内容在系统只生成一个唯一的对应的url,去掉无意义的参数;如果无法保证url的唯一性,尝试对目标url做不同形式的url 301;防止用户输入错误的备用域名301为主域名。

  3. 网站高质量结构

  网站结构也会在一定程度上影响网站的排名。搜索引擎和用户在 网站 中浏览时肯定会受到 网站 结构的影响。如果网站的结构不好,用户和搜索引擎在浏览时或多或少都会出现一定的问题。比如网站的导航无法引导用户浏览,用户无法在网站中准确找到自己需要的信息。

  4. 放弃 采集文章

  

  现在搜索引擎一直在强调网站的用户体验,如果一个网站有很多采集文章,那么这个网站的用户体验肯定不高,一个网站长期没有用户,或者网站的跳出率高,网站里面有很多伪原创或者直接采集 文章,肯定会影响网站的排名。遵循高质量的 原创文章 是稳定 网站 排名的关键。

  5. 适度优化

  很多人在进行网站优化时或多或少都有急功近利的想法,很容易导致网站过度优化。网站过度优化是很多网站排名下降的关键。网站过度优化的可能性有很多。可能是关键词堆砌,也可能是网站链接过度优化。网站优化要适度、规律、循序渐进,制定高质量的网站计划,有效防止过度。

  六、其他注意事项

  (1) 不要忽略倒霉的机器人文件。默认情况下,某些系统机器人是禁止被搜索引擎抓取的。网站建立后,及时查看并写入相应的robots文件。网站日常维护时也要注意定期检查;

  (2)制作网站站点地图文件和死链接文件,并及时通过百度站长平台提交;

  (3) 部分电商网站存在区域跳转问题。如果没有库存,建议建立一个统一的页面,并在页面中标记是否有库存。如果该区域没有库存,请不要返回无效页面,因为蜘蛛导出的限制会使正常页面无法收录。

  要想做好SEO优化,让网站的排名更加稳定,就必须做好上述工作。这三方面的工作可以在很大程度上帮助网站在优化的道路上总有不足之处。希望所有的企业在进行网站优化的时候,要想稳定网站的排名,一定要做到自然优化。希望今天的seo网络培训对大家有所帮助!

0 个评论

要回复文章请先登录注册


官方客服QQ群

微信人工客服

QQ人工客服


线