Mayx's Home Page https://mabbs.github.io
You can not select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.

78 lines
4.7 KiB

  1. ---
  2. layout: post
  3. title: 使用Python制作可热载的定时调度器
  4. tags: [Python, 程序, 标志]
  5. ---
  6. 定时任务用CRON难道不够吗?<!--more-->
  7. # 起因
  8. 最近因为写的Python脚本比较多,另外也有好多脚本都是定时运行的脚本,然后Linux自带的CRON可能不是很直观,不然为什么那么多人开发CRON表达式生成器😂,另外CRON不能和脚本绑定到一起,也不能在Windows上使用,所以就想用Python来实现一个。
  9. 当然如果只是想用Python为一个程序做一个定时任务还是很简单的,不想用CRON也能直接用一个死循环if判断时间来做,比如想要每小时什么时候执行,那就不停的判断,直到那个时间到了以后然后去执行就好了。不过很多个脚本都用这种方法的话就显得太凌乱了,想要停止哪个脚本还不太好整,所以写一个定时调度器来统一管理所有的定时脚本也许会更好一些。
  10. # 探索过程
  11. 其实我最开始是想着把CRON表达式放到脚本里,然后让管理器像配置文件那样读取它,不过我自己解析CRON表达式有点麻烦,一时也没找到好的办法。不过在找这个东西的时候找到了一个有意思的库,叫做[schedule](https://github.com/dbader/schedule),用pip就能安装。它可以用类似自然语言的语法结构去写定时语句,看起来很有意思,于是我就打算用这个库来写我的调度器。
  12. 写它不算很复杂,这个库还是挺方便理解的,比据说Python常用的什么APScheduler那个库好用多了,那个玩意看着就不怎么人性化。功能很快就写好了,但是有个问题,就是既然我要写一个可以热载(自动重加载)的调度器,用什么办法监视文件比较好呢?最开始我实现的时候是想着用列出目录和stat方法来读取文件的元数据,然后轮询,如果内容有变化就进行重载。不过这样写起来也麻烦,准确来说也不算准确,而且性能也不怎么好,还要轮询,文件一多整个程序的执行效率就会变低。然后我想着之前我用的Django好像就有这样的功能,它到底用的是什么方法呢?一般我们运行Django项目的时候它第一句会写“Watching for file changes with StatReloader”,那看来StatReloader就是它用来监视文件的模块,听这名字怎么和我之前想的差不多😂,另外也没有找到叫这个名字的库,所以就算了,我还是搜一下找找别的库吧。后来我找到了一个看起来不错的库,叫做watchdog,看起来好像用法也不算很复杂,而且据说是用的内核的什么东西来监测,性能比轮询好很多,所以我就整了这个库,感觉效果还不错,可靠性也很好,文件一有修改程序就会检测到然后进行重载。
  13. # 代码
  14. ## 管理器
  15. ```python
  16. import threading
  17. import time
  18. import schedule
  19. import os
  20. import importlib
  21. from watchdog.observers import Observer
  22. from watchdog.events import *
  23. reload_status = [0]
  24. def run_threaded(job_func):
  25. job_thread = threading.Thread(target=job_func)
  26. job_thread.start()
  27. class FileEventHandler(FileSystemEventHandler):
  28. def __init__(self, reload_status):
  29. self.reload_status = reload_status
  30. def on_any_event(self, event):
  31. if not event.is_directory:
  32. self.reload_status[0] = 1
  33. observer = Observer()
  34. event_handler = FileEventHandler(reload_status)
  35. observer.schedule(event_handler, "tasks", recursive=False)
  36. observer.start()
  37. while True:
  38. reload_status[0] = 0
  39. taskList = os.listdir("tasks")
  40. for task in taskList:
  41. if "__" in task or task.rsplit(".", 1)[-1] != "py":
  42. continue
  43. try:
  44. importlib.reload(importlib.import_module("tasks." + task.split(".")[0])).run(run_threaded, schedule)
  45. except:
  46. print(f"Task {task.split('.')[0]} import failure")
  47. while True:
  48. if reload_status[0]:
  49. print("Task change, reloading...")
  50. time.sleep(1)
  51. schedule.clear()
  52. break
  53. else:
  54. schedule.run_pending()
  55. time.sleep(1)
  56. ```
  57. ## 被管理脚本示例
  58. ```python
  59. def run(run_threaded, schedule):
  60. schedule.every().second.do(run_threaded, job)
  61. def job():
  62. print("The job is running.")
  63. ```
  64. 注:脚本应该放到管理器所在文件夹下的“tasks”文件夹,具体定时的写法可以看看[schedule官方示例](https://schedule.readthedocs.io/en/stable/examples.html)。
  65. # 感想
  66. 感觉程序果然还是写的越简单越好,功能也是越单一越好。据说APScheduler是用Python实现的像Java的Quartz那样的东西,看着就很难受,像我这个50行写的管理器看起来还挺不错的吧😁。

Powered by TurnKey Linux.