449 lines
		
	
	
		
			16 KiB
		
	
	
	
		
			Go
		
	
	
	
	
	
			
		
		
	
	
			449 lines
		
	
	
		
			16 KiB
		
	
	
	
		
			Go
		
	
	
	
	
	
| package task
 | ||
| 
 | ||
| import (
 | ||
| 	"encoding/json"
 | ||
| 	"errors"
 | ||
| 	"sync"
 | ||
| 	"time"
 | ||
| 
 | ||
| 	"git.huangwc.com/pig/pig-farm-controller/internal/infra/logs"
 | ||
| 	"git.huangwc.com/pig/pig-farm-controller/internal/infra/models"
 | ||
| 	"git.huangwc.com/pig/pig-farm-controller/internal/infra/repository"
 | ||
| 	"github.com/panjf2000/ants/v2"
 | ||
| 	"gorm.io/gorm"
 | ||
| )
 | ||
| 
 | ||
| // ProgressTracker 仅用于在内存中提供计划执行的并发锁
 | ||
| type ProgressTracker struct {
 | ||
| 	mu           sync.Mutex
 | ||
| 	cond         *sync.Cond    // 用于实现阻塞锁
 | ||
| 	runningPlans map[uint]bool // key: planExecutionLogID, value: true (用作内存锁)
 | ||
| }
 | ||
| 
 | ||
| // NewProgressTracker 创建一个新的进度跟踪器
 | ||
| func NewProgressTracker() *ProgressTracker {
 | ||
| 	t := &ProgressTracker{
 | ||
| 		runningPlans: make(map[uint]bool),
 | ||
| 	}
 | ||
| 	t.cond = sync.NewCond(&t.mu)
 | ||
| 	return t
 | ||
| }
 | ||
| 
 | ||
| // TryLock (非阻塞) 尝试锁定一个计划。如果计划未被锁定,则锁定并返回 true。
 | ||
| func (t *ProgressTracker) TryLock(planLogID uint) bool {
 | ||
| 	t.mu.Lock()
 | ||
| 	defer t.mu.Unlock()
 | ||
| 	if t.runningPlans[planLogID] {
 | ||
| 		return false // 已被锁定
 | ||
| 	}
 | ||
| 	t.runningPlans[planLogID] = true
 | ||
| 	return true
 | ||
| }
 | ||
| 
 | ||
| // Lock (阻塞) 获取一个计划的执行锁。如果锁已被占用,则会一直等待直到锁被释放。
 | ||
| func (t *ProgressTracker) Lock(planLogID uint) {
 | ||
| 	t.mu.Lock()
 | ||
| 	// 当计划正在运行时,调用 t.cond.Wait() 会原子地解锁 mu 并挂起当前协程。
 | ||
| 	// 当被唤醒时,它会重新锁定 mu 并再次检查循环条件。
 | ||
| 	for t.runningPlans[planLogID] {
 | ||
| 		t.cond.Wait()
 | ||
| 	}
 | ||
| 	// 获取到锁
 | ||
| 	t.runningPlans[planLogID] = true
 | ||
| 	t.mu.Unlock()
 | ||
| }
 | ||
| 
 | ||
| // Unlock 解锁一个计划,并唤醒所有正在等待此锁的协程。
 | ||
| func (t *ProgressTracker) Unlock(planLogID uint) {
 | ||
| 	t.mu.Lock()
 | ||
| 	defer t.mu.Unlock()
 | ||
| 	delete(t.runningPlans, planLogID)
 | ||
| 	// 唤醒所有在此条件上等待的协程
 | ||
| 	t.cond.Broadcast()
 | ||
| }
 | ||
| 
 | ||
| // GetRunningPlanIDs 获取当前所有正在执行的计划ID列表
 | ||
| func (t *ProgressTracker) GetRunningPlanIDs() []uint {
 | ||
| 	t.mu.Lock()
 | ||
| 	defer t.mu.Unlock()
 | ||
| 	ids := make([]uint, 0, len(t.runningPlans))
 | ||
| 	for id := range t.runningPlans {
 | ||
| 		ids = append(ids, id)
 | ||
| 	}
 | ||
| 	return ids
 | ||
| }
 | ||
| 
 | ||
| // Scheduler 是核心的、持久化的任务调度器
 | ||
| type Scheduler struct {
 | ||
| 	logger                  *logs.Logger
 | ||
| 	pollingInterval         time.Duration
 | ||
| 	workers                 int
 | ||
| 	pendingTaskRepo         repository.PendingTaskRepository
 | ||
| 	executionLogRepo        repository.ExecutionLogRepository
 | ||
| 	planRepo                repository.PlanRepository
 | ||
| 	analysisPlanTaskManager *AnalysisPlanTaskManager // <--- 注入共享的 Manager
 | ||
| 	progressTracker         *ProgressTracker
 | ||
| 	taskFactory             func(taskType models.TaskType) Task // 调度器需要注入一个任务工厂,用于创建任务实例
 | ||
| 
 | ||
| 	pool     *ants.Pool // 使用 ants 协程池来管理并发
 | ||
| 	wg       sync.WaitGroup
 | ||
| 	stopChan chan struct{} // 用于停止主循环的信号通道
 | ||
| }
 | ||
| 
 | ||
| // NewScheduler 创建一个新的调度器实例
 | ||
| func NewScheduler(
 | ||
| 	pendingTaskRepo repository.PendingTaskRepository,
 | ||
| 	executionLogRepo repository.ExecutionLogRepository,
 | ||
| 	planRepo repository.PlanRepository,
 | ||
| 	analysisPlanTaskManager *AnalysisPlanTaskManager, // <--- 注入 Manager
 | ||
| 	taskFactory func(taskType models.TaskType) Task,
 | ||
| 	logger *logs.Logger,
 | ||
| 	interval time.Duration,
 | ||
| 	numWorkers int) *Scheduler {
 | ||
| 	return &Scheduler{
 | ||
| 		pendingTaskRepo:         pendingTaskRepo,
 | ||
| 		executionLogRepo:        executionLogRepo,
 | ||
| 		planRepo:                planRepo,
 | ||
| 		analysisPlanTaskManager: analysisPlanTaskManager, // <--- 注入 Manager
 | ||
| 		logger:                  logger,
 | ||
| 		pollingInterval:         interval,
 | ||
| 		workers:                 numWorkers,
 | ||
| 		progressTracker:         NewProgressTracker(),
 | ||
| 		taskFactory:             taskFactory,
 | ||
| 		stopChan:                make(chan struct{}), // 初始化停止信号通道
 | ||
| 	}
 | ||
| }
 | ||
| 
 | ||
| // Start 启动调度器,包括初始化协程池和启动主轮询循环
 | ||
| func (s *Scheduler) Start() {
 | ||
| 	s.logger.Warnf("任务调度器正在启动,工作协程数: %d...", s.workers)
 | ||
| 	pool, err := ants.NewPool(s.workers, ants.WithPanicHandler(func(err interface{}) {
 | ||
| 		s.logger.Errorf("[严重] 任务执行时发生 panic: %v", err)
 | ||
| 	}))
 | ||
| 	if err != nil {
 | ||
| 		panic("初始化协程池失败: " + err.Error())
 | ||
| 	}
 | ||
| 	s.pool = pool
 | ||
| 
 | ||
| 	s.wg.Add(1)
 | ||
| 	go s.run()
 | ||
| 	s.logger.Warnf("任务调度器已成功启动")
 | ||
| }
 | ||
| 
 | ||
| // Stop 优雅地停止调度器
 | ||
| func (s *Scheduler) Stop() {
 | ||
| 	s.logger.Warnf("正在停止任务调度器...")
 | ||
| 	close(s.stopChan) // 1. 发出停止信号,停止主循环
 | ||
| 	s.wg.Wait()       // 2. 等待主循环完成
 | ||
| 	s.pool.Release()  // 3. 释放 ants 池 (等待所有已提交的任务执行完毕)
 | ||
| 	s.logger.Warnf("任务调度器已安全停止")
 | ||
| }
 | ||
| 
 | ||
| // run 是主轮询循环,负责从数据库认领任务并提交到协程池
 | ||
| func (s *Scheduler) run() {
 | ||
| 	defer s.wg.Done()
 | ||
| 	ticker := time.NewTicker(s.pollingInterval)
 | ||
| 	defer ticker.Stop()
 | ||
| 
 | ||
| 	for {
 | ||
| 		select {
 | ||
| 		case <-s.stopChan:
 | ||
| 			// 收到停止信号,退出循环
 | ||
| 			return
 | ||
| 		case <-ticker.C:
 | ||
| 			// 定时触发任务认领和提交
 | ||
| 			go s.claimAndSubmit()
 | ||
| 		}
 | ||
| 	}
 | ||
| }
 | ||
| 
 | ||
| // claimAndSubmit 实现了最终的“认领-锁定-执行 或 等待-放回”的健壮逻辑
 | ||
| func (s *Scheduler) claimAndSubmit() {
 | ||
| 	runningPlanIDs := s.progressTracker.GetRunningPlanIDs()
 | ||
| 
 | ||
| 	claimedLog, pendingTask, err := s.pendingTaskRepo.ClaimNextAvailableTask(runningPlanIDs)
 | ||
| 	if err != nil {
 | ||
| 		if !errors.Is(err, gorm.ErrRecordNotFound) {
 | ||
| 			s.logger.Errorf("认领任务时发生错误: %v", err)
 | ||
| 		}
 | ||
| 		// gorm.ErrRecordNotFound 说明没任务要执行
 | ||
| 		return
 | ||
| 	}
 | ||
| 
 | ||
| 	// 尝试获取内存执行锁
 | ||
| 	if s.progressTracker.TryLock(claimedLog.PlanExecutionLogID) {
 | ||
| 		// 成功获取锁,正常派发任务
 | ||
| 		err = s.pool.Submit(func() {
 | ||
| 			defer s.progressTracker.Unlock(claimedLog.PlanExecutionLogID)
 | ||
| 			s.processTask(claimedLog)
 | ||
| 		})
 | ||
| 		if err != nil {
 | ||
| 			s.logger.Errorf("向协程池提交任务失败: %v", err)
 | ||
| 			// 提交失败,必须释放刚刚获取的锁
 | ||
| 			s.progressTracker.Unlock(claimedLog.PlanExecutionLogID)
 | ||
| 			// 同样需要将任务安全放回
 | ||
| 			s.handleRequeue(claimedLog.PlanExecutionLogID, pendingTask)
 | ||
| 		}
 | ||
| 	} else {
 | ||
| 		// 获取锁失败,说明有“兄弟”任务正在执行。执行“锁定并安全放回”逻辑。
 | ||
| 		s.handleRequeue(claimedLog.PlanExecutionLogID, pendingTask)
 | ||
| 	}
 | ||
| }
 | ||
| 
 | ||
| // handleRequeue 同步地、安全地将一个无法立即执行的任务放回队列。
 | ||
| func (s *Scheduler) handleRequeue(planExecutionLogID uint, taskToRequeue *models.PendingTask) {
 | ||
| 	s.logger.Warnf("计划 %d 正在执行,任务 %d (TaskID: %d) 将等待并重新入队...", planExecutionLogID, taskToRequeue.ID, taskToRequeue.TaskID)
 | ||
| 
 | ||
| 	// 1. 阻塞式地等待,直到可以获取到该计划的锁。
 | ||
| 	s.progressTracker.Lock(planExecutionLogID)
 | ||
| 	defer s.progressTracker.Unlock(planExecutionLogID)
 | ||
| 
 | ||
| 	// 2. 在持有锁的情况下,将任务安全地放回队列。
 | ||
| 	if err := s.pendingTaskRepo.RequeueTask(taskToRequeue); err != nil {
 | ||
| 		s.logger.Errorf("[严重] 任务重新入队失败, 原始PendingTaskID: %d, 错误: %v", taskToRequeue.ID, err)
 | ||
| 		return
 | ||
| 	}
 | ||
| 
 | ||
| 	s.logger.Warnf("任务 (原始ID: %d) 已成功重新入队,并已释放计划 %d 的锁。", taskToRequeue.ID, planExecutionLogID)
 | ||
| }
 | ||
| 
 | ||
| // processTask 处理单个任务的逻辑
 | ||
| func (s *Scheduler) processTask(claimedLog *models.TaskExecutionLog) {
 | ||
| 	s.logger.Warnf("开始处理任务, 日志ID: %d, 任务ID: %d, 任务名称: %s, 描述: %s",
 | ||
| 		claimedLog.ID, claimedLog.TaskID, claimedLog.Task.Name, claimedLog.Task.Description)
 | ||
| 
 | ||
| 	claimedLog.StartedAt = time.Now()
 | ||
| 	claimedLog.Status = models.ExecutionStatusCompleted // 先乐观假定任务成功, 后续失败了再改
 | ||
| 	defer s.updateTaskExecutionLogStatus(claimedLog)
 | ||
| 
 | ||
| 	// 执行任务
 | ||
| 	err := s.runTask(claimedLog)
 | ||
| 	if err != nil {
 | ||
| 		claimedLog.Status = models.ExecutionStatusFailed
 | ||
| 		claimedLog.Output = err.Error()
 | ||
| 
 | ||
| 		// 任务失败时,调用统一的终止服务
 | ||
| 		s.handlePlanTermination(claimedLog.PlanExecutionLogID, "子任务执行失败: "+err.Error())
 | ||
| 		return
 | ||
| 	}
 | ||
| 
 | ||
| 	// 如果是计划分析任务,它的职责是解析和分发任务,到此即完成,不参与后续的计划完成度检查。
 | ||
| 	if claimedLog.Task.Type == models.TaskPlanAnalysis {
 | ||
| 		s.logger.Warnf("完成计划分析任务, 日志ID: %d", claimedLog.ID)
 | ||
| 		return
 | ||
| 	}
 | ||
| 
 | ||
| 	// --- 以下是常规任务的完成逻辑 ---
 | ||
| 	s.logger.Warnf("完成任务, 日志ID: %d", claimedLog.ID)
 | ||
| 
 | ||
| 	// 检查是否是最后一个任务
 | ||
| 	incompleteCount, err := s.executionLogRepo.CountIncompleteTasksByPlanLogID(claimedLog.PlanExecutionLogID)
 | ||
| 	if err != nil {
 | ||
| 		s.logger.Errorf("检查计划 %d 的未完成任务数时出错: %v", claimedLog.PlanExecutionLogID, err)
 | ||
| 		return
 | ||
| 	}
 | ||
| 
 | ||
| 	// 如果此计划执行中,未完成的任务只剩下当前这一个(因为当前任务的状态此时在数据库中仍为 'started'),
 | ||
| 	// 则认为整个计划已完成。
 | ||
| 	if incompleteCount == 1 {
 | ||
| 		s.handlePlanCompletion(claimedLog.PlanExecutionLogID)
 | ||
| 	}
 | ||
| }
 | ||
| 
 | ||
| // runTask 用于执行具体任务
 | ||
| func (s *Scheduler) runTask(claimedLog *models.TaskExecutionLog) error {
 | ||
| 	// 这是个特殊任务, 用于解析Plan并将解析出的任务队列添加到待执行队列中
 | ||
| 	if claimedLog.Task.Type == models.TaskPlanAnalysis {
 | ||
| 		// 解析plan
 | ||
| 		err := s.analysisPlan(claimedLog)
 | ||
| 		if err != nil {
 | ||
| 			// TODO 这里要处理一下, 比如再插一个新的触发器回去
 | ||
| 			s.logger.Errorf("[严重] 计划解析失败, 日志ID: %d, 错误: %v", claimedLog.ID, err)
 | ||
| 			return err
 | ||
| 		}
 | ||
| 
 | ||
| 	} else {
 | ||
| 		// 执行普通任务
 | ||
| 		task := s.taskFactory(claimedLog.Task.Type)
 | ||
| 		if err := task.ParseParams(s.logger, claimedLog); err != nil {
 | ||
| 
 | ||
| 			s.logger.Errorf("[严重] 任务参数解析失败, 日志ID: %d, 错误: %v", claimedLog.ID, err)
 | ||
| 			return err
 | ||
| 		}
 | ||
| 
 | ||
| 		if err := task.Execute(); err != nil {
 | ||
| 
 | ||
| 			s.logger.Errorf("[严重] 任务执行失败, 日志ID: %d, 错误: %v", claimedLog.ID, err)
 | ||
| 
 | ||
| 			task.OnFailure(err)
 | ||
| 			return err
 | ||
| 		}
 | ||
| 
 | ||
| 	}
 | ||
| 	return nil
 | ||
| }
 | ||
| 
 | ||
| // analysisPlan 解析Plan并将解析出的Task列表插入待执行队列中
 | ||
| func (s *Scheduler) analysisPlan(claimedLog *models.TaskExecutionLog) error {
 | ||
| 	// 创建Plan执行记录
 | ||
| 	// 从任务的 Parameters 中解析出真实的 PlanID
 | ||
| 	var params struct {
 | ||
| 		PlanID uint `json:"plan_id"`
 | ||
| 	}
 | ||
| 	if err := json.Unmarshal(claimedLog.Task.Parameters, ¶ms); err != nil {
 | ||
| 		s.logger.Errorf("解析任务参数中的计划ID失败,日志ID: %d, 错误: %v", claimedLog.ID, err)
 | ||
| 		return err
 | ||
| 	}
 | ||
| 	realPlanID := params.PlanID
 | ||
| 
 | ||
| 	planLog := &models.PlanExecutionLog{
 | ||
| 		PlanID:    realPlanID, // 使用从参数中解析出的真实 PlanID
 | ||
| 		Status:    models.ExecutionStatusStarted,
 | ||
| 		StartedAt: time.Now(),
 | ||
| 	}
 | ||
| 	if err := s.executionLogRepo.CreatePlanExecutionLog(planLog); err != nil {
 | ||
| 		s.logger.Errorf("[严重] 创建计划执行日志失败, 日志ID: %d, 错误: %v", claimedLog.ID, err)
 | ||
| 		return err
 | ||
| 	}
 | ||
| 
 | ||
| 	// 解析出Task列表
 | ||
| 	tasks, err := s.planRepo.FlattenPlanTasks(realPlanID)
 | ||
| 	if err != nil {
 | ||
| 		s.logger.Errorf("[严重] 解析计划失败, 日志ID: %d, 错误: %v", claimedLog.ID, err)
 | ||
| 		return err
 | ||
| 	}
 | ||
| 
 | ||
| 	// 写入执行历史
 | ||
| 	taskLogs := make([]*models.TaskExecutionLog, len(tasks))
 | ||
| 	for i, task := range tasks {
 | ||
| 		taskLogs[i] = &models.TaskExecutionLog{
 | ||
| 			PlanExecutionLogID: planLog.ID,
 | ||
| 			TaskID:             task.ID,
 | ||
| 			Status:             models.ExecutionStatusWaiting,
 | ||
| 		}
 | ||
| 
 | ||
| 	}
 | ||
| 	err = s.executionLogRepo.CreateTaskExecutionLogsInBatch(taskLogs)
 | ||
| 	if err != nil {
 | ||
| 		s.logger.Errorf("[严重] 写入执行历史, 日志ID: %d, 错误: %v", claimedLog.ID, err)
 | ||
| 		return err
 | ||
| 	}
 | ||
| 
 | ||
| 	// 写入待执行队列
 | ||
| 	pendingTasks := make([]*models.PendingTask, len(tasks))
 | ||
| 	for i, task := range tasks {
 | ||
| 		pendingTasks[i] = &models.PendingTask{
 | ||
| 			TaskID:             task.ID,
 | ||
| 			TaskExecutionLogID: taskLogs[i].ID, // 使用正确的 TaskExecutionLogID
 | ||
| 
 | ||
| 			// 待执行队列是通过任务触发时间排序的, 且只要在调度器获取的时间点之前的都可以被触发
 | ||
| 			ExecuteAt: time.Now().Add(time.Duration(i) * time.Second),
 | ||
| 		}
 | ||
| 	}
 | ||
| 	err = s.pendingTaskRepo.CreatePendingTasksInBatch(pendingTasks)
 | ||
| 	if err != nil {
 | ||
| 		s.logger.Errorf("[严重] 写入待执行队列, 日志ID: %d, 错误: %v", claimedLog.ID, err)
 | ||
| 		return err
 | ||
| 	}
 | ||
| 
 | ||
| 	// --- 处理空计划的边缘情况 ---
 | ||
| 	// 如果一个计划被解析后,发现其任务列表为空,
 | ||
| 	// 那么它实际上已经“执行”完毕了,我们需要在这里手动为它创建下一次的触发器。
 | ||
| 	if len(tasks) == 0 {
 | ||
| 		s.handlePlanCompletion(planLog.ID)
 | ||
| 	}
 | ||
| 
 | ||
| 	return nil
 | ||
| }
 | ||
| 
 | ||
| // updateTaskExecutionLogStatus 修改任务历史中的执行状态
 | ||
| func (s *Scheduler) updateTaskExecutionLogStatus(claimedLog *models.TaskExecutionLog) error {
 | ||
| 	claimedLog.EndedAt = time.Now()
 | ||
| 
 | ||
| 	if err := s.executionLogRepo.UpdateTaskExecutionLog(claimedLog); err != nil {
 | ||
| 		s.logger.Errorf("[严重] 更新任务执行日志失败, 日志ID: %d, 错误: %v", claimedLog.ID, err)
 | ||
| 		return err
 | ||
| 	}
 | ||
| 
 | ||
| 	return nil
 | ||
| }
 | ||
| 
 | ||
| // handlePlanTermination 集中处理计划的终止逻辑(失败或取消)
 | ||
| func (s *Scheduler) handlePlanTermination(planLogID uint, reason string) {
 | ||
| 	// 1. 从待执行队列中删除所有相关的子任务
 | ||
| 	if err := s.pendingTaskRepo.DeletePendingTasksByPlanLogID(planLogID); err != nil {
 | ||
| 		s.logger.Errorf("从待执行队列中删除计划 %d 的后续任务时出错: %v", planLogID, err)
 | ||
| 	}
 | ||
| 
 | ||
| 	// 2. 将父计划的执行日志标记为失败
 | ||
| 	if err := s.executionLogRepo.FailPlanExecution(planLogID, reason); err != nil {
 | ||
| 		s.logger.Errorf("标记计划执行日志 %d 为失败时出错: %v", planLogID, err)
 | ||
| 	}
 | ||
| 
 | ||
| 	// 3. 将所有未完成的子任务日志标记为已取消
 | ||
| 	if err := s.executionLogRepo.CancelIncompleteTasksByPlanLogID(planLogID, "父计划失败或被取消"); err != nil {
 | ||
| 		s.logger.Errorf("取消计划 %d 的后续任务日志时出错: %v", planLogID, err)
 | ||
| 	}
 | ||
| 
 | ||
| 	// 4. 将计划本身的状态更新为失败
 | ||
| 	planLog, err := s.executionLogRepo.FindPlanExecutionLogByID(planLogID)
 | ||
| 	if err != nil {
 | ||
| 		s.logger.Errorf("无法找到计划执行日志 %d 以更新父计划状态: %v", planLogID, err)
 | ||
| 		return
 | ||
| 	}
 | ||
| 	if err := s.planRepo.UpdatePlanStatus(planLog.PlanID, models.PlanStatusFailed); err != nil {
 | ||
| 		s.logger.Errorf("更新计划 %d 状态为 '失败' 时出错: %v", planLog.PlanID, err)
 | ||
| 	}
 | ||
| }
 | ||
| 
 | ||
| // handlePlanCompletion 集中处理计划成功完成后的所有逻辑
 | ||
| func (s *Scheduler) handlePlanCompletion(planLogID uint) {
 | ||
| 	s.logger.Infof("计划执行 %d 的所有任务已完成,开始处理计划完成逻辑...", planLogID)
 | ||
| 
 | ||
| 	// 1. 通过 PlanExecutionLog 反查正确的顶层 PlanID
 | ||
| 	planExecutionLog, err := s.executionLogRepo.FindPlanExecutionLogByID(planLogID)
 | ||
| 	if err != nil {
 | ||
| 		s.logger.Errorf("获取计划执行日志 %d 失败: %v", planLogID, err)
 | ||
| 		return
 | ||
| 	}
 | ||
| 	topLevelPlanID := planExecutionLog.PlanID // 这才是正确的顶层计划ID
 | ||
| 
 | ||
| 	// 2. 获取计划的最新数据,这里我们只需要基本信息来判断执行类型和次数
 | ||
| 	plan, err := s.planRepo.GetBasicPlanByID(topLevelPlanID)
 | ||
| 	if err != nil {
 | ||
| 		s.logger.Errorf("获取计划 %d 的基本信息失败: %v", topLevelPlanID, err)
 | ||
| 		return
 | ||
| 	}
 | ||
| 
 | ||
| 	// 3. 在内存中计算新的计数值和状态
 | ||
| 	newExecuteCount := plan.ExecuteCount + 1
 | ||
| 	newStatus := plan.Status // 默认为当前状态
 | ||
| 
 | ||
| 	// 如果是自动计划且达到执行次数上限,或计划是手动类型,则更新计划状态为已停止
 | ||
| 	if (plan.ExecutionType == models.PlanExecutionTypeAutomatic && plan.ExecuteNum > 0 && newExecuteCount >= plan.ExecuteNum) || plan.ExecutionType == models.PlanExecutionTypeManual {
 | ||
| 		newStatus = models.PlanStatusStopeed
 | ||
| 		s.logger.Infof("计划 %d 已完成执行,状态更新为 '执行完毕'。", topLevelPlanID)
 | ||
| 	}
 | ||
| 
 | ||
| 	// 4. 使用专门的方法来原子性地更新计数值和状态
 | ||
| 	if err := s.planRepo.UpdatePlanStateAfterExecution(topLevelPlanID, newExecuteCount, newStatus); err != nil {
 | ||
| 		s.logger.Errorf("更新计划 %d 的执行后状态失败: %v", topLevelPlanID, err)
 | ||
| 		return
 | ||
| 	}
 | ||
| 
 | ||
| 	// 5. 更新计划执行日志状态为完成
 | ||
| 	if err := s.executionLogRepo.UpdatePlanExecutionLogStatus(planLogID, models.ExecutionStatusCompleted); err != nil {
 | ||
| 		s.logger.Errorf("更新计划执行日志 %d 状态为 '完成' 失败: %v", planLogID, err)
 | ||
| 	}
 | ||
| 
 | ||
| 	// 6. 调用共享的 Manager 来处理触发器更新逻辑
 | ||
| 	// 只有当计划在本次执行后仍然是 Enabled 状态时,才需要创建下一次的触发器。
 | ||
| 	if newStatus == models.PlanStatusEnabled {
 | ||
| 		if err := s.analysisPlanTaskManager.CreateOrUpdateTrigger(topLevelPlanID); err != nil {
 | ||
| 			s.logger.Errorf("为计划 %d 创建/更新触发器失败: %v", topLevelPlanID, err)
 | ||
| 		}
 | ||
| 	} else {
 | ||
| 		s.logger.Infof("计划 %d 状态为 '%d',无需创建下一次触发器。", topLevelPlanID, newStatus)
 | ||
| 	}
 | ||
| }
 |