Scrapyd를 사용하여 스파이더 실행을 어떻게 자동화 할 수 있습니까?

StackOverflow https://stackoverflow.com//questions/20015340

  •  21-12-2019
  •  | 
  •  

문제

나는 이것이 어리석은 것처럼 보인다는 것을 압니다.나는 Windows Scrapyd 구현을 포기했으며 Ubuntu 기계를 설정하고 모든 일을 잘 작동 시켰습니다.나는 자신의 거미와 함께 각각 3 명의 프로젝트를합니다.다음을 사용하여 터미널에서 거미를 실행할 수 있습니다 :

curl http://localhost:6800/schedule.json -d project=myproject -d spider=spider2
.

모든 것이 올바른 장소에서 나타나는 위의 코드를 실행할 때 긁힌 항목과 함께 웹 UI에서 작동하는 것 같습니다.

나는 매일 오전 12시에 2:00 AM, 2 주에 2 주마다 2 주째에 2 주 4시에 2 주째에 프로젝트 1을 운영하고 싶습니다.이것을하는 법을 배우도록 도와주세요.

이 작업에 적합한 해결책조차도 Scrapyd입니까?

도움이 되었습니까?

해결책

예정된 작업은 트릭을 수행하는 것 같습니다.나는 Windows에서 schtasks로 스크랩키 크롤링 명령을 예약 할 수 있었을 때 Scrapyd를 실행할 수있는 단독 목적을 위해 Ubuntu 기계를 설정하는 노력에 대해 궁금해해야합니다.

라이센스 : CC-BY-SA ~와 함께 속성
제휴하지 않습니다 StackOverflow
scroll top