Scrapyd를 사용하여 스파이더 실행을 어떻게 자동화 할 수 있습니까?
문제
나는 이것이 어리석은 것처럼 보인다는 것을 압니다.나는 Windows Scrapyd 구현을 포기했으며 Ubuntu 기계를 설정하고 모든 일을 잘 작동 시켰습니다.나는 자신의 거미와 함께 각각 3 명의 프로젝트를합니다.다음을 사용하여 터미널에서 거미를 실행할 수 있습니다 :
curl http://localhost:6800/schedule.json -d project=myproject -d spider=spider2
.
모든 것이 올바른 장소에서 나타나는 위의 코드를 실행할 때 긁힌 항목과 함께 웹 UI에서 작동하는 것 같습니다.
나는 매일 오전 12시에 2:00 AM, 2 주에 2 주마다 2 주째에 2 주 4시에 2 주째에 프로젝트 1을 운영하고 싶습니다.이것을하는 법을 배우도록 도와주세요.
이 작업에 적합한 해결책조차도 Scrapyd입니까?
해결책
예정된 작업은 트릭을 수행하는 것 같습니다.나는 Windows에서 schtasks
로 스크랩키 크롤링 명령을 예약 할 수 있었을 때 Scrapyd를 실행할 수있는 단독 목적을 위해 Ubuntu 기계를 설정하는 노력에 대해 궁금해해야합니다.
제휴하지 않습니다 StackOverflow