문제

어떻게 하면 완전한 목록의 모든 url 을 내 레일 응용 프로그램을 생성할 수 있?

나는 원하지 않는 경로는 나를 얻을 형성 레이크로,당신을 얻고 싶은 actul Url corrosponding 모든 dynmically 생성한 페이지에서 내 응용 프로그램...

도 가능합니까?

(배경:나는 이 일을 하고 싶어하기 때문에 완전한 목록의 Url 에 대한 일부 부하 테스트하고 싶어 하는 전체를 커버한 폭넓은 응용 프로그램)

도움이 되었습니까?

해결책

할 수 있었을 생산하는 유용한 출력으로 다음과 같은 명령을 실행합니다:

$ wget --spider -r -nv -nd -np http://localhost:3209/ 2>&1 | ack -o '(?<=URL:)\S+'
http://localhost:3209/
http://localhost:3209/robots.txt
http://localhost:3209/agenda/2008/08
http://localhost:3209/agenda/2008/10
http://localhost:3209/agenda/2008/09/01
http://localhost:3209/agenda/2008/09/02
http://localhost:3209/agenda/2008/09/03
^C

빠른 참조 wget arguments:

# --spider                  don't download anything.
# -r,  --recursive          specify recursive download.
# -nv, --no-verbose         turn off verboseness, without being quiet.
# -nd, --no-directories     don't create directories.
# -np, --no-parent          don't ascend to the parent directory.

ack

ack 다음과 같이 grep 그러나 사용 perl regexps 더 완료/강력합니다.

-oack 만 출력을 일치된 하위 문자열이며,패턴 내가 사용하는 보이는 아무것도 아닌 공간 앞에는 'URL:'

다른 팁

할 수 있는 매우 신속하게 해킹 함께 프로그램을 사로잡는 의 출력 rake routes 다음 분석을 출력하는 함께 넣어 목록의 Url 이 있습니다.

무엇인가,일반적으로 수행에 대한 부하 테스트를 사용하는 것 같은 도구 WebLOAD 고 스크립트의 여러 가지 유형의 사용자 세션(또는 다른 경로는 사용자가 취할 수 있).그럼 내가 만들의 혼합 사용자 세션이고 그들을 실행하는 웹사이트를 통해 뭔가를 가까이 정확한 사진이 어떻게 사이트를 실행합니다.

일반적으로 난 것입니다 또한 이렇게 총 4 개의 서로 다른 컴퓨터에 대한 실행 80 동시 사용자 세션을 현실적으로 시뮬레이션 무엇이 될 것입니다 일어나고 있는 응용 프로그램을 통해.이것은 또한되지 않을 보내고 지나치게 많은 시간 최적화를 자주 방문한 페이지와 할 수 있다,대신에,집중하에서 전반적인 애플리케이션의 성능을 저와 함께 중요한 경로입니다.

체크아웃은 거미의 통합 테스트를 작성하여 Courtnay gasking 에

http://pronetos.googlecode.com/svn/trunk/vendor/plugins/spider_test/doc/classes/Caboose/SpiderIntegrator.html

라이센스 : CC-BY-SA ~와 함께 속성
제휴하지 않습니다 StackOverflow
scroll top