取得の完全なリストのURLは、レール用
-
01-07-2019 - |
質問
の行き方を教えてくださいaリストのすべてのurlに自分のレール用が発生する可能性があ?
私たいと思っている路線をいただいた取得形レーキの路線が使用していただきたいと思い、actul Url corrospondingのdynmically生成されるページアダプタのご使用をお...
することも可能ですか?
(背景:になっていることがしたいリストはUrlの一部負荷試験をしたいと思いるので幅広いアプリケーション)
解決
私はこれまでに有の出力を以下のコマンド:
$ wget --spider -r -nv -nd -np http://localhost:3209/ 2>&1 | ack -o '(?<=URL:)\S+'
http://localhost:3209/
http://localhost:3209/robots.txt
http://localhost:3209/agenda/2008/08
http://localhost:3209/agenda/2008/10
http://localhost:3209/agenda/2008/09/01
http://localhost:3209/agenda/2008/09/02
http://localhost:3209/agenda/2008/09/03
^C
ロッパの wget
引数:
# --spider don't download anything.
# -r, --recursive specify recursive download.
# -nv, --no-verbose turn off verboseness, without being quiet.
# -nd, --no-directories don't create directories.
# -np, --no-parent don't ascend to the parent directory.
報 ack
ack
のような grep
が使用 perl
regexpsがありまcomplete/迫力があります。
-o
か ack
のみ出力はデフォルトパラメータと合致し部分文字列のパターンを使って見るものを非スペースの前に 'URL:'
他のヒント
ばかなり迅速にアンドリューをハッキングとプログラムヘの出力 rake routes
そしてを解析し、出力としてのUrlに対するものとなります。
私は、荷重試験は、ツールを使う WebLOAD スライドバーを複数の異なる種類のユーザーセッション(または異なる路線を利用できる).それをミックスのユーザーセッションや実行のサイトも近く正方の場合がある。
一般的にもこの合計4つの異なる機械の走行約80同時アクセスのユーザーセッションを現実的に再現何が起こっての願います。もっともらしくというのは確かで過ごし過度に多くの時間を最適化を頻繁に訪問したページができ、その集中をアプリケーション全体の性能に重要。
チェックのスパイダー統合の試験の記述によるCourtnay Gasking
所属していません StackOverflow