Unixシェルコマンドを使用して、テキストファイルから新しいファイルに上位1000行を移動します
質問
5000万を超えるエントリを含むテキストファイルの上位1000行を別の新しいファイルにコピーし、これらの行を元のファイルから削除したい。
Unixの単一シェルコマンドで同じことを行う方法はありますか?
解決
head -1000 input > output && sed -i '1,+999d' input
例:
$ cat input
1
2
3
4
5
6
$ head -3 input > output && sed -i '1,+2d' input
$ cat input
4
5
6
$ cat output
1
2
3
他のヒント
head -1000 file.txt > first100lines.txt
tail --lines=+1001 file.txt > restoffile.txt
好奇心から、 sed
(v4.1.5)のGNUバージョンのボックスを見つけ、11Mの行テキストファイルを使用して、これまでに提案された2つのアプローチの(キャッシュされていない)パフォーマンスをテストしました:
$ wc -l input
11771722 input
$ time head -1000 input > output; time tail -n +1000 input > input.tmp; time cp input.tmp input; time rm input.tmp
real 0m1.165s
user 0m0.030s
sys 0m1.130s
real 0m1.256s
user 0m0.062s
sys 0m1.162s
real 0m4.433s
user 0m0.033s
sys 0m1.282s
real 0m6.897s
user 0m0.000s
sys 0m0.159s
$ time head -1000 input > output && time sed -i '1,+999d' input
real 0m0.121s
user 0m0.000s
sys 0m0.121s
real 0m26.944s
user 0m0.227s
sys 0m26.624s
これは、私が作業していたLinuxです。
$ uname -a
Linux hostname 2.6.18-128.1.1.el5 #1 SMP Mon Jan 26 13:58:24 EST 2009 x86_64 x86_64 x86_64 GNU/Linux
このテストでは、少なくとも、 sed
が tail
アプローチよりも遅いようです(27秒vs〜14秒)。
これは1行ですが、4つのアトミックコマンドを使用します:
head -1000 file.txt > newfile.txt; tail +1000 file.txt > file.txt.tmp; cp file.txt.tmp file.txt; rm file.txt.tmp
Perlアプローチ:
perl -ne 'if($i<1000) { print; } else { print STDERR;}; $i++;' in 1> in.new 2> out && mv in.new in
パイプの使用:
cat en-tl.100.en | head -10
所属していません StackOverflow