質問

私は、大規模なHTMLファイルの束を持っていると私は、最も頻繁に使用される単語を見つけるために、それらの上のHadoopのMapReduceジョブを実行したいです。私はPythonで私のマッパーと減速の両方を書いて、それを実行するためのHadoopストリーミングを使用しました。

ここに私のマッパーです。

#!/usr/bin/env python

import sys
import re
import string

def remove_html_tags(in_text):
'''
Remove any HTML tags that are found. 

'''
    global flag
    in_text=in_text.lstrip()
    in_text=in_text.rstrip()
    in_text=in_text+"\n"

    if flag==True: 
        in_text="<"+in_text
        flag=False
    if re.search('^<',in_text)!=None and re.search('(>\n+)$', in_text)==None: 
        in_text=in_text+">"
        flag=True
    p = re.compile(r'<[^<]*?>')
    in_text=p.sub('', in_text)
    return in_text

# input comes from STDIN (standard input)
global flag
flag=False
for line in sys.stdin:
    # remove leading and trailing whitespace, set to lowercase and remove HTMl tags
    line = line.strip().lower()
    line = remove_html_tags(line)
    # split the line into words
    words = line.split()
    # increase counters
    for word in words:
       # write the results to STDOUT (standard output);
       # what we output here will be the input for the
       # Reduce step, i.e. the input for reducer.py
       #
       # tab-delimited; the trivial word count is 1
       if word =='': continue
       for c in string.punctuation:
           word= word.replace(c,'')

       print '%s\t%s' % (word, 1)

ここに私の減速である。

#!/usr/bin/env python

from operator import itemgetter
import sys

# maps words to their counts
word2count = {}

# input comes from STDIN
for line in sys.stdin:
    # remove leading and trailing whitespace
    line = line.strip()

    # parse the input we got from mapper.py
    word, count = line.split('\t', 1)
    # convert count (currently a string) to int
    try:
        count = int(count)
        word2count[word] = word2count.get(word, 0) + count
    except ValueError:
        pass

sorted_word2count = sorted(word2count.iteritems(), 
key=lambda(k,v):(v,k),reverse=True)

# write the results to STDOUT (standard output)
for word, count in sorted_word2count:
    print '%s\t%s'% (word, count)

たび私はちょうどパイプのような小さなサンプルの小さな文字列「Hello Worldのハローハロー世界...」私はランク付けされたリストの適切な出力を得ます。私は小さなHTMLファイルを使用して、私のマッパーにパイプにHTMLを猫を使用してみてくださいしようとすると、しかし、私は(INPUT2は、いくつかのHTMLコードが含まれています)、次のエラーを取得します:

rohanbk@hadoop:~$ cat input2 | /home/rohanbk/mapper.py | sort | /home/rohanbk/reducer.py
Traceback (most recent call last):
  File "/home/rohanbk/reducer.py", line 15, in <module>
    word, count = line.split('\t', 1)
ValueError: need more than 1 value to unpack
私はこれを取得していますなぜ

誰も説明できますか?また、MapReduceのジョブプログラムをデバッグするための良い方法は何ですか?

役に立ちましたか?

解決

あなたはただでさえバグを再現することができます

echo "hello - world" | ./mapper.py  | sort | ./reducer.py

問題はここにあります:

if word =='': continue
for c in string.punctuation:
           word= word.replace(c,'')

(それが分割された後)上記入力用の場合のようwordは、単一の句読点である場合、それは空の文字列に変換されます。だから、ちょうど交換した後に、空の文字列のチェックを移動します。

ライセンス: CC-BY-SA帰属
所属していません StackOverflow
scroll top