Question

J'ai un script de porc, qui active un autre programme python. J'ai pu le faire dans mon propre environnement Hadoop, mais je ne toujours quand je lance mon script sur la carte Amazon réduire WS.

Le journal dit:

org.apache.pig.backend.executionengine.ExecException: ERREUR 2090: Erreur lors du traitement reçu Réduc le plan: « » a échoué avec le statut de sortie: 127     à org.apache.pig.backend.hadoop.executionengine.mapReduceLayer.PigMapReduce $ Reduce.runPipeline (PigMapReduce.java:347)     à org.apache.pig.backend.hadoop.executionengine.mapReduceLayer.PigMapReduce $ Reduce.processOnePackageOutput (PigMapReduce.java:288)     à org.apache.pig.backend.hadoop.executionengine.mapReduceLayer.PigMapReduce $ Reduce.reduce (PigMapReduce.java:260)     à org.apache.pig.backend.hadoop.executionengine.mapReduceLayer.PigMapReduce $ Reduce.reduce (PigMapReduce.java:142)     à org.apache.hadoop.mapred.ReduceTask.run (ReduceTask.java:321)     à org.apache.hadoop.mapred.TaskTracker $ Child.main (TaskTracker.java:2216)

Une idée?

Était-ce utile?

La solution 2

Problème résolu! Tout ce que je besoin est d'utiliser le cache ( 's3: //') option lors de la définition de la commande de streaming

Autres conseils

Avez-vous vérifié que le script est envoyé en même temps au travail Elastic MapReduce?

Licencié sous: CC-BY-SA avec attribution
Non affilié à StackOverflow
scroll top