質問

文書に従って、

「Apache Sparkは大規模データ処理用の高速で一般的なエンジンです。 "

"SharkはHadoopデータのオープンソース分散SQLクエリエンジンです。"

とSharkは依存関係としてSparkを使用します。

私の質問は、SparkがSpark JobsにHiveQLを解析するか、分析クエリの迅速な応答のためにSharkを使うならば、何でも素晴らしいことをしていますか?

役に立ちましたか?

解決

はい、SharkはHiveと同じ考えを使用しますが、MapReduceジョブの代わりにHiveQLをスパークジョブに変換します。この2つの間のアーキテクチャの違いのためのこの文書。

ライセンス: CC-BY-SA帰属
所属していません StackOverflow
scroll top