문제

그것은 실행 가능한 Hadoop 만 사용하도록 예비 CPU 사이클?I.e.는 것이 가능하게 설치 하둡에 민족 일을 컴퓨터 그래서 수정을 할 수 있지 않을 때 사용하여 그들의 Pc,그리고 그들이 없을 경험한 명백한 성과 배수(whurring 팬들 곁!).

아마도 그것은 그냥 수를 설정하는 경우 JVM 을 실행에 우선순위가 낮은 사용하지 않고'너무 많이'네트워크를(가정은 일이 가능한 윈도우 기계)?

그렇지 않으면,사람을 알아의 모든 Java 에 해당하는 것을 매직?

편집:목록 발견 주기 청소 인프라 .비록 나의 질문에 대한 Hadoop 여전히 의미합니다.

도움이 되었습니까?

해결책

이것은 매우 많은 외부의 용도에 대한 Hadoop.Hadoop 기대하는 모든 노드를 완전히 사용할 수 있고 네트워크를 위한 최적의 처리량--뭔가를 얻으로 워크스테이션.또한,그것은지 정말로 윈도우에서 실행(당신은 그것을 이용할 수 있습니다 cygwin,모르겠지만 누구나 사용하는 것에 대한"생산"--을 제외하고 클라이언트 컴퓨터에 발행하는 작업이).

Hadoop 같은 작업을 수행합니다 데이터 저장에 덩어리에 몇 개의 노드에도 모든 일정은 계산에는 데이터에 해당 노드;에 작업 공유 환경,그 의미하는 작업이 필요 데이터에서 실행하려는 사람들 세 가지 워크스테이션에 상관없이 무엇이 그들의 사용자가 수행하고 있습니다.대조적으로,"사이클 청소"프로젝트의 모든 데이터는 다른 곳에서,그것을 발송하고 작업하여 모든 노드를 사용할 수 있는 주어진 순간이것이 가능하고 더 좋은 기계,그러나 그것은 발생하는 명백한 데이터 전송은 비용이 든다.

다른 팁

아마 테라코타 무언가가 더 많은 골목까?

테라코타 제품 링크

라이센스 : CC-BY-SA ~와 함께 속성
제휴하지 않습니다 StackOverflow
scroll top