문제

CUDA와 같은 CPU 이니셔티브로서 GPU의 미래는 어떻게 될 것이라고 생각하시나요?그들이 주류가 되어 업계에서 차세대 유행이 될 것이라고 생각하시나요?Apple은 GPU를 사용하여 CPU 작업을 수행하기 위한 새로운 프레임워크를 구축하고 있으며 과학 분야에서 Nvidias CUDA 프로젝트에서 많은 성공을 거두었습니다.학생에게 이 분야에 시간을 할애하라고 제안하시겠습니까?

도움이 되었습니까?

해결책

먼저 나는이 질문이 정말로 SO에 속한다고 생각하지 않습니다.

제 생각에 GPU는 벡터 기반 부동 수학을 할 때마다 매우 흥미로운 대안입니다.그러나 이것은 다음과 같이 해석됩니다. 그것은 주류가되지 않을 것입니다.대부분의 주류 (데스크톱) 애플리케이션은 부동 소수점 계산을 거의 수행하지 않습니다.

이미 게임 (물리 엔진)과 과학 계산에서 주목을 받고 있습니다.이 두 가지 중 하나를 "주류"라고 생각하면 예보다 GPU가 주류가됩니다.

저는이 두 가지를 주류로 간주하지 않을 것이므로 GPU가 주류 업계에서 다음으로 채택 된 유행이 될 것이라고 생각합니다.

학생으로서 물리학 기반의 과학적 계산에 관심이 있다면 절대적으로 시간을 투자해야합니다 (GPU는 어쨌든 매우 흥미로운 하드웨어입니다).

다른 팁

과학 및 병렬 컴퓨팅에 관심이 있다면 시간을 투자하세요.CUDA를 생각하지 말고 GPU를 CPU처럼 보이게 만드세요.이전 GPGPU 프로그래밍 기술보다 GPU를 프로그래밍하는 더 직접적인 방법만 허용합니다.

범용 CPU는 분기 예측, 파이프라이닝, 슈퍼스케일러 등에 들어간 모든 작업에서 다양한 작업을 잘 수행할 수 있는 능력을 끌어냅니다.이를 통해 다양한 워크로드에서 우수한 성능을 달성하는 동시에 처리량이 많은 메모리 집약적 부동 소수점 작업을 수행할 수 없게 됩니다.

GPU는 원래 한 가지 작업을 수행하도록 설계되었으며 매우 잘 수행합니다.그래픽 작업은 본질적으로 병렬입니다.결과 간에 데이터 종속성이 없기 때문에 화면의 모든 픽셀 색상을 동시에 계산할 수 있습니다.또한 필요한 알고리즘은 분기를 처리할 필요가 없었습니다. 필요한 거의 모든 분기는 계수를 0 또는 1로 설정하여 달성할 수 있기 때문입니다.따라서 하드웨어는 매우 간단할 수 있습니다.분기 예측에 대해 걱정할 필요가 없으며 프로세서 슈퍼스케일러를 만드는 대신 칩에 최대한 많은 ALU를 추가하기만 하면 됩니다.

프로그래밍 가능한 텍스처 및 정점 셰이더를 통해 GPU는 일반 프로그래밍 가능성을 얻었지만 여전히 높은 처리량의 부동 소수점 연산을 위해 설계된 하드웨어에 의해 제한됩니다.보다 일반적인 목적의 계산을 가능하게 하기 위해 일부 추가 회로가 추가될 수도 있지만 어느 정도까지만 가능합니다.그래픽을 수행하는 GPU의 능력을 손상시키는 것은 무엇이든 통과할 수 없습니다.결국 GPU 회사는 여전히 그래픽 비즈니스에 종사하고 있으며 목표 시장은 여전히 ​​게이머와 고급 시각화가 필요한 사람들입니다.

GPGPU 시장은 여전히 ​​하락세에 있으며 어느 정도는 그럴 것입니다.결국, "예쁘게 보인다"는 것은 "매번 100% 보장되고 재현 가능한 결과"보다 충족하기 훨씬 낮은 기준입니다.

즉, GPU는 CPU만큼 실현 가능하지 않습니다.이는 다양한 종류의 워크로드를 위해 설계되었습니다.나는 GPU가 더 다양한 문제를 신속하게 해결하는 데 유용한 기능을 갖게 될 것이라고 기대합니다. 제도법 무엇보다도 처리 장치.

문제를 해결하는 데 가장 적합한 도구를 사용하여 문제를 해결하는 것이 항상 중요합니다.

장기적으로 범용 프로세서가 이러한 기능을 대신하기 위해 진화함에 따라 GPU는 더 이상 존재하지 않을 것이라고 생각합니다. 인텔의 Larrabee 가 첫 번째 단계입니다.역사에 따르면 x86에 대한 베팅은 나쁜 생각입니다.

대규모 병렬 아키텍처 및 벡터 처리에 대한 연구는 여전히 유용합니다.

GPU는 CPU를 대체하지 않습니다.CPU는 일련의 순차적 명령을 실행하고 GPU는 매우 특정한 유형의 계산을 병렬로 수행합니다.이 GPU는 수치 컴퓨팅과 그래픽에 큰 유용성을 가지고 있습니다.그러나 대부분의 프로그램은 이러한 종류의 컴퓨팅을 전혀 사용할 수 없습니다.

곧 GPU 수준의 부동 소수점 벡터 계산과 표준 CPU 계산을 포함하는 Intel 및 AMD의 새로운 프로세서를 보게 될 것입니다.

올바른 방법이라고 생각합니다.

저렴한 슈퍼 컴퓨터를 만들기 위해 GPU를 활용했다고 생각합니다., 그것은 사물의 자연스러운 진화 인 것 같습니다.이미 많은 컴퓨팅 성능과 R & D가 수행되었으므로 사용 가능한 기술을 활용하지 않으시겠습니까?

그러니하세요.멋진 조사를 할 수있을뿐만 아니라 고급 그래픽 카드를 구입해야하는 합법적 인 이유가 될 것이므로 전체 그래픽 디테일에서 Crysis와 Assassin 's Creed를 플레이 할 수 있습니다.)

1 ~ 2 개의 애플리케이션을 볼 수있는 것 중 하나이지만, 머지 않아 누군가가 초고속 속도로 더 일반적으로 유용한 작업을 수행하는 방법을 알아내는 '킬러 앱'을 만들 것입니다.

픽셀 셰이더를 사용하여 많은 수의 부동 소수점 값에 루틴을 적용 할 수 있습니다. GIS 적용 범위 응용 프로그램을 볼 수도 있고 잘 모르겠습니다.저보다 더 많은 시간을 할애하지 않으면 저와 같은 수준의 통찰력을 갖게 될 것입니다. 즉, 조금!

Intel 및 S3처럼 정말 큰 일이 될 수 있다고 생각합니다. 하드웨어에 약간의 조정을 추가하거나 머리 위에 전구가있는 사람이 필요할 수도 있습니다.

사용하지 않은 전력이 너무 많아서 너무 오래 사용하지 않을 수 있습니다.하지만 문제는 GPU가이를 위해 어떻게 사용될 것인가입니다.CUDA는 현재로서는 좋은 추측으로 보이지만 일반 개발자가 더 쉽게 접근 할 수있는 다른 기술이 등장하고 있습니다.

Apple은 최근에 CUDA보다 훨씬 간단하지만 매우 간단하다고 주장하는 OpenCL을 발표했습니다.정확히 무엇을 만들어야할지 모르겠지만 khronos 그룹 (OpenGL 표준에서 작업하는 사람들)은 OpenCL 표준에서 작업하고 있으며 OpenGL과의 상호 운용성을 높이기 위해 노력하고 있습니다.이것은 정상적인 소프트웨어 개발에 더 적합한 기술로 이어질 수 있습니다.

흥미로운 주제이며, 우연히도 CUDA를 중심으로 일반 개발자 (가능한 경우)가 GPU 성능을 가장 잘 사용할 수 있도록하는 방법에 대한 마스터 논문을 시작하려고합니다.

오래 전에는 부동 소수점 계산을 수행하는 것이 정말 어려웠습니다 (현재 80386과 같이 성능이 매우 뛰어난 CPU에서 명령 당 수천 / 백만주기의 에뮬레이션).부동 소수점 성능이 필요한 사람들은 FPU (예 : 80387)를 얻을 수있었습니다. 이전 FPU는 CPU 작업에 상당히 긴밀하게 통합되었지만 외부에있었습니다. 나중에 통합되어 80486에 FPU가 내장되어 있습니다.

구형 FPU는 GPU 계산과 유사합니다.AMD의 APU로 이미 얻을 수 있습니다.APU는 GPU가 내장 된 CPU입니다.

그러므로 귀하의 질문에 대한 실제 대답은 GPU가 CPU가되지 않고 대신 CPU에 GPU가 내장되어 있다는 것입니다.

라이센스 : CC-BY-SA ~와 함께 속성
제휴하지 않습니다 StackOverflow
scroll top