저는 cudaMemcpy를 호출하고 복사본이 성공적으로 반환되지만 소스 값이 대상에 복사되지 않습니다. memcpy()를 사용하여 비슷한 조각을 썼다. 내가 여기서 무엇을 놓치고 있니? // host externs
extern unsigned char landmask[DIMX * DIMY];
// use device constant memory for
내 GPU에는 ADT7473 칩이 포함되어 있습니다. 이 칩에서 내 카드의 온도에 대한 정보를받는 데 관심이 있습니다. 내 질문은이 칩에 액세스하는 방법입니다. IN/OUT 명령을 사용하여 수행 했습니까? 편집 : 나는 칩의 문서에서 발견되는 라인을 추가 할 수 있습니다 : 표를 레지스터 읽기 (18) 온도 (파워 온 기본 = 0x01로) (주 1, 2)
CUDA는 프로그래머에게 a & b | ~ c (a, b, c은 unsigned int)과 같은 것을 쓸 수있는 가능성을 제공합니다. GPU는 내부적으로 어떤 기능을 수행합니까? 어떻게 든 정수에서 비트 연산을 "에뮬레이션"합니까? 아니면 기존 CPU와 비슷하게 효율적입니까?
"SIMT"아키텍처의 개념과 디자인 중 일부는 여전히 나에게 불분명합니다. 많은 스레드가 잠금 단계에서 실행될 수 있기 때문에 코드 경로와 if()를 분산시키는 것은 다소 나쁜 생각입니다. 이제 그게 정확히 무슨 뜻입니까? 다음과 같은 경우는 어떻습니까? kernel void foo(..., int flag)
{
if (flag)
DO
NVidia Tesla 2050 GPU 카드가있는 새로운 Dell Precision 워크 스테이션을 설치하려고합니다. 나는 R 패키지의 gputools를 설치하고 싶다. 내 OS는 KDE 4.4가 설치된 openSUSE 11.3입니다. NVidia의 CUDA Toolkit 3.2를 다운로드하여/usr/local/cuda에 설치 했으므로 최신 버전의 CULA
대부분의 사람들은 CPU가 GPU와는 달리 부동 소수점 계산을 잘 수행하지 못한다는 것을 알고 있습니다. 나는 추상화 레이어 나 드라이버없이 GPU의 힘을 사용하는 방법을 궁금해합니다. 어셈블리, C, C++ 언어를 사용하여 GPU를 프로그래밍 할 수 있습니까? 어셈블리가 gpu에 직접 액세스하는 데 도움이되는 것 같지만 C/C++는 GPU에 액세스하기 위
약 1 백만 개의 이미지에 대해 이미지의 평균 밝기가 필요한 어플리케이션이 있습니다. GPU 프래그먼트 쉐이더의 경우와 같이 "느끼는"느낌이지만 조각 쉐이더는 픽셀 단위의 로컬 계산을위한 반면, 이미지 평균은 전역 작업입니다. 텍스쳐에 이미지를로드하고, 2x2 box-blur를 적용하고, 결과를 N/2 x N/2 텍스처로 다시로드하고 출력이 1x1이 될 때