0

나는 뉴런 네트워크에 대해 (오, 끔찍한 생각으로) 생각하고 있었고 동시에 많은 원자 조작 (여기서는 동시에 의미하는)을 필요로하기 때문에 어떻게 시뮬레이션 할 수 있습니까? 왜냐하면 그것이 뉴런이 더 빠르기 때문입니다. 많은 것을 계산할 수 있습니다.대규모 병렬 응용 프로그램 : 비 벡터 IA 응용 프로그램의 경우 여러 개의 8 비트 코어는 어떻게됩니까?

우리의 프로세서는 32 비트이기 때문에 매우 큰 대역 (부동 소수점 또는 정수)을 계산할 수 있기 때문에 주파수 경쟁이 끝나고 제조업체는 멀티 코어 프로세서를 출하하기 시작합니다. 응용 프로그램에서 멀티 스레딩을 구현하십시오.

저는 컴퓨터와 두뇌 사이의 가장 중요한 차이점에 대해서도 생각하고있었습니다. 두뇌는 많은 뉴런을 사용하지만 컴퓨터는 높은 주파수로 정밀도를 사용하기 때문에 현재의 프로세서 모델로 실시간 AI를 시뮬레이트하는 것이 어렵거나 불가능한 것입니다.

32 비트/64 비트 칩은 많은 트랜지스터를 사용하기 때문에 AI는 벡터/부동 소수점 정밀도가 필요하지 않으므로 100 또는 1000과 같은 단일 프로세서에 더 많은 8 비트 코어가있는 것이 좋습니다 예를 들어 인텔이나 AMD에서 작동하지 않기 때문에 인텔의 시뮬레이션을 계획하는 데 훨씬 적은 공간이 필요하기 때문에 (예 : 인텔이나 AMD에서 작동하지 않아서 프로세서를 어떻게 디자인할지 모르겠다.

비록 웹 서버가 실제로 64 비트 프로세서 (문자열은 8 비트 사용)를 활용할 수 있는지 모르므로 AI 연구에만 도움이 될 것이라고 생각하지 않습니다. 제온 프로세서는 캐시 크기를 고려할 때만 다릅니다.

답변

0

설명하는 내용은 이미 멀티미디어 명령어 세트를 통해 제공됩니다. 컴퓨터 그래픽은 바이트 또는 반 바이트에 대해서도 많은 병렬 작업이 필요합니다. 따라서 CPU는 벡터 연산을 증가시키기 시작했습니다 (SSE, MMX 등). 보다 최근에는 그래픽 프로세서가 일반용 컴퓨팅 (GPGPU)까지 열었습니다.

나는 당신이 뉴런 처리가 이 아니라고 가정하고 착각했다고 생각합니다. 벡터 작업 : 많은 AI 연결 네트워크는 벡터 및 행렬 연산에 크게 의존합니다.

+0

분기 캐싱은 어떻게됩니까? 나는 조건부 검사 (if, switch 등)를 포함하는 모든 것을 의미하는 GPU가 분기 코드를 계산하기에 훨씬 적합하지 않다고 들었다. GPGPU의 이러한 유형은 또한 그러한 종류의 프로그래밍 패러다임에 최적인가? 어쩌면 내가 잘못 들었지만, 평행 한 그래픽 프로세서가 브랜치 (branching)에서 나쁘다. – jokoon

+0

GPU가 분기 할 때 문제가있는 것은 사실입니다. 다행히도 신경망의 경우 분기가 필요하지 않습니다. –

+0

AI에서 분기가 필요하지 않은 방법을 설명 할 수 있습니까? 분기는 컴퓨팅의 모든 측면에서 중요해 보입니다. – jokoon

관련 문제