2010-11-29 1 views
0

Hadoop을 사용하여 큰 이미지를 JPEG2000 형식으로 인코딩/압축하는 작업을 수행했는지 궁금한가요? map reduce를 사용하여 이미지를 처리하는 http://code.google.com/p/matsu-project/도 있습니다.Hadoop과 같은 분산 컴퓨팅을 사용하여 Jpeg2000으로 인코딩 이미지

이미지 크기는 1TB +에 관한 것입니다 및 단일 시스템에서 얼마나 큰 이미지의 당신이 얘기 100Hour +

+0

이 문제가 발생했는지 궁금합니다. –

답변

0

한다? JPEG 2000 Wikipedia page에서 타일링과 웨이브 렛 변환은 쉽게 병렬 처리가 가능해야합니다. 타일은 서로 독립적으로 보입니다. JasPer이라는 오픈 소스 라이브러리가 널리 사용되는 것으로 보이지만 C로 작성되어 Hadoop과의 통합이 다소 까다 롭습니다.

기본적으로 코덱을 분해하고 맵 단계에서 적절한 타일링 및 ecoding 기능을 호출하고 축소 단계에서 이미지를 재구성하고 작성해야합니다. 아마도 JPEG 2000 형식 자체를 상당히 깊이 이해해야 할 것입니다.

질문 : 압축되지 않은 데이터를 이동 한 다음 한 대의 컴퓨터에서 연속적으로 타일을 처리하는 것과 비교할 때 얼마나 많은 시간을 소비합니까? 엔벨로프 계산의 가치가 있는지, 이론적 인 속도 향상이 단일 시스템에서 수행되는 것과 비교되는지를 확인하기 위해 엔벨로프 계산을 다시 할 수 있습니다.

+0

이미지 크기는 약 1TB +이며 단일 컴퓨터에서는 100Hour + – portoalet

관련 문제