2013-05-30 2 views
2

10 천 개가 넘는 파일이있는 버킷이 있습니다. 'ls -l'폴더를 수행하는 동안 다음과 같은 오류가 발생하지만 폴더의 파일이 1000 개 미만이면 정상적으로 작동합니다. 어떤 제안?ls : 디렉토리 읽기 ./ : S3FS를 통한 입출력 오류

LS : 독서 디렉토리 ./ : 입력/출력 오류 폴더에있는 파일의 각 목록은 S3에 HTTP 호출을 것을 나는 알

는, 혹시이 # 증가시킬 수있다?

감사합니다.

+0

그런 까다로운 상황을 피하고 S3의 하위 디렉토리를 사용하는 것이 좋습니다. – yegor256

답변

0

새 프로젝트 인 RioFS (사용자 공간 S3 파일 시스템)를 보시려면 https://github.com/skoobe/riofs을 권하고 싶습니다.

이 프로젝트는 "s3fs"대안이며, "s3fs"와 비교하여 주요 이점은 단순성, 작업 속도 및 버그없는 코드입니다. 현재 the project은 "테스트 중"상태이지만 꽤 오랫동안로드가 많은 파일 서버에서 실행되었습니다.

우리는 더 많은 사람들이 프로젝트에 참여하여 테스트를 돕고 있습니다. 우리 측에서는 신속한 버그 수정을 제공하고 새로운 기능 추가 요청을 경청합니다.

RioFS

디렉토리 당 파일 같은 큰 숫자와 함께 잘 작동하지만, 당신을하는 데 도움이 우리가 기대하고있다

이 희망 (riofs.conf.xml에서 dir_cache_max_time 설명 참조) 구성 파일의 디렉토리 캐시 제한 시간을 증가 보시기 바랍니다한다 당신이 우리 공동체에 합류 한 것을 보았습니다!