Flume 1.3.0을 사용하여 모든 유형의 압축 파일 (예 : zip, bzip, lz4 등)을 hdfs로 가져올 수 있습니까? spoolDir을 사용할 계획입니다. 어떤 suggesion하시기 바랍니다.Flume을 사용한 압축 파일 처리
1
A
답변
3
모든 유형의 파일을 섭취 할 수 있습니다. 적절한 디시리얼라이저를 선택해야합니다.
아래 경로는 압축 파일에 적용됩니다. 당신이 필요로하는 당신은 옵션을 선택할 수 있습니다
agent.sources = src-1
agent.channels = c1
agent.sinks = k1
agent.sources.src-1.type = spooldir
agent.sources.src-1.channels = c1
agent.sources.src-1.spoolDir = /tmp/myspooldir
agent.sources.src-1.deserializer=org.apache.flume.sink.solr.morphline.BlobDeserializer$Builder
agent.channels.c1.type = file
agent.sinks.k1.type = hdfs
agent.sinks.k1.channel = c1
agent.sinks.k1.hdfs.path = /user/myevents/
agent.sinks.k1.hdfs.filePrefix = events-
agent.sinks.k1.hdfs.fileType = CompressedStream
agent.sinks.k1.hdfs.round = true
agent.sinks.k1.hdfs.roundValue = 10
agent.sinks.k1.hdfs.roundUnit = minute
agent.sinks.k1.hdfs.codeC = snappyCodec
0
당신은 소스에서 압축 파일을 떠나이 HDFS에 섭취되었을 때 데이터를 압축 수로에서 제공하는 압축 알고리즘을 사용할 수 있습니다. Avro 소스 및 싱크는 압축을 지원하며 사용하려는 경우에도 압축을 지원합니다.
0
사용자 지정 원본 구성 요소를 작성하여 해결했습니다. 사용자 지정 원본을 사용하여 모든 종류의 파일을 가져올 수 있습니다.
관련 문제
- 1. 서블릿을 사용한 파일 처리
- 2. VB.NET의 7z 압축 파일 처리
- 3. Hadoop 스트리밍을 사용한 gzip 파일 처리
- 4. Workflow Foundation을 사용한 파일 처리
- 5. 자바를 사용한 Excel 파일 처리
- 6. AVAssetWriter를 사용한 비디오 압축
- 7. PCA를 사용한 이미지 압축
- 8. 손실 압축을 사용한 이미지 처리
- 9. flex에서 압축 파일 압축
- 10. 압축/압축 xsl 파일
- 11. 압축 파일 압축
- 12. 스풀링 디렉토리에서 flume을 사용하여 HDFS로 파일 이동
- 13. Flume을 사용하여 로컬 파일 시스템을 HDFS로 복사
- 14. OpenMP에서 C++을 사용한 파일 처리
- 15. Powershell을 사용한 텍스트 파일 처리 (읽기/쓰기)
- 16. bash를 사용한 파일 및 텍스트 처리
- 17. C++에서 LinkList를 사용한 파일 처리
- 18. 아파치 camel exec를 사용한 다중 파일 처리
- 19. Awesome Typescript Loader를 사용한 .d.ts 파일 처리
- 20. 니스 캐시를 사용한 gzip 압축
- 21. MATLAB을 사용한 신호 처리
- 22. Groovy로 압축 파일
- 23. Log4net 출력 파일 압축
- 24. jboss를 사용한 로깅 압축 7.1
- 25. 프로토콜 버퍼를 사용한 델타 압축
- 26. 허프만 코딩을 사용한 이미지 압축
- 27. 개미를 사용한 gzip 최대 압축
- 28. PNG를 사용한 three.js 텍스처 압축
- 29. C# : aforge.net을 사용한 비디오 압축
- 30. 폴더/파일 압축/압축 해제
안녕하세요 리폰, 귀하의 appraoch에 대해 자세히 설명해 주시겠습니까? 관례 소스를 사용하면 각 파일을 이벤트로 읽을 수있을 것입니다. hdfs에 쓰기 위해 싱크 사이드에서 어떻게 처리할까요? –