MapReduce 작업은 일반적으로 HDFS 또는 HBase에서 파일을 가져옵니다.
먼저 출력 형식을 텍스트
샘플을 설정하는 작업의 주요 방법 또는 배치, 작업 클래스의 사용 setOutputFormat()를-줄일지도 당신에
이제 HDFS 파일 시스템 내부의 디렉토리의 절대 경로를 거치게 출력은
Configuration conf = new Configuration();
Job job = new Job(conf, "app");
job.setJarByClass(Application.class); // batch/main method's class name
job.setMapperClass(Mapper.class);
job.setReducerClass(Reducer.class);
job.setOutputKeyClass(Text.class);
job.setOutputValueClass(Text.class);
job.setMapOutputKeyClass(Text.class);
job.setMapOutputValueClass(Text.class);
job.setInputFormatClass(TextInputFormat.class);
job.setOutputFormatClass(TextOutputFormat.class);
FileInputFormat.addInputPath(job, new Path(args[0]));
FileOutputFormat.setOutputPath(job, new Path(args[1]));
입니다. 이제 hadoop 작업을 실행하는 동안 두 번째 매개 변수는 HDFS의 하위 디렉토리 경로 인 출력 경로입니다. 파일이 HDFS에 있기 때문에
이제 우리는 먼저 EXT3/4 파일 형식으로 HDFS에서 파일을 변환, 일반적인 유닉스 명령을 사용하여 액세스 나노/VI
DFS - 고양이 {path_to_outfile_inHDFS}
를 사용하여 읽어 질수
Hadoop이 아닌 Spark를 사용하려는 것처럼 들립니다. –