large-files

    3

    3답변

    ) $fp_src=fopen('file','r'); $filter = stream_filter_prepend($fp_src, 'convert.iconv.ISO-8859-1/UTF-8'); while(fread($fp_src,4096)){ ++$count; if($count%1000==0) print ftell($fp_src)."\n

    1

    3답변

    파일 크기가 매우 큽니다 (1 억 5 천만 라인 10 문자). 나는 150 만개의 파일을 200 만 줄로 나누고, 각 출력 줄은 원본 줄의 처음 5 글자 또는 마지막 5 글자로 나누어야한다. 필자는 펄에서 이렇게 빨리 할 수 ​​있었지만, bash를 사용하는 쉬운 해결책이 있는지 궁금해하고있었습니다. 아이디어가 있으십니까?

    8

    8답변

    델파이 (저는 델파이 2009를 사용합니다)에서 무엇을 사용하여 매우 큰 XML 파일 (예 : 100MB)을 가능한 빨리 처리해야하는지에 대한 권장 사항이 필요합니다. XML을 입력하고 내 프로그램에서 데이터를 액세스하고 업데이트 한 다음 수정 된 XML을 다시 내 보내야합니다. 빠른 Windows 컴퓨터에서 몇 초 내에 입출력을 수행 할 수 있기를 바랍니

    2

    4답변

    나는 CSV 파일을 10 ~ 20 메가의 라인 단위로 읽어야한다. file()은 쓸모가 없다 ;-) 그리고 나는 가장 빠른 방법을 찾아야한다. 필자는 fgets()를 사용해 보았지만, 호출 할 때마다 작은 블록을 읽는 지, 아니면 더 큰 파일을 캐시하고 I/O를 최적화하는지 모릅니다. EOL을 직접 구문 분석하여 fread() 방식으로 시도해야합니까? 감사

    6

    11답변

    숫자 데이터의 "매우 큰"ASCII 파일 (기가 바이트)이 많아서 프로그램에서 적어도 한 번 이상 순차적으로 처리해야합니다. 데이터 저장 /로드에 대한 조언이 있으십니까? 파일을 더 작게 만들고 더 빠르게 로딩 할 수 있도록 이진 파일로 변환하는 방법을 생각했습니다. 메모리에 모든 것을 한꺼번에로드해야합니까? 그렇지 않으면 데이터를 부분적으로로드하는 좋은

    3

    12답변

    파일 크기가 200MB보다 큰 파일을 처리 할 수있는 오픈 소스 대안 (ultraedit와 유사)이 있습니까?