25K 레코드가 포함 된 1.2G의 CSV 파일을 읽으려고합니다. 각각 ID와 큰 문자열로 구성됩니다. VM이 1백40기가바이트 RAM을 가지고 있기 때문에, 이상한 것 같다Pandas read_csv() 140GB RAM의 VM에서 1.2GB 파일 메모리 부족
pandas.io.common.CParserError: Error tokenizing data. C error: out of memory
및 10K 행에 메모리 사용량 만 ~ 1 %에 있습니다 :
그러나, 10K 행 주위에,이 오류가 발생합니다.
pd.read_csv('file.csv', header=None, names=['id', 'text', 'code'])
내가 성공적으로 100 % 가까이 내 메모리를 채울 수있는 다음 더미 프로그램을 실행 :
이
은 내가 사용하는 명령입니다.list = []
list.append("hello")
while True:
list.append("hello" + list[len(list) - 1])
'chunksize' 매개 변수를 사용하고 청크로 파일을 읽으려고 했습니까? – MaxU
@MaxU 그러면 iterator를 반환 할 것이고 가능하다면 피하려고하는 코드에서 처리해야 할 것입니다 –