나는 csv 파일에서 정보를 구문 분석하고 SQL 문을 실행하여 테이블을 만들고 데이터를 삽입하는 스크립트를 가지고있다. 나는 ~ 25 GB csv 파일을 파싱해야하지만, 현재 스크립트로는 파싱 한 이전 크기의 파일로 판단 할 때 최대 20 일이 걸릴 것으로 예상됩니다. 내 스크립트를 최적화하여 더 빨리 실행하는 방법에 대한 제안 사항은 무엇입니까? 한 번만 호출된다는 사실 때문에 나는 createtable 함수를 생략했습니다. InsertRow()는 내가 실제로 더 빨리 만들 필요가 있다고 생각하는 함수입니다. 미리 감사드립니다.SQL을 실행하는 Python 스크립트 최적화
느린 속도는 insertRow()에서 데이터베이스에 연결할 때마다 발생해야 할 수 있습니까?
: 나는 당신이 sqlite가에 CSV를 가져올 수 있다고 생각 제대로 –
코드를 들여. http://www.sqlite.org/cvstrac/wiki?p=ImportingFiles – YXD
아마 25GB의 데이터에 대해 sqlite가 아닌 데이터베이스를 사용하고 싶습니까? –