위키피디아 DB 복사본 (약 50GB)을 만들려고하지만 최대 SQL 파일에 문제가 있습니다.MYSQL 크기가 큰 GB의 SQL 파일 삽입
나는 리눅스 분할 유틸리티를 사용하여 300MB의 청크로 크기 파일을 GB로 분할했습니다. 예 :
split -d -l 50 ../enwiki-20070908-page page.input.
평균 300MB 파일은 내 서버에서 3 시간이 걸립니다. 우분투 12.04 서버 OS와 MySQL 5.5 서버를 가지고 있습니다.
나는 다음과 같이 시도하고있다 :
mysql -u username -ppassword database < category.sql
참고 :이 파일은 삽입 문으로 구성되며, 이러한 CSV 파일이 없습니다.
위키 피 디아는 다운로드를 위해 데이터베이스 덤프를 제공하므로 누구나 위키 백과 사본을 만들 수 있습니다. 여기에 예제 파일이 있습니다 : Wikipedia Dumps
내 MySQL 서버 설정 때문에 가져 오기가 느리다고 생각하지만 무엇을 변경해야할지 모르겠습니다. 알맞은 프로세서와 2GB RAM이있는 컴퓨터에서 표준 Ubuntu MySQL 구성을 사용하고 있습니다. 누군가 내 시스템에 적합한 구성으로 나를 도울 수 있습니까?
innodb_buffer_pool_size를 1GB로 설정하려고 시도했지만 실제로 사용하지 않았습니다.
왜 category.sql을 가져 오시겠습니까? 유용한 정보가 거의 없습니다. – svick
SQL 삽입 구문을 사용하여 50G SQL 삽입 파일을 여러 300G 삽입 파일로 분할하는 방법이 궁금합니다.내가 뭔가를 놓친 것일 수도 있습니다 ... – Aijazs
@Aijazs :: 분할 사용하여 파일을 변환하는거야 300 MB의 청크. 실제로 모든 덤프는 각 삽입 구문이 '/ r'(Enter) delimeter로 구분되는 형식으로 이루어집니다. 그래서 저는 줄 번호를 기준으로 나누고 있습니다. – Imran