여기 상황이 있습니다. 나는 그 웹 사이트 (사이트에 게시 된 모든 기사를 가리키는 URL 목록)에서 제공하는 로봇 페이지를 사용하여 기사의 데이터를 가져 오기 위해 웹 사이트를 폐기하고 있습니다. 지금까지 데이터베이스의 병합을 수행하여 URL을 내 테이블에 '업'레이트했습니다. 1400 개가 넘는 기사를 파싱해야하기 때문에 각각의 파기 작업은 훌륭하게 진행됩니다. 난 단지 내 서버, 등등 과부하하지 않도록 한 번에 크론에 작업의 작은 덩어리를 할 알고리즘을 작성해야합니다.크론 실행시 제한된 데이터 덩어리의 색인 생성/구문 분석 알고리즘 작성 도움말
편집 : 나는 drupal 7 또한, 시간이 지남에 따라 진행되는 스크립트가 있어야하며 데이터베이스의 초기 채우기에 걸리는 시간이 그리 걱정스럽지 않습니다. 로봇 페이지는 동적이며 기사가 추가되면 정기적으로 URL이 추가됩니다. 현재 hook_cron()을 사용하고 있습니다 만, 그보다 나은 방법이 있다면 더 나은 방법을 사용할 수 있습니다.
각 기사 사이를 60 초 정도 기다리는 것은 어떻습니까? 당신은 하루 만에 끝날 것입니다. –
좋아요,하지만 어떻게해야합니까? – MaxGhost