전제 조건이 두 개인 웹 사이트를 구축 중입니다. index.php 및 file.txt.PHP 파일 최적화 성능 최적화
File.txt에는 (현재) 10MB의 데이터가 있으며, 잠재적으로 최대 500MB가 될 수 있습니다. 사이트의 아이디어는 사람들이 index.php로 이동 한 다음 파일의 위치를 찾을 수 있다는 것입니다. 또 다른 특징은 탐색 지점에서 최대 10kb의 데이터를 읽을 수 있다는 것입니다. 따라서 :
index.php?pos=432
은 파일의 423 위치에 바이트를 가져옵니다.
index.php?pos=555&len=5000
는 지금
위치 (555)에서 시작하여 파일에서 데이터의 5킬로바이트를 얻을 하루에 수천 개의 안타를 받고 사이트를 상상합니다.
나는 현재 fseek
과 fread
을 사용하여 데이터를 제공합니다. 이 작업을 수행하는 더 빠른 방법이 있습니까? 아니면 내 용도가 너무 낮아서 각 요청의 결과를 캐싱하거나 파일을 메모리에로드하고 거기에서 읽는 것과 같은 고급 최적화를 고려할 수 없습니까?
인덱스가있는 데이터베이스 사용을 고려해야합니다. –
그러나 파일의 데이터는 어떤 방법 으로든 수동으로 작성되지 않습니다. 말 그대로 문자와 숫자의 무작위 시리즈를 저장합니다. 응용 프로그램은 사용자의 요청에 따라 임의의 데이터 세그먼트 (최대 10kb)를 검색합니다. 그래서 누군가는 위치 10에서 1000 바이트를 요청할 수 있고 위치 11에서 1000 바이트를 요구할 수 있습니다. 결과는 거의 동일 할지라도 서로 다릅니다. 귀하의 데이터베이스 구현은 그것을 어떻게 다루겠습니까? – Ozzy