나는 잠재적 인 중복 된 페이지 URL 수백을 던지고 개발자가 정렬 할 수있을 때까지 robots.txt를 통해이를 숨기는 방법을 연구하는 순간 전자 상거래 시스템을 사용하고 있습니다. 거기 밖으로 .......Robots.txt Disallow
나는 그럭저럭 대부분을 막을 수 있었지만 마지막 유형에 붙어있어 질문이있다. 아래의 구조로 동일한 제품 페이지에 4 개의 URL이 있는데, 첫 번째 블록은 어떻게 차단합니까? .
www.example.com/ProductPage
www.example.com/category/ProductPage
www.example.com/category/subcategory/ProductPage
www.example.com/category/subcategory/ProductPage/assessorypage
지금까지 내가 가지고 올 수있는 유일한 생각은 사용 :
Disallow: /*?id=*/
이 howeve r은 모든 것을 차단합니다 ...
EDIT : robots.txt 파일을 설정하여 모든 작업을 수행 할 수있는 방법을 찾은 것 같습니다. 모든 경로를 허용하고 특정 경로를 다시 허용 한 다음 다시 허용하지 않습니다. 그 후 특정 경로.
disallow> allow> disallow를 사용하여 SEO에 부정적인 영향을 미치는 지 누구든지 알고 있습니다.
, 모든 제품이 해당 URL의 끝에? ID = 수를,이 때문에 필자는 순간에 시스템 슬프게도 수 – user2291081