2013-10-18 5 views
2

나는 잠재적 인 중복 된 페이지 URL 수백을 던지고 개발자가 정렬 할 수있을 때까지 robots.txt를 통해이를 숨기는 방법을 연구하는 순간 전자 상거래 시스템을 사용하고 있습니다. 거기 밖으로 .......Robots.txt Disallow

나는 그럭저럭 대부분을 막을 수 있었지만 마지막 유형에 붙어있어 질문이있다. 아래의 구조로 동일한 제품 페이지에 4 개의 URL이 있는데, 첫 번째 블록은 어떻게 차단합니까? .

  1. www.example.com/ProductPage
  2. www.example.com/category/ProductPage
  3. www.example.com/category/subcategory/ProductPage
  4. www.example.com/category/subcategory/ProductPage/assessorypage

지금까지 내가 가지고 올 수있는 유일한 생각은 사용 :

Disallow: /*?id=*/ 

이 howeve r은 모든 것을 차단합니다 ...

EDIT : robots.txt 파일을 설정하여 모든 작업을 수행 할 수있는 방법을 찾은 것 같습니다. 모든 경로를 허용하고 특정 경로를 다시 허용 한 다음 다시 허용하지 않습니다. 그 후 특정 경로.

disallow> allow> disallow를 사용하여 SEO에 부정적인 영향을 미치는 지 누구든지 알고 있습니다.

+0

, 모든 제품이 해당 URL의 끝에? ID = 수를,이 때문에 필자는 순간에 시스템 슬프게도 수 – user2291081

답변

2

rel = "canonical"속성에 대해 메타 태그를 설정할 수 있습니다. 이렇게하면 검색 엔진이 어떤 URL이 '올바른'URL인지 알게되고 검색 결과에 제품 당 하나 이상의 URL이 포함되지 않습니다.

읽기 자세한 내용은 here 내가 언급하는의해야 죄송합니다

+0

을하지하려고 위의 불허 그것은 바보 같은 URL 구조를 정리하는 것과 함께 일하는 개발자 중 하나입니다. – user2291081

관련 문제