2014-02-05 1 views
0

우선 저는 서 (서)에서 매우 새롭습니다. 현재, 나는 웹 사이트를 개발하고있다. 내 문제는 누락 된 사이트 스 니펫에 관한 것입니다.Google 검색 엔진에 누락 된 웹 사이트 발췌 물

가이 같은 결과를 제공합니다 구글의 검색 엔진을 사용하여 사이트를 검색하려고 메신저

:

www.xxxxxxxx.com.ph/가 이 결과에 대한 설명 때문에이 사이트의 로봇을 사용할 수 없습니다 .txt - 자세히 알아보십시오. 내가 이런 코드가 각 페이지에

하지만 내 헤더 태그에 : 내 헤더 태그로 정확한 형식을 충족 놓친 했는가

<title> PH SAMPLE XXXXX | Official site</title> 
    <link rel="shortcut icon" href="_img/favicon.ico" type="image/x-icon" /> 
    <meta name="description" content="Each Antica Murrina jewellery is the result of a combination of traditional craftsmanship and style-conscious minded fashion and trends." /> 
    <meta name="keywords" content="Antica Murrina, Glam Glass 2012, Fashion Glass Jewellery, accessory, Venezia, handmade, design" /> 

? 도와주세요! 미리 감사드립니다!

답변

0

우선 페이지의 머리 안에있는 메타 태그에는 아무런 문제가 없습니다.

문제는 Google의 크롤러가 웹 사이트를 크롤링하지 않도록 지시하는 robots.txt 파일을 발견해야하는 서버에 있습니다. 이것은 부정적인 영향을 미칠 귀하의 사이트의 SEO는 아마조차도 없다는 다른 페이지가 귀하의 웹 사이트에 존재합니다.

서버에서 파일을 삭제하거나 Google에서 웹 사이트를 크롤링하지 못하게하는 항목 만 삭제하면됩니다.

모든 검색 엔진에서 웹 사이트의 색인을 생성하여 검색 엔진 최적화를 높이려면 파일을 완전히 삭제하십시오.

편집 : 당신은 당신이 @ J2D8T 사이트에 robots.txt 파일이없는 자신의 의견에 언급 한 것처럼 더에 대한 robots.txt https://support.google.com/webmasters/answer/156449?hl=en

+0

답장을 보내 주셔서 감사합니다. 나는 디렉토리에서 robots.txt 파일을 찾을 수 없다고 두려워합니다. – cyx

+0

보통 루트 디렉토리에 있습니다'robots.txt 파일을 사용하려면 도메인의 루트 (확실하지 않은 경우 웹 호스팅 업체에 문의하십시오). 도메인의 루트에 액세스 할 수없는 경우 로봇 메타 태그를 사용하여 액세스를 제한 할 수 있습니다. ' – J2D8T

+0

좋습니다. 나는 이것을 시도 할 것이다. 고맙습니다! – cyx

0

를 읽으려면 여기 링크입니다.

http://anticamurrina.com.ph/robots.txt

로 이동하여 따라서 우리는이 메시지를 잡하는 이유가 없을 것,이 경우 확인할 수 있습니다. CMS를 사용하고 있으므로 블록이 없어야합니다. 소수의 사람들이 단순히 때때로 문제를 일으킬 수있는 하나의 부재에 robots.txt를 작성하여 성공을 거두었습니다

http://www.seroundtable.com/google-robots-snippet-15576.html

이 문서에 따르면 (그러나이 특정 워드 프레스 될 수있다). 수동으로 robots.txt 파일을 만드는 것이 좋습니다.

단순히 파일 robots.txt를 만들고 내부에 다음을 배치 그리고

User-agent: * 
Disallow: 

당신이 (tyhe 인덱스로 같은 장소를) 웹 사이트의 루트에이를 업로드해야합니다 (이 모든에 액세스 할 수 있습니다) 성공에 당신은

http://anticamurrina.com.ph/robots.txt

로 이동하여 파일의 존재를 볼 수 있어야합니다.

나는 Lynx 텍스트 브라우저로 사이트를 테스트했으며 사이트가 예상대로 나타납니다.

http://www.vordweb.co.uk/standards/download_lynx.htm

내가 robots.txt 파일을 생성 한 후 제안

, 단순히 며칠 기다렸다가 설명을 제대로 당겨되고 있는지 확인하기 위해 다시 구글을 확인합니다.

+0

안녕하세요. 나는 이것을 뒤따라 며칠 동안 지켜 볼 것입니다. 나는 결과를 곧 알려 드릴 것입니다. 고마워요! – cyx

+0

http://anticamurrina.com.ph/robots.txt에서 여전히 404 오류가 발생합니다. 파일이 .txt 확장자이고 웹 서버의 루트인지 확인하십시오. 사이트의 색인 파일과 동일한 위치에 있습니다. –

+0

안녕하세요. 이 문제가 해결되었습니다. 내가 왜 robots.txt를 사용했는지 그 이유는 여전히 404입니다. 내가 CMS를 사용하지 않아서 당신이 말한 것을 고려해 보았습니다. 그래서 사이트가 "다소"내용을 차단했기 때문입니다. 때때로 대기가 중요합니다. Btw, 도와 줘서 고마워. 나는 그것들을 미래의 참고 자료로 사용할 것이다. 건배! – cyx

관련 문제