홈페이지 운영팁

혹시, 홈페이지 제작이 고민이신가요? A/S와 서비스 품질이 다릅니다.
인천을 대표하는 IT 기업으로써 고객만족과 기업가치의 극대화를 실현합니다.

홈페이지 상담 문의하기
1566-8667

robots.txt 파일 만드는 방법

2021-05-04

robots.txt 파일 만드는 방법

 

 

[검색엔진 최적화(SEO)의 기초 robots.txt 파일 만드는 방법]
내 홈페이지를 돈 없이 홍보하는 좋은 방법은 검색엔진 최적화(SEO)입니다.
SEO가 잘 되어 있는 홈페이지는 그렇지 않은 홈페이지에 비해 검색엔진에 더 많이 노출될 기회를 갖기 때문입니다.
검색엔진에 최적화된 홈페이지가 별도의 비용 없이도 좀 더 많은 사람들이 방문하게 할 수 있습니다.
오늘은 SEO 작업에 가장 기본이 되는 'robots.txt 파일 만드는 방법'을 알려드리겠습니다.
- robots.txt 란?
로봇 배제 표준(robots exclusion standard), 로봇 배제 프로토콜(robots exclusion protocol)은 홈페이지에 로봇이 접근하는 것을 방지하기 위한 규약으로, 일반적으로 접근 제한에 대한 설명을 robots.txt에 기술하였습니다.
검색엔진에게 내 홈페이지의 자료를 퍼가도 된다 혹은 이 폴더는 퍼가지 말라라는 것을 알려주는 지표가 됩니다.
- robots.txt 위치
robots.txt 파일은 항상 사이트의 루트 디렉토리에 위치해야 합니다.
http://도메인명/robots.txt 로 저장해야 검색봇이 정상적으로 크롤링을 하게 됩니다.
- robots.txt 문법
User-agent:*
Allow: /
설명 : 모든 검색로봇에 대해 모든 페이지 접근 허락
User-agent: *
Disallow: /
설명 : 모든 로봇 접근 차단
User-agent:*
Disallow: /admin/
설명 : 모든 검색로봇에 대해 /admin/ 폴더 접근 차단
User-agent: Googlebot
Disallow: /
설명 : 구글 검색로봇에 대해 모든 검색 제외
폴더에 대한 조건
"/admin"은 디렉터리와 파일까지도 포함하고
"/admin/"은 디렉터리만을 의미함
다양하게 조합하여 사용할 수 있습니다.
User-agent: googlebot        # googlebot 로봇만 적용
Disallow: /private/          # 이 디렉토리를 접근 차단한다.
User-agent: googlebot-news   # googlebot-news 로봇만 적용
Disallow: /                  # 모든 디렉토리를 접근 차단한다.
User-agent: *                # 모든 로봇 적용
Disallow: /something/        # 이 디렉토리를 접근 차단한다.
각 검색엔진의 경우 검색로봇의 크롤링 후 반영되는데 있어서는 24시간 정도가 지나야 반영이 되는 것으로 보입니다.

감사합니다.
주소
인천 남동구 선수촌공원로 5, C동 912호
(구월동, 구월테크노밸리)
대표번호
1566-8667
운영시간
평일 오전 9:30 ~ 오후 6:30

사이트 하단 정보

카카오톡 카카오스토리 블로그 인스타그램 페이스북
  • 상호 : 에이디커뮤니케이션
  • 대표 : 우세진
  • 사업자등록번호 : 130-39-21061
  • 고객센터번호 : 1566-8667
  • 팩스 : 02--6924-8414

  • 소프트웨어 사업자 : B11-43345
  • 이메일 : master@ad-com.kr
  • 주소 : 인천 남동구 선수촌공원로 5, C동 912호(구월동, 구월테크노밸리)