1. 스파이더 로봇이 못오게 robots.txt 이용
파일명을 'robots.txt' 로 해서 웹사이트 루트(root) 디렉토리에 저장합니다.
모든 스파이더(*)가 모든 파일을 읽지 못하게 하는 경우
User-Agent: *
Disallow: /
* User-Agent : 스파이더 로봇 이름, Disallow : 제한할 파일 이름
모든스파이더가 특정디렉토리 및 파일을 읽지 못하게 하는 경우
User-Agent: *
Disallow: /intra/
Disallow: /secret.html
2. META 태그를 이용하여 못오게 하기
위의 두가지 방법을 사용하면 검색엔진 스파이더가 자료를 수집하지 않습니다. 이것이 검색엔진의 표준적인 '약속'이지만 이 약속을 무시하는 검색엔진도 간혹 있다는 것을 염두에 두십시요. 해당 태그를 잘못 사용하면 검색엔진에서 운영하는 사이트 검색이 되지 않을수도 있으니 조심해서 사용하십시요.
3. 참고사이트
http://www.robotstxt.org/wc/norobots.html
http://www.robotstxt.org/wc/exclusion.html
'컴퓨터 배우기' 카테고리의 다른 글
퍼미션 재설정할 필요없이 한꺼번에 압축하기. (0) | 2010.07.12 |
---|---|
초보를 위한 트래픽 각 칼럼별 의미 (0) | 2010.07.12 |
즐겨찾기 목록 가나다순으로 정렬하기 (0) | 2010.07.12 |
윈도우 XP자체프로그램으로 파티션나누기 (0) | 2010.07.12 |
가끔씩 tab 누르면 Alt+tab 기능이 나올때... (0) | 2010.07.12 |