행정․공공기관 웹 개방성 개선을 위한 홈페이지 점검 계획
|
최근 언론에 보도된 주요 공공 웹사이트의 웹 개방성 지수 평가결과와 관련하여대국민 웹사이트에 대한개방성 점검 등 개방성 확대 방안을 위한 조치계획임
|
□ 개선 방향
○공공정보는 사회·경제적 가치를 갖는 공공자산으로합리적인 정보공개와 공유가 가능하도록 보편적 접근성 보장 필요
○개방성과 개인정보보호 측면을 고려, 전체 홈페이지는 개방하되 개인정보 보유 영역만 차단하는 방식으로 선별적 해제
□ 점검 및 개선 방안
○ (조치대상) 부처 및 자치단체 소속ㆍ산하기관 주요 홈페이지(약 2천개)
○ (조치방안) 「웹 검색 차단을 해제」및 「홈페이지 연결 적용기술 개선」
① 방화벽(인터넷차단시스템)또는 홈페이지 자체 기능으로 차단한 것을 해제(‘14.12.20.까지 조치 완료)
※ 「붙임」웹 개방성 점검 기준을 참조하여 자체점검 실시
② 적용기술도 인터넷 표준에 적합한 기술로 전환 (‘15년내)
※ 예산이 수반되는 사항으로 ‘15년 유지보수 계약 등 반영하여 개선
○ (고려사항) 개인정보 등 중요정보가 들어 있는 영역에 대해서는 지속적인 검색 차단 유지 필요
※ 회원정보 등록관리 게시판, 관리자 페이지 등 중요정보에 대해서 계속 차단
□ 행정 사항
○ 각 행정기관에 조치방법 및 조치계획 수립 안내
- ‘14.12.20.까지 차단 해제하고, 홈페이지 적용 기술 전환을 위한 추진계획을수립하여 ’15년내 개선작업 완료
○ 지속적인 웹 개방성 확대를 위한 제도 추진
- 매년 정기적인 접근성 진단을 위한 진단기준 마련 및 진단 실시
항 목
|
구분
|
내 용
|
정보수집
차
단
|
검색엔진
접근차단
설정
|
평가
방법
|
크롬이나 파이어폭스 브라우저에서 제공하는 Use Agent Switcher를 통해 검색엔진 문자열 입력 후 출력화면 확인
|
차단
현상
|
• 웹 방화벽이나 웹서버의 운영정책에 따라 특정 검색엔진의 접속이나 특정 콘텐츠에 대한 접근 및 열람을 필터링을 통해 차단
• 검색로봇이 웹사이트 접속 시 웹 방화벽이나 웹서버의 HTTP에 포함된 user-agent의 정보를 보고 검색엔진의 접속을 차단
|
전체
웹사이트
정보수집
차단
(검색엔진
배제선언)
|
평가
방법
|
웹브라우저 주소 입력창에 /robots.txt 입력을 통해 검색엔진 접근차단 여부 확인
|
차단
현상
|
• 웹 루트 디렉토리에 저장한 robots.txt 파일을 검색엔진 접근 거부에 대한 정책을 선언함으로써 거부 선언된 검색엔진이 방문 시 이를 통해 검색을 수행하지 않음
• robots.txt 파일에 user-agent, disallow 조건을 정의함으로써 접근 거부 의지 표현
|
페이지별
정보수집
차단
|
평가
방법
|
<head>와 </head> 사이에 <meta name=“robots” content=“속성‘/> 유무 확인
|
차단
현상
|
• 페이지 내 meta 태그에 noindex, nofollow를 설정하여 페이지의 정보 공유 제한
• 웹 페이지 소스코드의 상단 <head>와 </head> 사이에 <meta name=“robots” content=“인덱스 속성 검색 속성"/> 형태를 표현함으로써 검색엔진에 대한 접근 거부 의지 표현
|
접속
오류
|
페이지
접속 오류
|
평가
방법
|
웹사이트 초기 접속 시 ActiveX 실행 여부 확인 및 특정 콘텐츠 영역이나 링크 정보에 대해 Flash, JavaScript, image, 등 구현 확인
|
차단
현상
|
• 웹사이트 초기 접속 시 ActiveX외 JavaScript, Flash, image등의 실행을 목적으로 하는 특정 웹페이지로 접속을 연결함으로써 검색엔진의 웹사이트 크롤링 불가
|
평가
방법
|
데이터베이스 기반 페이지의 URL을 다른 브라우저에 입력 후 콘텐츠 화면과 동일하게 나오는지 확인
|
차단
현상
|
• 검색엔진이 웹서버의 구현 특성에 따라 웹사이트의 하부 웹 페이지 URL를 추출하지 못하여 발생하는 검색 중단
|
※ 출처 : 웹발전소연구소의 WOI 3.5 평가항목 및 평가방법 준용