article_right_top
공공기관이 인공지능(AI) 사업을 추진할 때 개인정보 침해 위험을 사전에 차단할 수 있는 구체적 기준이 처음 마련됐다. 인공지능 시스템의 무분별한 도입으로 개인정보 대량 유출이 발생할 수 있다는 우려가 커지는 상황에서, 제도적 장치가 본격 가동되는 셈이다.
개인정보보호위원회(위원장 고학수)는 9월 3일 열린 전체회의에서 「개인정보 영향평가에 관한 고시」 개정안을 의결했다. 개정안은 9월 5일부터 시행된다. 그동안 영향평가 제도는 일정 규모 이상의 개인정보 파일을 구축·운영하는 공공기관에 적용되어 왔지만, 인공지능 분야에는 별도 기준이 없어 각 기관이 자체적으로 평가항목을 만들어야 했다. 이 때문에 평가의 적정성과 객관성이 담보되지 못한다는 지적이 이어져 왔다.
이번 개정으로 평가기준은 두 분야로 신설됐다. AI 시스템 학습·개발 단계에서는 △법적 근거 확보 △민감정보·아동정보 불필요 포함 여부 △학습용 데이터 보유·파기 규정 등을 점검한다. AI 시스템 운영·관리 단계에서는 △개발·운영 주체 책임 명확화 △생성형 AI 서비스의 이용 방침(AUP) 제공 △부적절한 답변이나 개인정보 노출에 대한 신고·권리구제 기능 마련 등이 핵심 기준으로 제시됐다.
개인정보위는 이번 개정안을 바탕으로 상세한 사례와 해설을 담은 ‘개인정보 영향평가 수행안내서’를 배포한다. 또한 기관·기업의 의견을 반영해 평가항목을 지속적으로 보완할 방침이다. 이번 조치는 공공기관뿐 아니라 민간기업에도 파급 효과가 클 전망이다. AI 활용 과정에서 잠재적 위험을 사전에 식별·차단하는 예방 체계를 세우는 데 실질적 참고자료가 될 것으로 예상된다.
-심해영기자
심해영기자
<저작권자 © 재난포커스 무단전재 및 재배포금지>