default_top_notch
default_setNet1_2

생성형 AI에 ‘개인정보 방패’ 씌운다, 첫 종합 가이드라인 공개

기사승인 2025.08.07  03:52:56

공유
default_news_ad1
article_right_top

생성형 인공지능(AI)을 개발하거나 활용하는 기업·기관을 위한 개인정보 보호 기준이 처음으로 공식화됐다. ChatGPT API 활용부터 LLM 미세조정까지, 이제는 각 단계마다 구체적인 개인정보 보호 책임이 요구된다.

개인정보보호위원회(위원장 고학수, 이하 개인정보위)는 8월 6일, 서울 정동 1928 아트센터에서 열린 「생성형 인공지능과 프라이버시」 오픈 세미나를 통해 「생성형 인공지능 개발·활용을 위한 개인정보 처리 안내서」(이하 ‘안내서’)를 전격 공개했다. 이번 안내서는 ▲서비스형 LLM 활용 ▲오픈소스 기반 모델 개발 ▲자체 LLM 설계 등 다양한 형태의 AI 개발·활용에 적용되며, 특히 의료·공공·금융 등 민감한 데이터를 다루는 국내 산업계에 직접적이고 실질적인 기준을 제공하게 된다. 안내서는 생성형 AI 개발·활용을 ▲목적 설정 ▲전략 수립 ▲학습·개발 ▲적용·관리의 4단계 생애주기로 나누고, 각 단계에서 기업이 확인하고 이행해야 할 최소한의 안전조치를 구체화했다.

예를 들어, 개발 목적 설정 시 개인정보 처리의 적법성을 확보하고, 학습·개발 단계에서는 데이터 오염·탈옥 대응, 에이전트 통제 등 리스크 대응 방안을 제시했다. 또한 개인정보보호책임자(CPO)를 중심으로 하는 거버넌스 구축 방안도 포함돼 있어, 현장 실무자들이 법적 기준을 체계적으로 반영할 수 있게 구성됐다. 개인정보위는 이를 통해 실무 현장에서 반복 제기된 “AI 개발에 개인정보보호법을 어떻게 적용해야 하는가”라는 불확실성 문제가 상당 부분 해소될 것으로 보고 있다.
특히 이번 안내서는 그동안 해석이 분분했던 “LLM 학습에 개인정보를 사용할 수 있는가?”라는 핵심 쟁점에 대해 개인정보위의 공식 입장을 담았다. 기존 규제샌드박스, 사전점검 등 집행사례에서 축적된 법 해석 기준과 대응 방안을 명시해 실효성 있는 가이드라인으로 기능할 전망이다. 또한 생성형 AI의 최신 기술 흐름인 ▲지식 증류(Knowledge Distillation) ▲머신 언러닝(Unlearning) ▲AI 에이전트 기술 등도 함께 고려해, 단순 규범을 넘은 기술 친화적 안내서로 설계되었다는 점에서 의의가 있다.

고학수 개인정보위 위원장은 “명확한 안내서를 통해 실무 현장의 법적 불확실성이 해소되고, 생성형 인공지능 개발·활용에 개인정보 보호 관점이 체계적으로 반영될 수 있을 것으로 기대된다.”라며, “앞으로도 개인정보위는 ‘프라이버시’와 ‘혁신’ 두 가치가 상호 공존할 수 있도록 정책 기반을 마련해 나가겠다.”고 말했다.

-심해영기자

심해영기자

<저작권자 © 재난포커스 무단전재 및 재배포금지>
default_news_ad4
default_side_ad1

인기기사

default_side_ad2

포토

1 2 3
set_P1
default_side_ad3

섹션별 인기기사 및 최근기사

set_hot_S1N1
set_hot_S1N2
set_hot_S1N3
set_hot_S1N4
set_hot_S1N7
set_hot_S1N5
set_hot_S1N6
set_hot_S1N8
set_hot_S1N10
set_hot_S1N11
set_hot_S1N12
set_hot_S1N13
set_hot_S1N14
set_hot_S1N16
set_hot_S1N15
set_hot_S1N17
default_setNet2
default_bottom
#top
default_bottom_notch