thebell

전체기사

[프라이버시 리스크]데이터 먹고 자란 AI, 규제 논의 본격화AI-프라이버시 불가분 관계, 리스크 관리 필수

이종현 기자공개 2025-01-13 08:20:20

[편집자주]

개인정보 보호가 기업의 새로운 리스크로 떠올랐다. 세계 각국은 자국민의 개인정보를 지키기 위한 법 체계를 강화하는 경쟁을 벌이고 있다. 법 위반에 따른 제재도 강화되면서 수조원대 과징금을 부과받은 사례도 나타났다. 데이터를 핵심 자원으로 삼는 AI 시대의 도래로 '프라이버시 리스크'는 더 커질 것으로 예상된다. 개인정보 보호를 둘러싼 국내외 동향과 이에 대응하는 기업·기관의 움직임을 살펴본다.

이 기사는 2024년 12월 27일 16:10 thebell 에 표출된 기사입니다.

인공지능(AI)의 등장 이후 개인정보의 중요도는 더 커졌다. AI 학습을 위해 데이터를 수집·활용하는 과정에서 개인정보 역시 포함돼 있기 때문이다. 치열해지는 AI 경쟁이 개인의 프라이버시를 침해할 수 있다는 우려가 곳곳에서 터져 나오고 있다.

문제는 기존 개인정보보호법이 AI 기술에 적용할 수 없는 경우가 점차 늘고 있다는 점이다. 산·학계 전문가들을 중심으로 개인에게 책임을 미루는 대신 선제적인 조치가 필요하다는 요구가 빗발치면서 AI 환경에서의 프라이버시 보호를 위한 제도가 논의되기 시작했다. 국내에서도 국가 개인정보 전문기관은 개인정보보호위원회(이하 개인정보위)를 중심으로 관련 조치가 이뤄지는 중이다.

◇AI 프라이버시 리스크 관리모델

개인정보위는 12월 19일 '안전한 AI·데이터 활용을 위한 AI 프라이버시 리스크 관리 모델'(이하 안내서)을 발표했다. 기업·기관이 AI 기술을 도입·적용할 때 프라이버시 리스크 관리의 방향과 원칙을 제시하는 것이 골자다.

안내서 논의를 이끈 박상철 서울대 교수는 "빠르게 발전하는 AI 기술과 기존 개인정보보호 규제 간 간극과 긴장이 발생하고 있어 대응이 필요한 시점"이라며 안내서 마련 배경을 설명했다.


안내서에서는 AI와 프라이버시에 대해 "AI 발전은 개인정보를 포함한 대규모 데이터 처리에 기초하고 있어 AI와 프라이버시 리스크는 불가분 관계"라며 "AI 기술이 요구하는 데이터 처리방식의 근본적인 변화는 개인정보 유·노출 등 전형적인 프라이버시 리스크를 심화시키고 기존 환경에서 예측하지 못한 새로운 리스크를 유발한다"고 설명했다.

불확실성이 높은 AI 영역에서 리스크 기반 접근을 통해 부작용을 관리하며 AI 기술의 이점을 극대화하는 데 주안점을 둔다. 적용 대상과 리스크 범위, 기타 법령 또는 안내서와의 관계 등을 포함해 구체적인 관리 절차, 식별·경감 방안 등이 포함됐다.

구체적인 리스크 유형으로는 적접하지 않은 학습데이터 수집·이용과 학습데이터의 부적절한 보관·관리, AI 가치망 데이터흐름의 복잡화 등을 제시했다. 대규모 개인정보 수집·이용이 늘면서 기업의 법준수 리스크가 커진 만큼 그에 따른 적법성을 확보하는 것이 중요하다는 것이 개인정보위의 지적이다.

관리적 조치에 대한 안내뿐만 아니라 기술적 조치에 대한 내용도 포함된 점이 눈길을 끈다. 학습데이터 전처리 과정에서 정보를 가명·익명화해 처리하거나 중복제거 기술을 적용하도록 하는 등의 내용이다.

또 기술적으로 생성한 가상 합성데이터의 활용이나 사람 피드백 기반 강화학습(RLHF) 등 미세조정 방법론이나 사생활 침해 우려가 큰 답변 생성을 유도할 경우 답변 생성을 거절하는 등의 입·출력 필터링 기술도 소개했다. 국내 LLM 4개 모델을 선정해 경감 기술을 적용하는 실험한 후 관련 연구 결과를 담기도 했다.

DB에 노이즈를 추가해 데이터를 보호하면서 통계적 쿼리는 유지하도록 하는 차분 프라이버시 개념. [개인정보보호위원회]

◇빈번하게 발생 중인 AI 프라이버시 리스크

실제 AI 학습을 위해 적법 근거 없이 무분별하게 개인정보를 수집·이용하는 사례는 빈번하게 발생하고 있다. AI가 암기한 개인정보를 원본 그대로 노출하면서 이름·집주소 등이 노출되거나, 개인의 신원을 도용해 가짜 정보를 생성하는 등의 일이 빚어지기도 한다. 2021년 발생한 '이루다 사태'가 이 케이스다.

이루다 사태는 AI 기술이 프라이버시 리스크로 이어진다는 점을 보여준 대표 사례로 꼽힌다. 스타트업이 특정 서비스를 통해 수집한 개인정보를 새로운 AI 채팅 서비스의 개발에 활용했고, 채팅 과정에서 AI가 계좌번호나 주소 등 민감한 정보를 답변하는 일이 벌어져 논란이 된 건이다. 해당 스타트업은 법 위반으로 과징금·과태료로 약 1억원의 징계를 받았다.

1억원이라는 과징금·과태료가 피해에 비해 너무 가볍다는 비판이 제기되기도 했다. 다만 개인정보보호법 위반에 대한 과징금·과태료 규모는 기업의 매출 규모에 따라 결정된다. 2020년 기준 스캐터랩의 매출액은 약 10억원이다. 연간 매출액의 10%에 달하는 제재가 내려진 셈이다.

이루다 이후 눈에 띄는 AI 프라이버시 관련 제재 사례는 등장하지 않았다. 다만 학습 데이터를 공개하지 않아 제재로까지 이어지지 않을 뿐, 대다수 기업들이 관련 리스크에서 자유롭지 못하다는 것이 업계 중론이다. AI로 인해 불거지는 저작권 논쟁도 같은 맥락이다.

'챗GPT' 등장 이후 AI에 대한 관심이 커졌고 본격적인 도입·적용이 예상되면서 AI 프라이버시 리스크에 대한 우려도 확산되고 있다. 이루다에 대한 처분이 내려진 2021년 대비 처벌조항도 강화됐다. 만일 대기업에서 비슷한 사고가 발생할 경우 수백억원 이상의 과징금·과태료를 각오해야 하는 만큼 각별한 주의가 필요하다.
< 저작권자 ⓒ 자본시장 미디어 'thebell', 무단 전재, 재배포 및 AI학습 이용 금지 >

더벨 서비스 문의

02-724-4102

유료 서비스 안내
주)더벨 주소서울시 종로구 청계천로 41 영풍빌딩 4층, 5층, 6층대표/발행인성화용 편집인김용관 등록번호서울아00483
등록년월일2007.12.27 / 제호 : 더벨(thebell) 발행년월일2007.12.30청소년보호관리책임자황철
문의TEL : 02-724-4100 / FAX : 02-724-4109서비스 문의 및 PC 초기화TEL : 02-724-4102기술 및 장애문의TEL : 02-724-4159

더벨의 모든 기사(콘텐트)는 저작권법의 보호를 받으며, 무단 전재 및 복사와 배포 등을 금지합니다.

copyright ⓒ thebell all rights reserved.