AI가 산업과 일상을 혁신하는 시대가 도래했지만, AI 성능의 핵심인 '방대한 데이터 학습' 필요성과 '개인정보 보호'라는 가치가 정면으로 충돌하는 딜레마가 심화되고 있습니다. 특히 생성형 AI는 학습 데이터를 '기억'하는 기술적 특성상 개인정보 침해 위험이 더 큽니다.
이런 상황에서 2011년에 제정된 현행 개인정보보호법은 '정보주체의 동의'를 기본 원칙으로 하고 있어, 인터넷상의 데이터를 스크랩핑하거나 복잡한 추론 과정을 거치는 AI 학습 방식과는 잘 맞지 않는 '회색지대'가 존재합니다.
이에 정부(개인정보보호위원회)는 AI의 사회적 효용과 글로벌 산업 경쟁력을 고려하여, 2024년과 2025년에 걸쳐 AI 관련 안내서들을 발간하며 새로운 기준점을 제시하고 있습니다. 이 안내서들은 '공개된 개인정보'를 정보 활용 이익이 클 경우 학습에 사용하거나, 이용자가 '프롬프트에 입력한 정보'를 LLM 성능 개선을 위해 추가로 이용할 수 있는 근거를 마련하는 내용을 담고 있습니다.
또한 의료 AI 연구에는 '가명처리'된 데이터를, 자율주행 분야에서는 '규제실증특례'를 통해 영상 원본을 활용할 수 있도록 하는 등 데이터 활용 요구에 부응하는 움직임도 나타나고 있습니다. 최근 대법원 역시 과학적 연구를 위한 가명처리 데이터 활용을 중시하는 판결을 내린 바 있습니다. 결국 대한민국이 글로벌 AI 강국으로 도약하기 위해서는, 데이터 학습과 개인정보 보호 사이의 균형점을 찾으며 변화하는 환경에 맞춰 법과 제도를 유연하게 발전시켜 나가야 합니다.