| AI와 개인정보보호의 충돌, 어떻게 해결하나 | 2018.12.13 |
AI와 개인정보보호의 충돌, AI로 인한 차별 문제 등 발생 가능성
개인정보보호 관점에서 AI 기술의 문제점 진단해야 [보안뉴스 김경애 기자] 최근 머신러닝, 인공지능(AI) 기술에 대한 관심이 높은 가운데 AI와 개인정보보호의 충돌, AI로 인한 차별 등의 문제가 발생할 수 있다는 우려의 목소리가 제기됐다. AI의 훈련 데이터는 대부분 과거 내용을 학습해 반영되는데, 과거 당시 통계적 편향이나 사회적 차별이 존재한다면 훈련 데이터 역시 이를 그대로 반영할 수 있기 때문이다. 이는 결국 AI의 의사결정에서의 한계에 따른 것으로, AI 기술이 어떤 상황에서 어떻게 쓰여지는지 개별적 상황을 잘 살펴보고 논의가 이뤄져야 한다는 의견이 나왔다. ![]() [이미지=iclickart] 12일 열린 네이버 프라이버시 토크 콘서트에서 고학수 서울대학교 법학전문대학원 교수는 “AI와 개인정보보호 이슈와 관련해서 일례로 신용평점의 경우 AI가 신용평점의 부여 방식에 대한 설명을 듣는다고 해서 해당 평점의 산정방식에 대해 충분히 이해하고 수긍하는 것이 가능한지 또는 신용평점이 낮아서 대출계약이 거절됐을 때 어떻게 하면 신용평점을 높일 수 있느냐에 대한 구체적인 파악이 가능한지, AI 모형의 개발 과정에서 얼마나 세밀한 데이터 이용이 허용될 수 있는지 등 개인정보와 관련해 여러 이슈가 발생할 수 있다”며 “개인정보가 포함된 데이터의 경우 개인정보보호 기본원칙과 충돌할 수 있다. 이는 통계적 특징을 편향 없이 그대로 보여주는 상세한 훈련 데이터 구축의 경우 개인정보 최소수집 원칙과 상충되기 때문”이라고 밝혔다. ![]() ▲고학수 서울대학교 법학전문대학원 교수[사진=보안뉴스] AI 활용 과정에서의 차별 문제는 이 뿐만이 아니다. 각종 변수를 세분화해 분석할수록 더 정확하고 엄밀한 분석이 가능한 반면, 하위집단을 어떻게 구성하는지에 따라 차별 여부에 대한 판단이 달라질 수 있다. 이와 관련 고학수 교수는 “어느 수준으로 세분화된 데이터를 수집·분석하도록 허용할 것인지 엄밀한 분석이 필요하다. 또한, 투명성 제고에 대한 사회적인 요구는 점차 높아지는 한편, 투명성을 높일 때 나타나는 부작용도 고려해야 하고, 적정한 수준의 투명성이 무엇인지 또는 서로 상충되는 법·정책적 목표 사이에서 균형을 이룰 수 있는 해결책이 존재할 수 있는지 따져봐야 한다”고 설명했다. 또한, 김종기 부산대학교 경영대학 경영학과 교수는 “정보사회에서 정보 프라이버시에 대한 관심이 고조되고 있다. 프라이버시 분류는 공간, 결정, 정보 프라이버시로 분류된다. 정보 프라이버시 염려에 대한 개념적 이해가 필요하다. 또한, 행동경제학 관점에서 프라이버시 역설 현상을 설명하는 다양한 관점이 필요하다”고 말했다. ![]() ▲12일 개최된 네이버 프라이버시 토크 콘서트[사진=보안뉴스] 이외에 AI가 차별을 유발시켰을 때 책임문제와 데이터의 정확성 기준 등에 대한 논의, 규제하기 쉽지 않은 알고리즘 연구도 필요하다는 의견도 나왔다. [김경애 기자(boan3@boannews.com)] <저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지> |
|
|
|