보안 제품정보


AI 로봇 ‘소피아’와 윤리 그리고 보안 2018.02.02

AI 시대, 법적·제도적 장치로 윤리 녹여내야...국제표준에서 우리 문화·정서 반영해야
미래사회 대비해 윤리문제 공론화 필요...다양한 분야 직군 전문가 참여해야


[보안뉴스 김경애 기자] 인공지능(AI) 로봇 소피아가 최근 한국을 방문해 이슈가 됐다. 홍콩의 로봇제조사 핸슨 로보틱스가 개발한 AI 로봇 소피아는 ‘지혜’란 뜻으로 인간의 공감능력을 담아 내겠다는 의미를 갖고 있다. 얼굴은 배우 오드리 헵번을 본떴으며, 62가지 감정을 표현할 수 있다. 로봇 최초로 사우리아라비아에서 시민권을 발급받는 영예를 안았을 뿐만 아니라 경제사회이사회(ECOSOC)에 패널로도 참여했다.

▲서울여자대학교 김명주 교수[사진=보안뉴스]


이번 소피아의 한국방문은 AI 기술을 좀더 현실적으로 체감할 수 있는 기회가 됐다. “대형화재가 발생했을 때 할머니와 아이 중 한 명만 구해야 한다면 누굴 먼저 구하겠냐?”라는 질문에 소피아는 “마치 엄마가 좋아, 아빠가 좋아라는 질문과 같다”며 “출입구에 가까운 사람부터 구해야 한다”며 현명하게 답했다. 개발자는 어떤 생각으로 소피아를 만들었을까? AI 발전에 있어 개발자의 사회적 책임과 윤리의 중요성을 소피아가 보여준 셈이다.

이에 본지는 정보문화포럼 지능정보사회 윤리분과위원장인 서울여자대학교 김명주 교수와의 인터뷰를 통해 AI의 보안위협과 윤리문제를 짚어봤다.

AI 보안위협은 AI의 보안위협은 무궁무진하다. 이를테면 주식거래를 담당하는 로보 어드바이저끼리 악의적으로 연결되면 대규모 주식 거래가 조작될 수도 있고 주가가 폭락할 수 있다. 뛰어난 학습능력을 갖춘 AI끼리 대화하고 협업해 부당하게 이윤을 창출할 수 있으며, 사전 정보를 주고받아 불법적인 문제를 야기시킬 수 있기 때문이다. 뿐만 아니라 해킹과 방어라는 끝없는 사이버전쟁을 AI들이 주도적으로 끌어갈 수 있다. AI의 부작용와 역기능을 염두에 볼 때 AI 발전을 위해서는 궁극적으로 윤리문제가 논의되고 상당부분 해결돼야 한다.

AI의 윤리문제를 해결하려면 어떻게 해야 하나 AI 기술과 관련해 윤리 문제는 갈수록 심각해질 것으로 보인다. AI의 윤리 문제를 법적·제도적 장치를 통해 녹여내야할 뿐만 아니라 글로벌 AI 서비스에서 필요한 국제표준으로서의 윤리기준 설정 과정에도 우리나라의 정서와 윤리가 반영돼야 한다. 그리고 이러한 윤리적 이슈들을 범국민적으로 공론화시키고 공감대를 넓혀야 한다.

AI의 윤리 문제와 국제표준에 대해 말씀해 주신다면 솔직히 우리나라는 주요 선진국에 비해 AI나 로봇 기술이 발전하지 못했다. 다른 나라는 이미 10여년 전부터 AI 기술 발전에 따른 투자·연구가 진행되어 훨씬 앞서 있는 반면, 우리나라는 조금 뒤쳐져 있는 게 사실이다. 선진국들은 글로벌 AI 서비스의 본격화에 대비해 글로벌 윤리 기준을 이슈화하고 있다. 앞으로 글로벌 AI 서비스를 제공하려면 윤리에 관한 글로벌 표준을 먼저 만족하고 통과해야 가능한 때가 곧 올 것이다. 그러다보니 글로벌 AI 윤리를 논의하는 국제 모임에서 우리나라는 빠져 있거나 주도적인 역할을 하지 못하고 있다는 현실은 정말 심각한 문제이다.

해당 이슈에 대한 다양한 국제흐름이 이미 존재한다. 예를 들어, 국제전기전자학회(IEEE)에서는 인공지능 윤리에 관한 글로벌 이슈를 모아서 정리 중이다. 국가적 다양성을 감안해 공통적인 요소를 최소한으로 뽑는다고 해도 국가별로 어울리지 않은 기준이 제시될 수 있다. 이를 테면 유럽과 일본에서는 이미 섹스로봇 판매가 허용되고 있으며, 섹스로봇과의 결혼까지 허용해 달라는 요구도 표출되고 있다. 이 때문에 이러한 서비스를 가능하게 하는 AI 윤리가 제정될 경우 이것이 우리나라에도 과연 맞을 수 있을지 미리 생각해 봐야 한다. 특히, AI 윤리의 글로벌 표준 제정 과정에서 우리의 문화나 정서를 반영한 목소리가 배제되지 않도록 해야 한다.

이는 기존의 인터넷 윤리와는 차원이 다른 심각하고 중요한 문제다. 앞으로 AI의 등장으로 전세계적으로 큰 변화가 일어날 것이며, 여러가지 문제들이 전 세계적으로 발생할 것이다. 따라서 글로벌 AI 서비스를 위한 윤리 표준을 수립하는데, 우리도 목소리를 내고 참여할 수 있도록 처음부터 관심을 기울이는 것이 중요하다.

AI 기술을 개발하는 개발자 윤리 구현은 어떻게 해야 하나 개발자의 경우 AI 서비스에 대한 악의적인 설계와 구현을 하지 못하도록 직업관과 기술관이 바로 설 수 있게 해주는 직업윤리가 무엇보다 중요하다. 자신이 설계한 제품이 사회에 나왔을 때 미치는 영향, 파장 등 결과에 책임질 수 있도록 해야 하고, 처음부터 이를 심도 있게 고민하고 연구해야 한다. 의도적이든 의도적이지 않든 AI가 악용되는 일이 없도록 설계부터 제품이 출시되기까지 모든 과정을 고려한 엄격한 잣대가 필요하며, 경우에 따라서는 법령, 강령 등을 통해 선제적으로 반영해야 한다.

AI 미래사회를 대비한 공론화에 대해 자세히 말씀해 주신다면 미래사회에 대비한 다양한 가능성을 고려하고, AI의 부작용과 역기능에 대한 윤리 차원의 공론화가 광범위하게 이뤄져야 한다. 앞으로 어떤 문제가 어디서 발생할지 모르기 때문에 다양한 직군과 전문가, 시민 등이 함께 참여해 바람직한 AI 사회에 관해 논의해야 한다. AI 기술 주도 하에 사회가 이끌려가면 AI는 자칫 재앙이 될 수도 있다. 인공지능 시대에 걸맞는 시민의식, 보안의식, 윤리의식을 갖도록 개발자는 물론 소비자들도 함께 깨어 미래사회 변화를 맞이해야 한다.
[김경애 기자(boan3@boannews.com)]

<저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지>