| [2020 AI 특집-3] 인공지능 윤리 가이드라인에 포함되어야 할 것 | 2020.01.06 |
인공지능의 본격적인 활용이 시작될 때, 가이드라인 반드시 필요
인공지능 윤리 서비스 시장 새롭게 시작될수도...사용자 조직도 알아둘 필요 있어 [보안뉴스 문가용 기자] 인공지능을 도입하고 실제 생산에 활용한다는 것은 아직도 많은 조직들에 커다란 난관이다. 인공지능의 미래가 핑크빛으로 물든 것처럼 이야기 되던 시절에도 그랬다. 하지만 인공지능에 대한 지나친 환상이 사라지기 시작하면서 새로운 문제들이 나타나기 시작했다. “인공지능이 책임감 있고 윤리적인 결과를 산출하도록 하려면 어떻게 해야 할까?” ![]() [이미지 = iclickart] 인공지능이 비윤리적인 결정을 내리기 시작한다면, 그 조직은 커다란 망신을 당하는 것은 물론 상황에 따라 업계에서 퇴출되거나 법을 위반했다는 판결을 받을 수도 있다. 그렇기 때문에 인공지능에 관심을 가지고 있는 조직들은 인공지능 윤리 가이드라인에 초점을 맞추기도 하는데 이 부분에 있어서는 가트너(Gartner)의 부회장이자 분석가인 프랭크 부이텐디크(Frank Buytendijk)가 여러 가지 답을 가지고 있다. “원래 인공지능에 대한 기대치가 무엇이었냐면, 인간이 실수로 나타내는 여러 가지 편향성이나 윤리적 문제를 제거할 수 있다는 것이었습니다. 사람의 불완전함을 기계의 완전함으로 해결함으로써 의료, 건축, 채용 등에서 불필요한 문제를 전부 제거할 수 있다고 여겼습니다. 지금에 와서 생각해보면 역설적이죠.” ‘쓰레기를 입력하면 쓰레기가 출력된다’는 오래된 진리는 변함이 없었다. 알고리즘을 훈련시키는 데에 사용되는 데이터는 불완전하고 편견이 가득한 우리 인간들이 만든 것이었고, 따라서 인공지능이 내는 답 역시 불완전하고 편견이 가득할 수밖에 없었다. 일부 기술 기업들은 이를 값비싸게 배우기도 했다. 마이크로소프트는 2016년 트위터 봇인 테이(Tay)를 런칭했으나, 테이는 트위터 세계에 사는 트롤들로부터 지나치게 많은 것들을 배웠고, 런칭 후 얼마 지나지 않아 인종차별주의적인 글과 댓글을 올리기 시작했다. 이 때문에 MS는 적잖은 망신을 경험했다. MS가 이 정도라면, 다른 기업은 인공지능의 이런 어두운 면에 어떻게 대응할 수 있을까? 인공지능을 가지고 실제 업무와 생산을 하는 게 가능은 할까? 부이텐디크는 이런 의문(혹은 회의)을 가진 조직들을 위해 몇 가지 가이드라인을 제시한다. “가장 윤리적인 인공지능 알고리즘을 활용하고 싶다면 다음 다섯 가지 항목이 반드시 가이드라인에 포함되어 있어야 합니다.” 그가 말하는 항목은 다음과 같다. 1) 인간 중심 / 사회적 이익 2) 공평함 3) 설명 가능함과 투명성 4) 안전과 보안 5) 책임 “CISO나 CIO의 역할은 조직 내 여러 사람 및 부서들과 이야기를 나누는 겁니다. 보통은 가이드라인 작성을 ‘운영’의 측면에서 접근합니다. 그래서 이건 해도 되는 것, 저건 하면 안 되는 것으로 명확히 구분하기 시작하죠. 그런데 이러한 방식은 가이드라인이 아니라 체크리스트를 만듭니다. 가이드라인을 만드는 이유가 ‘윤리적으로 AI를 활용하기 위한 것’인데, 윤리를 이분법적으로 접근한다는 게 말이 되지 않죠. 성공적인 가이드라인이 만들어질 수 없습니다.” 그렇다면 어떤 식으로 가이드라인을 작성해야 할까? 부이텐디크는 “딜레마라는 관점에서 접근하라”고 권장한다. “인공지능을 갖추고 활용함으로써 각 팀과 부서 혹은 개개인이 업무 중에 겪을 수 있는 딜레마가 무엇이 있는가를 제일 먼저 고려하라는 겁니다. 딜레마라는 건 잠시 걸음을 멈추고 생각하게 해준다는 측면에서는 좋은 겁니다. 또한 특정 문제에 대해 새롭게 평가 및 분석할 수 있게도 해주죠. 그러면서 인공지능 도입과 활용을 좀 더 천천히 생각할 수 있게 됩니다.” 인공지능 윤리 프로그램을 시작해보고 싶은 조직들을 위해 부이텐디크는 다음 몇 가지를 권장한다. 1) 인공지능의 윤리에 대해 잘 아는 전문가가 반드시 있어야 한다. 2) 개발자들을 위한 가이드라인부터 만들기 시작하되, 인공지능 유지 및 활용에 있어 각자가 가진 역할과 책임부터 설명하라. 3) 가이드라인 작성에 충분한 시간을 배정하라. 특히 관련 부서와 당사자들 간 논의가 얼마든지 이어질 수 있도록 배려해줘야 한다. 4) 인공지능 시스템이 어떤 식으로 행동하길 원하는지도 선명하게 정의하고 나누어야 한다. 거기서부터 훈련의 방법이 결정된다. 5) 그러나 인공지능이 언제나 원하는 방향으로만 발전하는 건 아니다. 인공지능 시스템이 다른 영역에서 다르게 행동하게 될 때를 대비해야 한다. “물론 이 권장사항들이 너무 복잡하거나 어려워 보일 수 있습니다. 그렇다고 포기하지 마십시오. 실제 행동에 옮기지 못하더라도 인공지능 윤리에 대해 알아보고 정보를 모아두는 건 계속 하십시오. 왜냐하면 ‘서비스형 인공지능 윤리’ 시장이 곧 생길 것 같은 분위기이기 때문입니다. 이러한 서비스를 통해 기업들은 특정 지역에 적용되는 각종 규칙에 쉽게 연결할 수 있을 것입니다. 인공지능을 지역의 고유한 규정에 맞게 운영할 수 있다는 것이죠. 알맞은 서비스를 고르기 위해서라도 사용자 기업이 인공지능 윤리에 대해 어느 정도 알고 있어야 합니다.” [문가용 기자(globoan@boannews.com)] <저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지> |
|
|
|