보안 제품정보


인공지능의 윤리 문제, 무시하면 치명적인 독으로 작용한다 2022.06.21

인공지능의 활용 가치가 점점 높아지고 있는 가운데, 인공지능이 가지고 있는 각종 윤리적 딜레마들에 시선이 꽂히고 있다. 윤리적 딜레마라고 해서 기술적 문제보다 덜 중요하게 다룬다면 분명히 후회하게 된다. 이미 그런 후회를 눈물로 삼킨 사례들이 존재하고 있다.

[보안뉴스 문정후 기자] 투명성은 기업이 윤리적이고 사업적인 딜레마에 부딪혔을 때 돌파구가 될 수 있다. 더 많은 정보가 공개되면 공개될수록 결과와 원인에 대해 더 잘 알게 되기 때문이다. 예를 들어 예산이 삐그덕거리기 시작할 때, 투명하면 투명할수록 어디서 어떻게 오류가 발생했는지 빠르고 정확하게 알 수 있게 된다. 데이터 침해 사고가 발생했을 때도 투명하면 투명할수록 누가 어떤 책임을 가지고 있었으며, 잘 수행하고 있었는지 알기 쉽다.

[이미지 = utoimage]


하지만 오류의 명확한 근원을 찾았는데, 거기에 그 어떤 인간적 요소가 개입되지 않았다면 어떨까? 우리는 기계나 인공지능에 책임을 물을 수 있을까? 이 문제는 아직 해결되지 않은 인공지능 분야의 난제다.

인공지능이 가진 잠재력은 실로 어마어마하다. 하지만 아직 우리가 기대하는 수준에 미치지는 못하고 있다. 아직까지는 할 수 있는 일보다 일으킬 수 있는 문제가 더 많은 정도다. 상업화 혹은 보편화 되기에는 이른 수준으로, 이 기술을 온전히 활용하기까지에는 아직 조금 더 시간이 필요해 보인다.

그러나 오해하지 말아야 할 것이 하나 있는데, 인공지능이 아직 절대로 활용될 수 없는 기술까지는 아니라는 것이다. 우리 눈에 매일처럼 띄지 않을 뿐, 인공지능은 이미 알게 모르게 여러 현장에서 사용되고 있다. 또한 인공지능이라는 기술에만 윤리적 딜레마가 생기는 게 아니라 사업을 하면 원래 각종 딜레마에 부딪히게 된다. 인공지능만 유달리 별난 기술이 아니라는 것이다.

인공지능이 가진 갖가지 윤리적 문제는 사업에 치명적인 영향을 줄 수 있으며, 이를 막기 위해서는 기업 전체의 인공지능 거버넌스 원칙과 정책이 필요하다. 시작부터 기업의 대 원칙을 정하는 것이 반드시 필요한데, 그런 면에서 도움이 될 만한 이야기를 필자가 짚어보고자 한다.

인공지능에 투명성과 신뢰 더하기
이제 대부분의 사람들이 인공지능의 잘못된 사례들을 한두 개 정도 알고 있다. 피부가 짙은 사람들 앞에서는 무용지물이 되어 버리는 인공지능 자동 손 세정기, 백인들에 대한 측정 값이 훨씬 정확한 인공지능 산소포화도 측정기, 한 번 감옥에 갔다온 범죄자들이 다시 감옥에 들어갈 것이라고 예측하는 인공지능 등 잘못된 편향성을 보이는 사례들이 이미 여럿 존재한다.

그런데 이런 결과가 당신의 회사에서 운영하는 인공지능이 낸 것이라면 어떨까? 그래서 회사 이름이 헤드라인에 실리고 소셜미디어에 각종 악성 댓글들이 달리기 시작하면? 당장의 손실은 물론 당분간 인공지능 프로젝트에 손도 대지 못하게 될 것이다. 후자의 경우는 광범위하고 장기적인 손실로 이어질 수 있는데, 예를 들어 인공지능에 대한 불신 때문에 인공지능에 대한 연구와 투자가 소극적으로 변하게 된다면 의료 분야에서 인공지능이 살릴 수 있는 생명의 수가 자연히 줄어들 수밖에 없다. 인공지능은 암의 조기 발견 등에 있어 뛰어난 기능을 선보일 것으로 촉망 받는 기술이다.

필자는 동료들이나 여러 기업의 경영진들과 인공지능에 대해 이야기할 기회가 자주 있는데, 그럴 때마다 투명성과 거버넌스부터 확립하라고 강조한다. 그리고 그 가치를 인공지능 프로젝트 시작 단계에서부터 끝까지 유지해야 한다는 것 역시 거듭 말한다. 이를 좀 더 상세히 풀면 다음과 같다.

1) 윤리적인 인공지능은 아무 것도 없는 곳에서 탄생하지 않는다. 인공지능 애플리케이션이 개발 단계에서 잘못된 영향을 받으면 그 파급력이 꽤나 커질 수 있다. 인공지능이 전문적인 분야라며 기업이 조직적 차원에서 인공지능 프로젝트를 관리하지 않을 때 이런 일이 벌어질 확률이 높다.

인공지능 개발 팀은 인공지능의 윤리 문제가 일으킬 수 있는 사건의 파급력을 인지하고 있는가? 기업의 데이터 유지 및 접근 관련 정책들이 인공지능 개발에 있어서도 지켜지고 있는가? 감독 체제가 제대로 갖춰지지 않으면 이 두 가지 문제를 답하는 것도 힘들어진다. 감독이 제대로 되지 않고 있던 팀은 사건이 벌어졌을 때 제대로 수습도 하지 못한다.

그렇다고 모든 혁신을 마비시킬 정도로 꽉 조이라는 건 아니다. 그건 감독이 할 일이 아니다. 오히려 혁신을 원활하게 하기 위해 안전선을 정해주는 것이 감독을 하는 이유다. 기업마다 상황이 달라질 수 있지만 이런 감독의 역할은 주로 CIO나 CDO가 맡을 가능성이 높다.

2) 항상 계획이 있어야 한다. 인공지능 프로젝트가 잘못되어 신문 기사에 오르내릴 때를 대비하라는 뜻이다. 여태까지 발생한 수많은 인공지능 관련 사건 사고에서, 문제를 더 키우거나 불필요하게 확대시킨 것 중 하나는 기업들의 잘못된 대응이다. 쇄도하는 여러 질문들에 최악의 답변을 하는 경우가 많은데, 이는 계획을 세우지 않았기 때문이다. 인공지능 개발과 활용에 대한 대 원칙이 수립되어 있을 경우, 그래서 회사가 나서서 처음부터 감독을 충실히 했을 경우, 잘못된 대응 때문에 문제가 커지는 일은 충분히 막을 수 있다.

3) 주의하고 또 주의하며, 실험하고 또 실험해야 한다. 인공지능 편향성과 인공지능 윤리와 관련된 다양한 사건 사고들이 존재하는데, 개발자 측에서 조금만 더 실험을 꼼꼼하게 했으면 발생하지 않았을 사례들이 대부분이다.

위에서 말한 자동 세척기의 경우, 해당 기업은 자신들이 먼저 인공지능 세정기를 발명했다는 걸 하루라도 빨리 발표하고 싶었다. 그러면서 필요한 실험을 전부 진행하지 않았고, 이것이 치명적인 독이 됐다. 몇 차례만 더 실험을 했어도 충분히 먼저 발견할 수 있던 문제였다. 인공지능 애플리케이션들은 출시 전에 훨씬 더 꼼꼼하게 분석되고 검토되어야 한다.

4) 인공지능 감독관을 따로 지정하는 게 효율적이다. 예를 들어 금융 서비스 업체들은 고객의 프라이버시를 보호하기 위해 민감한 정보들에 대한 접근 및 제어에 상당히 많은 자원을 투자한다. 자산들을 철저하게 분류하고, 딱 맞는 담당자들만이 서류에 접근할 수 있도록 하며, 한 번에 많은 양을 열람하는 것도 금한다. 이런 것처럼 인공지능 개발 프로젝트 역시 철저하게 관리하려면 전담 책임자를 물색하여 지정하는 게 큰 도움이 된다.

글 : 제프 디버터(Jeff DeVerter), CTO, Rackspace Technology
[국제부 문정후 기자(globoan@boannews.com)]

<저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지>