보안 제품정보


[한국정보보호학회 칼럼] AI 기반 미래사회와 보안 2019.02.20

AI 기술이 가져올 위협 사전에 예측하고 분석해 부작용을 최소화할 수 있는 방안 강구해야

[보안뉴스= 정수환 한국정보보호학회 수석부회장] 최근 들어 AI 기술은 사회의 다양한 영역에서 활용되기 시작했으며, 이러한 경향은 미래에 더욱 확산될 것으로 예측되고 있다. 간단한 AI 스피커부터 AI로 동작하는 무인자동차, AI 로봇이 나타나더니, 보안 분야에서는 AI 해커까지 출현하는 양상이다. 앞으로 이런 변화가 어디까지 진행될지, 또 미래사회는 AI 기술에 어디까지 의존하게 될지, 현재로서는 예측조차 쉽지 않을 정도로 사회의 모든 영역들이 빠르게 변화하고 있다. 가까운 미래에 우리는 일상생활의 많은 부분을 AI가 내리는 결정에 의존하게 될 것이다. 광범위한 빅데이터를 기반으로 내리는 AI의 결정을 인간의 결정보다 더 신뢰하는 사회가 도래할 가능성이 크다.

[이미지=iclickart]


여기서 잠깐 인터넷 기술 발전 역사를 돌아보자. 불과 30년 전까지만 해도 인터넷 기술은 극소수의 전문가들만 아는 기술로서 사회의 일반 영역에서는 거의 사용되지 않는 기술이었으나 30년 만에 인터넷은 우리 사회를 지탱하는데 없어서는 안 되는 인프라가 되었다. 지금은 단 하루만 인터넷이 멈추어도 통신, 금융, 철도 등 다양한 사회 영역에서 큰 혼란이 초래되며 그 파급효과가 빠른 속도로 확산된다.

인터넷을 처음 설계한 사람들은 컴퓨터 간의 효율적인 통신을 지원하는 프로토콜을 만드는데 초점을 맞췄다. 모든 노력은 많은 컴퓨터를 빠르게 연결하고 내용을 빠르게 확산하기 위한 메커니즘에 집중됐다. 그 결과 오늘날 인터넷은 지구상의 모든 기기들을 빠르게 연결하고 사람들을 신속하게 연결하는 데는 성공했으나, 뉴스를 통하여 거의 매일 접하듯이 해킹, 피싱, 랜섬웨어 등 수없이 많은 사이버보안 문제들을 발생시키고 있다.

만약 인터넷을 초기에 설계한 사람들이 오늘날 이렇게 다양한 사이버 보안 문제가 발생할 것을 미리 알았더라면 오늘날 인터넷은 상당히 다른 방향으로 설계되었을 가능성이 있다. 예를 들어, 네트워크 접속단계부터 개인 인증을 필수로 인터넷상의 모든 행위를 통제하고 추적한다든가, 혹은 정보를 빠르게 전달하기 위해 모든 노드들이 정보를 수신하도록 하는 브로드캐스트 사용 프로토콜을 최소화 한다던가 하는 조치를 취했을 것이다. 그랬더라면 오늘날 우리가 겪고 있는 많은 사이버 보안 이슈는 상당히 줄어들었을 가능성이 높다. 하지만 그 당시에는 오늘날 인터넷이 이렇게 사회 인프라 기술로 사용되고 이렇게 많은 사이버 보안 문제가 발생하리라는 것을 전혀 예측하지 못했다고 초기 인터넷 개발자가 직접 고백하는 것을 들은 적이 있다.

AI 기술도 미래에 더욱 빠른 속도로 우리 사회의 인프라를 형성할 것으로 예상되며 저명한 미래 학자들은 20년 안에 우리 사회의 많은 영역이 AI 없이 지탱하기가 힘든 시대가 될 것으로 예측하고 있다. 일상생활의 많은 행위들이 AI 기반 인프라에 의존하며 상당히 중요한 결정들이 AI에 의해 영향을 받을 가능성이 높다. 매일 접하는 뉴스, 우리의 생명을 담보로 하는 의료행위, 일상적인 교통 및 운송, 사법 판단 등의 법률행위 등에서 우리는 직간접적으로 AI를 신뢰하고 그들이 내리는 결정에 따르게 될 가능성이 높다.

▲정수환 한국정보보호학회 수석부회장[사진=정수환 교수]

하지만 우리는 30년 전 인터넷 기술 개발에서 그 이면을 보지 못했던 어리석음을 AI 기술 개발에서 똑같이 되풀이할 가능성을 현재 목도하고 있다. AI 기술은 빠른 속도로 사회의 각 영역으로 확산되고 있으나 미래에 나타날 그 부작용에 대해서는 그다지 심각하게 받아들이고 있지는 않는 것 같다. AI 기술이 가져올 생산성 향상이라는 달콤한 열매에만 흠뻑 빠져들고 있으며 그 열매 속에서 자라고 있는 독성에는 둔감한 상태이다. 앞으로 20년 후 AI 인프라 기반 사회에서 AI 오동작으로 우리가 경험하게 될 부작용과 혼란은 현재 인터넷 인프라 기반 사회에서 인터넷 단절로 우리가 경험하는 부작용과 혼란보다 얼마나 크고 넓을 지 상상하기조차 두렵다. AI 오동작으로 인한 부작용은 단순한 사회 혼란을 넘어 직간접적으로 우리의 생명을 위협할 것이며 경우에 따라서는 인간의 존엄성이 크게 훼손되는 부작용으로 나타날 가능성이 높다. 해킹 공격이나 오동작으로 인간의 통제를 벗어난 AI가 우리 생활이나 사회에 끼칠 해악은 쉽게 가늠하기 어려울 것이다.

아직 우리에게는 기회가 남아 있다. AI 기술이 우리 사회의 미래에 가져올 위협을 사전에 예측하고 분석하여 그 부작용을 최소화시킬 수 있는 방안을 빠르게 강구해야 한다. 현재에 사용되고 있는 AI 알고리즘 및 동작원리, AI에 공급되는 데이터의 오류, AI 사용 환경 등을 심도 있게 분석하여 AI 오동작 및 위협 가능성을 최소화하는 방법을 찾고, 필요하다면 안전한 AI 인프라 설계기준을 마련해야 한다. 고층 빌딩 하나를 지을 때도 안전한 설계 기준이 있는데 사회 전 영역의 기반 인프라를 구축하는데 안전한 설계 기준이 없다는 것은 매우 위험한 일이다. 미래 어느 날 우리 사회 기반이 하루아침에 우르르 무너지는 위험을 간과하고 있는 것이다. AI 해킹 공격이나 오동작으로 인한 피해를 예방하기 위한 이중삼중의 안전장치를 마련해야 한다. AI 사용을 통해 얻어지는 생산성 향상이라는 이익을 최대한 지키면서도 그 부작용을 최소화시킬 수 있는 방안을 강구해야 한다. 이제 우리가 지혜와 집단 지성을 모아 안전한 AI 기반 미래 사회를 설계해야 할 때이다.
[글_ 정수환 한국정보보호학회 수석부회장/숭실대학교 교수]

<저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지>