| 인공지능, 보안의 위협이 아니라 친구로 만들기 | 2023.10.25 |
인공지능은 강력한 기술이다. 그렇기 때문에 보안의 위협이 될 수도 있지만 반대로 강력한 파트너가 될 수도 있다. 최근에는 각종 회의를 인공지능으로 보호하는 방안들이 연구되고 있다. 이를 통해 인공지능 활용법에 대한 전반적인 이해도도 높아지는 중이다.
[보안뉴스 문정후 기자] 기업을 운영하는 데 있어 보안의 중요성은 언제나 최상위급이었지만, 지금은 그 중요성이 오히려 더 부각되고 있다. 특히 인공지능의 도입이 빠르게 이뤄지고 있는 가운데, 인공지능이라는 기술이 가진 불완전성 - 그러므로 보안 리스크 - 에 대한 논의가 활발하게 이뤄지고 있기 때문에 보안은 더더욱 중요한 요소가 되어버렸다. 하지만 인공지능을 잘 활용한다면 오히려 보안을 강화하는 데 도움이 될 거라는 전망도 나오고 있다. ![]() [이미지 = gettyimagesbank] 인공지능, IT가 신뢰할 수 있는 파트너 세상 모든 임직원들이 회사에서 가장 많이 하는 건 무엇일까? 회의다. 평균적으로 모든 근로자들은 일주일에 23시간을 회의에 쓴다고 한다. 게다가 이 회의 시간에 각종 중요한 사안들이 논의된다. 민감한 기밀도 많다. 그러므로 이 회의 시간과 내용을 보호하는 게 모든 조직들의 급선무이며, 인공지능으로 보호해야 할 첫 번째 대상으로 꼽힌다 하더라도 이상할 것이 없다. 예를 들어 인공지능을 기반으로 한 규정 준수 어시스턴트를 사용한다면 회의의 맥락을 이해하여 참가자들에게 각종 ‘리마인더’를 제공할 수 있고, 이를 바탕으로 안전하게 회의가 진행될 수 있다. 또 어떤 예가 있을까? CEO 두 명이 회사 M&A에 대해 회의를 진행한다는 상황에서 인공지능을 활용하면 기본적으로 회의 스케줄에 앞서 일어날 수 있는 각종 오류나 실수들을 미연에 방지할 수도 있고, 기본적이지만 자주 저지르는 설정 오류도 막을 수 있게 된다. 따라서 비밀 회의를 전체 공개로 진행할 위험도 크게 줄어들 수 있으며, 이 회의 때 오가는 각종 문서들도 보다 안전하게 보호할 수 있게 된다. 또 어떤 예가 있을까? 회의가 연속적으로 진행될 때 꽤나 긴 스레드가 쌓이고, 회의와 관련된 각종 정보들도 누적된다. 방대한 양에 이르는 정보가 될 수 있고, 이를 보안의 관점에서 점검한다는 건 쉬운 일이 아니다. 이 때 대형 언어 모델이 있으면 자연어로 된 이 막대한 분량의 정보를 빠르고 간편하게 확인할 수 있게 된다. 그래서 분석가와 보안 담당자가 좀 더 면밀하게 들여다볼 부분이 어디인지도 금방 파악해 피해가 시간과 함께 커지는 걸 막을 수 있다. 사소한 말 실수로 인한 보안 침해 상황도 막을 수 있다. 회의에 대한 경험도 최적화 하는 인공지능 인공지능을 기반으로 한 솔루션들을 적극 활용한다면 회의 스케줄링이나 회의 주제 템플릿 생성과 같은 자질구레한 일들을 쉽고 빠르고 실수 없이 처리할 수 있다. 그러므로 시간과 기계적인 노력에 쏟을 에너지를 크게 아낄 수 있다. 이런 것들은 인공지능이 직접적으로 발휘하는 도움이라고 볼 수 있다. 하지만 인공지능은 간접적으로 회의의 질을 높이기도 한다. 시스템과 업무 프로세스 최적화를 통해 회의 참가자들이 회의 준비에 더 많은 시간을 할애할 수 있도록 하며, 그러므로 회의 때 공유되는 자료의 질을 높일 수 있다. 따라서 회의의 결과가 향상될 가능성이 높다. 이런 맥락에서 인공지능을 회의의 질을 높이는 도구로 받아들여 활용하는 것도 좋은 방법이 될 수 있다. 회의를 계획하고, 진행하고, 사후 관리하는 과정에서 수동으로 해야 하는 일들을 최대한 줄이는 것이 핵심인데, 그렇게 되면 될수록 보안 문제가 불거질 가능성이 낮아진다. 즉 보안 담당자의 유능한 조수로서 인공지능을 훈련시키고 활용한다는 것인데, 확실히 수작업의 수요가 낮아지면서 각종 실수나 호환성 충돌의 발생 가능성이 줄어든다. 인공지능으로 회의에 필요한 귀찮은 사안들을 처리하도록 하는 것만으로도 회의를 안전하게 보호할 수 있다. 리스크 파악하고 위험성 낮추기 인공지능은 아직 미지의 영역이다. 우리는 인공지능에 대해 이야기하고 있지만 사실 인공지능을 잘 알고 있다고 하기는 어렵다. 특히 보안의 관점에서 인공지능이 미칠 영향은 상상의 영역에 있을 뿐이고, 앞으로 각종 인공지능 관련 사건 사고가 터지기 전까지 우리는 상상의 이야기만 공유하고 있을 것이다. 그럼에도 기존 정보 보안의 이론과 실천 사항들이 유효하게 중요한 것으로 작용할 것은 기정 사실로 간주된다. 인공지능 알고리즘을 보호한다는 건 결국 인공지능이 훈련할 데이터를 보호하는 것이기 때문이다. 기존 정보 보안 이론이란 무엇인가? 즉, 인공지능과 관련된 보안 사고를 막거나 리스크를 줄이려면 어떤 개념을 염두에 두어야 할까? 다음 네 가지라고 본다. 1) 발견 가능성(discoverability) : 조직 내 어떤 팀이나 인원이 어떤 업무를 해결하기 위해 어떤 인공지능을 활용하고 있는지 파악해야 한다. 인공지능의 정확한 현황을 모르고 보안을 논하기는 힘들다. 지금 정보 보안 업계가 강조하는 가시성과도 비슷한 의미가 된다. 2) 편향성 : 회의를 통해 나온 방대한 분량의 텍스트를 대형 언어 모델 인공지능으로 요약하여 확인하고, 그렇게 함으로써 규정 준수 등의 리스크 요인을 빠르게 제거하는 게 가능하다. 다만 이 때 인공지능이 편향성을 내포하고 있다면, 그것이 요약본에 반영될 수 있고, 그 결과 엉뚱한 조치를 취하게 될 수도 있다. 편향성은 윤리 문제이기도 하지만 보안 문제이기도 하다. 3) 프라이버시 : 인공지능을 훈련시키기 위해 주입한 데이터는 훈련 후 삭제하기가 어렵다. 인공지능이 그 데이터를 통해 학습한 내용을 되돌리는 것도 어렵다. 인공지능에 정보를 주입하면 그 자체로 쏟아진 물이 되는 게 현재 상황이다. 그러므로 프라이버시를 침해할 수 있는 정보가 공유됐다면, 돌이킬 수 없는 사태로 이어질 수 있다. 이 부분은 처음부터 철저하게 관리 및 감독하는 게 중요하다. 4) 지속적인 실험 : 인공지능이 미지의 영역이라는 것은 아직 끊임없는 개발과 향상 단계에 있다는 것이다. 그렇기 때문에 언제든지 잘못될 수 있다. 어떤 것에라도 시행착오는 있기 마련이다. 중요한 건 그 시행착오가 실험실 바깥으로 나오지 않는 것이다. 인공지능 알고리즘에 대한 ‘품질 관리’는 끊임없이 진행해야 할 과제와 같다. 글 : 프랭크 루소(Frank Russo), CISO, Calendly [국제부 문정후 기자(globoan@boannews.com)] <저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지> |
|
|
|