| 생성형 인공지능 시대에 CISO와 CTO가 해야만 하는 일 3가지 | 2024.03.10 |
CISO와 CTO들은 인공지능의 안전한 활용법을 전파하는 데 있어 꼭 해야만 하는 일이 있다. 어쩌면 이들만이 할 수 있는 일일 수도 있다.
[보안뉴스 = 롭 융커 CTO, Code42] 최근 몇 년 동안 생성형 인공지능과 같은 최첨단 기술이 대중의 관심을 끌었다. 매일 새로운 인공지능 기반 챗봇, 인공지능 기반 확장 프로그램, 인공지능 기반 앱이 전 세계 사용자들을 유혹한다. 가트너에 의하면 기업들의 55%가 생성형 인공지능을 적극 실험하고 있거나 실제로 운영하고 있다고 한다. 1년 전만 해도 ‘생성형 인공지능’이라는 단어조차 생성했던 걸 생각하면 어마어마한 속도의 발전이라고 할 수 있다. ![]() [이미지 = gettyimagesbank] 하지만 모든 게 좋을 수만은 없다. 각종 편리를 제공하는 만큼 생성형 인공지능에는 리스크가 따라붙는다. 블랙베리(BlackBerry)의 조사에 따르면 전 세계 기업들의 75%가 챗GPT 등 각종 생성형 인공지능의 업무상 사용을 금지시키고 있거나, 금지 조치를 고려하고 있다고 한다. 데이터 보안과 개인정보 유출의 위험을 우려하고 있기 때문이다. 인공지능의 데이터 보안 문제는, 사용자가 입력하는 내용과 인공지능이 출력하는 내용이 인공지능의 학습에 지속적으로 활용되기 때문에 발생한다. 그래서 사용자가 챗봇에 기업의 기밀 데이터를 공유하면 그 정보가 모델에 통합되며, 다음 사용자들에게 그 정보가 공개될 수 있다. 그래서 기업들은 대부분 CISO와 CTO에게 이러한 문제를 완화시킬 것을 요구하고 있다. CISO와 CTO들이 인공지능이 야기하는 문제를 완화시키기 위해 할 수 있는 일은 크게 세 가지인데, 이를 소개하자면 다음과 같다. 1) 전사 교육 : 생성형 인공지능을 통해 데이터가 노출될 수 있으며, 이것이 보안 및 규정적 리스크를 가져다주는 게 당연하니 많은 기업이 당장은 생성형 인공지능 사용을 금지할 수밖에 없다. 실제로 많은 CISO와 CTO들이 그러한 결정을 내린다. 그러나 이런 단기적인 조치는 장기적으로 혁신을 저해할 수 있기 때문에 오히려 손해일 수 있다. 그러므로 허용 가능한 사용자 정책을 수립하고, 안전한 생성형 인공지능 사용법을 개발하여 임직원들에게 알리는 것이 중요하다. 이렇게 함으로써 위험 가능성을 낮추고 혁신을 촉진시킬 수 있다. 2) 소스코드 저장소 격리 및 보호 : 지적재산 등 민감한 정보가 인공지능 모델에 한 번 입력된다면, 그것을 찾아 제거하기가 사실상 불가능하다. 불가능에 가까울 정도로 복잡하고 어려운 과정을 거쳐야만 하기 때문이다. 그러므로 소스코드나 각종 리포지터리에 대한 접근을 아무나 할 수 없도록 처음부터 제어해야 하고, 그런 정보들은 아무나 긁어갈 수 없도록 해야 한다. 정보에 대한 권한 설정을 꼼꼼하고 미세하게 해야 한다는 뜻이다. 3) 사용자 선택 옵션 제공 : 사용자가 직접 선택할 수 있도록 하는 것은 신뢰와 투명성을 이룩하는 데 있어 꼭 필요하다. ‘내가 나의 정보를 나의 선택으로 보호할 수 있다’는 건 자신이 존중받고 보호받는다는 느낌을 주기 때문이다. 그리고 이 느낌은 인공지능을 사용할 때 보다 책임감을 갖게 해 준다. CISO와 CTO는 인공지능에 대한 기술적 이해도를 바탕으로 사용자가 어떤 부분에서 직접 선택을 해도 되며, 그렇게 해야 하는지를 결정할 수 있다. 사실, 사용자와 인공지능 간 ‘이상적인 상호작용┖이 무엇인지 결정하고 기획할 사람은 CISO와 CTO들 뿐이다. 글 : 롭 융커(Rob Juncker), CTO, Code42 [국제부 문정후 기자(globoan@boannews.com)] <저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지> |
|
|
|