| 인공지능의 인기가 너무 빠르게 올라가고 있는 것 자체가 리스크 | 2023.08.01 |
인공지능에 대한 개발자들의 관심이 뜨겁다. 자신들의 할 일을 보다 완벽하게, 보다 빠르게, 보다 쉽게 만들어 줄 기술이기 때문이다. 그러나 지금으로서는 - 그리고 당분간 - 인공지능으로 코딩을 한다는 게 그리 권장되는 일은 아니다.
[보안뉴스 문정후 기자] 개발자들이 이미 발견했다시피 생성형 인공지능을 활용해 코딩까지 한다는 건 말처럼 그리 간단한 일이 아니다. 심지어 그 결과물이 좋은 것도 아니다. 그러나 생성형 인공지능과 코딩이 서로 상성이 너무 좋지 않다거나 불가능한 결합인 것도 아니다. 둘이 시너지를 내게 할 만한 방법들이 계속해서 개발되고 있다. ![]() [이미지 = gettyimagesbank] 지난 4월 삼성의 일부 직원들이 챗GPT를 사용하는 과정에서 회사의 기밀 코드를 챗GPT 프롬프트 창에 업로드 하는 일이 있었다. 나중에 알고 보니 챗GPT는 사용자들이 남기는 데이터까지도 훈련을 위해 전부 서버에 저장하고 있었다. 당연히 난리가 났다. 회사 기밀 코드를 오픈AI 쪽에 기부한 것이니 말이다. 삼성에서는 챗GPT의 사용을 금지시켰고, 이 사건은 다른 회사로도 알려져 업무에 챗GPT를 사용하는 것이 좋지만은 않다는 인식이 퍼지기 시작했다. 인공지능을 개발자들이 이용한다는 개념은 이론상 너무나 아름답다. 코딩은 인공지능이 담당하고, 개발자는 좀 더 인간만이 할 수 있는 일에 집중한다는 것이니 말이다. 천체과학자인 네일 디그라스 타이슨(Neil deGrasse Tyson)은 지난 6월 인공지능으로 복잡한 별들의 움직임과 관련된 방대한 데이터를 처리함으로써 자신에게 주어진 시간을 보다 알차게 활용할 수 있었다고 밝히기도 했는데, 개발자들이 꿈꾸는 것도 바로 그것이다. 데이터 분석 업체 블루오렌지디지털(Blue Orange Digital)의 CEO 조시 미라먼트(Josh Miramant)는 “개발자들에게 있어 인공지능이 점점 필수가 되어가고 있는 분위기가 이미 형성되고 있다”며 “지금 우리는 LLM과 생성형 인공지능의 미래로 향하는 분기점에 놓여 있다”고 말한다. “이 시기를 무사히 지난다면 인공지능이 대규모로 도입되는 것을 목격하게 될 것입니다.” 그러면서 미라먼트는 “인공지능의 대규모 도입이라는 미래를 맞이하기 위해 챗GPT의 경쟁자들이 시장에 대거 등장하고 있는데, 어떤 것들은 개방형을 지향하고 있어 비밀스럽거나 민감한 작업에 어울리지 않아 보인다”고 말한다. 그래서 지금 개발자들과 기업들은 오픈소스 인공지능 알고리즘을 찾고 있다는 게 그의 설명이다. “여러 기업들이 출시한 인공지능보다 오픈소스를 하나 들여서 내부적으로 훈련하여 내부의 폐쇄된 환경에서 사용하고 싶어하는 것이죠. 그러면 민감한 작업을 하기에 더 안심할 수 있게 된다는 겁니다.” 인공지능을 개발에 활용한다고 했을 때 예상해야 하는 위험에는 한 가지가 더 있다. 인공지능이 나쁜 코드를 대량으로 생산하는 것이다. 아이세라(Aisera)의 CEO 무두 수다카(Muddu Sudhakar)는 “오픈소스 생태계에도 한 번 잘못된 코드가 돌기 시작하면 걷잡을 수 없는데, 인공지능이 그런 현상을 증폭시킬 수 있다”고 경고한다. “개발 생태계, 오픈소스 생태계 전체를 위협하는 커다란 위험입니다. 인공지능이라면 코드를 대량 생산할 수도 있기 때문에 더 위험합니다.” 수다카는 “오픈소스와 생성형 인공지능을 적극 활용하려는 조직이라면 작은 오류나 결함, 취약점이 걷잡을 수 없이 퍼져나가는 상황을 미연에 방지하게 해 주는 안전장치에 대해 진지하게 고민하고 조사해야 한다”고 강조한다. “잘못된 코드가 회사 내로 들어올 수도 있고, 회사 밖으로 나가게 될 수도 있습니다. 어느 쪽이든 부메랑이 되어 나에게 돌아올 수 있습니다. 그것도 치명적으로요.” 코그니잔트(Cognizant)의 CTO이자 인공지능 분야 책임자인 바박 호잣(Babak Hodjat)은 “인공지능의 좋은 점에만 모두가 지나치게 집중하는 게 지금으로서는 가장 큰 리스크”라고 지적한다. “인공지능이 잘 못하는 것, 혹은 악용될 수 있는 부분을 같이 알아두는 게 건강하죠. 하지만 다들 너무나 눈에 보이는 신기한 기능들에만 시선이 가 있습니다. 안타까운 면모라고 할 수 있겠습니다. 그 신기한 기능들의 잠재력을 풀어주는 게 여러 안전장치들인데 그 점이 대부분 간과되고 있습니다.” 또 하나 중대한 문제는 인공지능이 아직 저작권 개념을 착실하게 갖추고 있지 않다는 것이다. 호잣은 “인공지능이 수많은 곳에서 데이터를 취합하고 있기 때문에 사용자도 모르게 저작권이 걸려 있는 데이터를 가져오는 경우들이 상당히 많다”고 지적하며 “인공지능이 작성한 코드가 누군가의 것을 베낀 것은 아닌지, 면밀하게 들여다볼 필요가 있다”고 말한다. 수다카도 “코드가 다른 사람의 작품이 아니라는 것을 확인해줄 장비가 항상 가동되어 있어야 한다”는 의견이다. 인공지능 모델을 다운로드 받은 후 로컬 컴퓨터에서만 가동시키는 것도 괜찮은 방법이라고 호잣은 귀띔한다. “인공지능 모델은 인터넷에서 많은 자료를 가져오기도 합니다. 사용자가 이 부분은 제어할 수 있습니다만 실수 한 번에 치명적인 결과가 나올 수 있지요. 차라리 로컬에서, 내부 망 환경 안에서만 실행시키는 것이 현명할 수 있습니다. 클라우드 체제로 넘어가면서 각종 설정 오류 때문에 고통받는 기업들을 우리는 이미 많이 봐왔죠. 인공지능도 같을 수 있습니다.” 위에 언급된 여러 가지 리스크를 현존하는 인공지능들은 떠안고 있다. 그럼에도 인공지능의 인기는 갈수록 높아지는 중이다. 특히 인공지능으로 코딩을 한다는 것 자체가 점점 쉬워지고, 효과도 좋아지고 있으며, 따라서 관심을 갖고 있는 개발자들이 빠르게 늘어나고 있다. “파이선을 사용하지 않고 자연어로도 코딩이 조금씩 가능해지고 있으니, 개발자만이 아니라 일반인들도 뛰어들고 있는 판입니다. 우리가 그 동안 외쳐왔던 ‘개발의 보편화’가 슬슬 현실로 이뤄지고 있는 것일지도 모릅니다.” 글 : 조아오 피에르 루스(Joao-Pierre S. Ruth), IT 칼럼니스트 [국제부 문정후 기자(globoan@boannews.com)] <저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지> |
|
|
|