| 오픈AI의 새로운 GPT 스토어, 데이터 보안 문제 해결했을까? | 2024.01.13 |
챗GPT로 선풍적인 인기를 끈 오픈AI가 이제 아무 개발자나 필요에 맞는 맞춤형 GPT를 개발하거나 공유할 수 있도록 스토어를 런칭했다. 챗GPT 등이 가진 잠재적 프라이버시 침해 위험성에 대한 논의가 다 끝나지도 않은 시점에서였다.
[보안뉴스=네이트 넬슨 IT 칼럼니스트] 챗GPT 생태계에 애플리케이션 스토어가 새롭게 생겼다. 그런데 여기서 여러 가지 문제가 발생할 수 있다는 지적이 나오고 있다. 초기 GPT 모델들은 오픈소스로서 풀렸기 때문에 이미 탈옥 기법들이 다양하게 고안돼 공유되는 중이고, 커스텀 GPT 모델들도 속속 등장하고 있다. 선한 목적으로 만들어진 커스텀 GPT도 있지만 그렇지 않은 것들도 존재한다. 물론 그 어떤 커스텀 GPT도 대대적인 화제가 되지는 않았지만 GPT에 대한 사람들의 관심이 높아짐은 분명하다. ![]() [이미지 = gettyimagesbank] 이번 주 공개된 GPT 스토어는 오픈AI의 구독자들이 필요에 따라 커스텀 GPT를 찾거나 생성할 수 있도록 해 주는 플랫폼이다. 하지만 오픈AI가 공식 승인한 플랫폼에서 커스텀 GPT를 다룬다고 해서 안전하다고 하기는 힘들다. 이러한 점에 대해서 하모닉시큐리티(Harmonic Security)의 CEO인 알라스테어 패터슨(Alastair Paterson)은 “오픈AI의 공식 챗GPT 서비스도 각종 데이터를 사용자들로부터 수집해 갔고, 그 문제가 아직 정식으로 다뤄지지도 않았는데 생태계가 확대되는 것”이라고 설명한다. “챗GPT 프롬프트로 입력되는 정보는 어디로 가는지, 우리는 아직 확실히 모릅니다. GPT 스토어를 통해 만들어진 다양한 커스텀 GPT를 통해 입력되는 정보들 역시 어디로 가는지 우리는 알 수 없습니다.” 커스텀 GPT, 챗GPT가 아니다 오픈AI라는 회사는 최근 획기적인 인공지능 기술 덕분에 큰 주목을 받고 있으며, 기업의 가치 역시 빠르게 치솟고 있지만, 그렇다고 완전한 곳은 아니다. 여러 차례의 보안 사고들과 연루된 바 있고, 앞으로도 그럴 것이다. 다만 챗GPT의 사용자를 계속해서 늘려야 하는 입장에 있기 때문에 챗GPT의 보안 관련 우려 사항들을 보완할 수밖에 없고, 그렇기에 챗GPT는 분명히 강화될 것이 분명하다. 챗GPT와는 그 어떤 정보를 공유해도 충분히 안전하다는 이미지를 시장에 심어두어야 하는 게 지금 오픈AI의 상황이다. GPT 스토어는 어떨까? 일단 GPT 스토어의 GPT들이 가지고 있는 사용자 인터페이스는 챗GPT의 그것과 똑같이 생겼다. 그러므로 챗GPT를 충분히 사용해 본 사람들은 GPT 스토어를 익숙하게 사용할 수 있다. 하지만 챗GPT와 GPT 스토어는 완전히 다른 플랫폼이라는 걸 기억해야 한다고 패터슨은 강조한다. “챗GPT처럼 보이고 챗GPT처럼 작동하기 때문에 착각하기가 매우 쉬운데, 여기에서 GPT를 찾아 여러 데이터를 입력할 때 그 데이터는 오픈AI가 아니라 서드파티들로 가더군요. 스토어에 커스텀 GPT를 등록해 둔 사람들은 여러 사용자의 데이터를 받게 되는 건데, 이걸로 무엇을 할 것인지 명시하지 않고 있습니다. 내 손에서 그렇게 떠난 데이터는 완전히 이름도 얼굴도 알 수 없는 서드파티의 것이 되는 겁니다.” 하지만 오픈AI는 FAQ를 통해 “모든 정보가 다 서드파티 개발자들로 전송되는 건 아니”라고 해명하고 있다. 오히려 “채팅 기록은 대부분 강력하게 보호된다”고 오픈AI는 주장한다. “현재로서는 커스텀 GPT 빌더들이 사용자와 GPT 간 대화 내용 중 특정 부분에는 접근할 수 없습니다. 사용자 프라이버시를 보호하기 위한 조치이죠. 하지만 미래에는 빌더들의 분석과 피드백 메커니즘 향상을 위해 다른 방식의 접근법이나 기능을 고려하고 있기는 합니다. 프라이버시 침해 없이 GPT의 성능을 향상시키는 방법을 고안 중에 있습니다.” 그럼에도 패터슨은 “내가 만약 공격자라면 앱을 하나 만들어 사용자들로부터 각종 문건이나 프레젠테이션 자료, 코드나 PDF 문서들을 업로드 하도록 유도할 것”이라며 “커스텀 GPT를 어떤 식으로 포지셔닝 하느냐에 따라 고객 정보나 지적재산 등의 민감한 정보까지 업로드하게 유도하는 것도 가능할 것”이라고 주장한다. “그리고 그런 정보들을 가지고 정교한 피싱 공격이나 소셜엔지니어링 공격을 실행할 수 있을 겁니다. 이렇게 하는 데 있어 아무런 제약이 없는 상황입니다.” 오픈AI가 스토어에 커스텀 GPT를 올려 둔 개발자들에게 돈을 주는 방식도 문제가 될 수 있다고 패터슨은 지적한다. “사용자들이 많이 사용하면 할수록 금전적 보상을 많이 줍니다. 그렇다는 건 중독성 있는 콘텐츠나 기능을 제공할 개발자들이 넘쳐나게 될 거라는 뜻이고, 그런 중독성 있는 콘텐츠를 통해 악성 기능을 손쉽게 감춰둘 수도 있게 됩니다. 지금 오픈AI가 제시한 수익 모델이 문제의 근원이 될 가능성이 높다고 보고 있으며, 그런 면에서 상황이 어떻게 진행될 지 지켜보고 있습니다.” 다양한 플랫폼, 많아지는 앱 애플리케이션의 개발과 거래, 교환이 가능하도록 하는 스토어를 런칭한 것은 오픈AI가 처음인 것은 아니다. 애플, 구글 등 자사 생태계에서 통용되는 앱들을 확산시키기 위해 스토어 플랫폼을 마련해 개발자와 사용자들을 끌어모으는 곳은 많다. 그리고 각 플랫폼마다 정책의 엄격함은 상이하다. 오픈AI의 스토어 정책이 얼마나 엄격할지, 혹은 얼마나 느슨할지는 아무도 알 수 없다. 다만 GPT라는 기술에 대한 개발자들의 관심이 뜨겁다는 건 사실이다. 오픈AI 커스터마이징이 가능한 GPT들을 오픈소스로 전환하고서 불과 두 달 만에 300만 개가 넘는 새로운 봇들이 세상에 태어난 것으로 알려져 있다. 패터슨은 이 숫자에 대해 “오픈AI 대단히 빡빡하게 GPT들을 검사하는 것처럼 보이지는 않는다”고 말한다. “그렇다면 두 달 만에 300만 개라는 숫자가 기록될 수는 없습니다.” 오픈AI는 “GPT 개발과 퍼블리싱과 관련된 규정이 존재한다”고 강조한다. “또한 모든 개발자들이 이 규정에 맞춰서 GPT를 개발해 발표하도록 하고 있습니다. 다만 그 프로세스를 좀 더 원활하게 만들기 위해 오픈AI는 새로운 검사 시스템을 개발해 확립했고, 이 때문에 검사의 시간이 획기적으로 줄어든 것입니다. 자동화 기술은 물론 인간 분석가의 검사도 충분히 이뤄지고 있습니다. 사용자들의 검사 및 제보 시스템도 마련되어 있고요.” 글 : 네이트 넬슨(Nate Nelson), IT 칼럼니스트 [국제부 문정후 기자(globoan@boannews.com)] <저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지> |
|
|
|