보안 제품정보


챗GPT를 만든 오픈AI에도 구린 구석이 있었다 2023.07.04

챗GPT가 불안한 이유 중 하나는 개발사인 오픈AI에 대한 고발이 하나 둘 나오기 시작했다는 것이다. 아직 판결이 다 나지 않았지만 아주 없을 것 같은 이야기는 아니라 ‘억지스럽다’는 생각이 들지는 않는다. 챗GPT와 같은 강력한 도구를 만들려면 기업도 윤리적이어야 할까.

[보안뉴스 문정후 기자] 몇 달 전 인공지능 생성 텍스트 소프트웨어인 챗GPT가 기술 산업의 침체를 해소하고 전 세계적으로 수십억 달러에 이르는 인공지능 투자를 촉발시켰다. 하지만 수요일에 제기된 두 가지 소송 덕분에 흥분이 조금은 가라앉는 중이다. 챗GPT의 개발사인 오픈AI(OpenAI)가 해커들이 정당하지 않은 방법으로 훔친 데이터를 비밀리에 사용했다는 것과, 저작권이 있는 책에서 콘텐츠를 훔쳤다는 고발이 법정으로 들어간 것이다. 이 때문에 신흥 기술이라 하더라도 규제가 필요하다는 소리가 나오고 있다.

[이미지 = gettyimagesbank]


첫 번째 소송에서 원고는 오픈AI가 2019년 회사 구조 조종에서부터 이익 추구 집단으로 변모했다고 주장했다. “그 때의 구조 조정에서부터 오픈AI는 원래의 목표와 원칙을 버리고 이익을 추구하기 위해 개인 정보 보호, 보안 및 윤리의 가치를 저버렸습니다. 오픈AI는 인터넷에서 대량의 개인 정보와 사적인 대화, 의료 데이터, 어린이 정보 등을 비밀리에 수집하는 전략에 집중했습니다. 이러한 데이터는 해당 데이터의 소유자나 사용자에게 사전 통지나 허가 없이 오픈AI로 넘어갔습니다."

그러면서 원고는 오픈AI가 개인정보를 무단으로 수집하고 사용하는 것을 중지시키고, 오픈AI에서 만드는 제품이 좀 더 안전하게 사용될 수 있도록 당국이 나서야 한다고 주장했다. “절대적으로 필요한 안전 장치들을 오픈AI는 가지고 있지 않습니다. 당국이 나서서 필요한 장치들을 마련해야 하고, 그 때까지는 오픈AI의 인공지능 개발 행위를 중지시켜야 합니다.”

IT 분석 업체 테크널리시스리서치(TECHnalysis Research)의 회장인 밥 오도넬(Bob O’Donnell)은 이 소식에 “예측 가능한 일”이라며 “그 많은 데이터를 정당한 방법으로만 쉽게 구했을 거라고 생각하지 않았다”고 말한다. “하지만 이미 챗GPT는 세상에 나왔고, 시장의 수요가 매우 높은 상황입니다. 이런 상황에서 발전과 개발을 일시 중단시키는 것은 매우 어려울 것입니다.”

그렇다고 오도넬이 오픈AI의 윤리성을 유독 집요하게 의심했다는 건 아니다. “거의 모든 회사들이 데이터를 최대한 많이 수집하고 저장하면서 최소한의 투명성만 유지합니다. 오픈AI만의 문제가 아니라 지금 그렇게 하는 게 전 세계적인 ‘사업의 기술’로 받아들여지고 있죠. 이러한 문화적 배경부터 바꾸는 것이 선결과제라고 할 수 있습니다.”

또 다른 소송도 이어지는 중이다. 한 소프트웨어 엔지니어가 자신의 전문 지식을 챗GPT가 무단으로 가져가 사용하고 있다고 주장한 것이다. 챗GPT가 소프트웨어 엔지니어가 집대성한 자료를 무단으로 가져가 흡수하고, 그렇게 함으로써 사용자들에게 소프트웨어 엔지니어처럼 전문적인 답변을 제공할 수 있게 된다면 소프트웨어 엔지니어라는 직업 자체가 사라지게 될 것이라고 원고는 주장했다. 그의 고소장은 157페이지에 다다른다.

원고는 157페이지를 챗GPT가 동의 없이 훔쳐간 지식과 정보, 데이터들의 예시로 가득히 채워놓았다. 피해자는 원고만이 아니었고, 챗GPT를 적극적으로 사용하는 사람들만도 아니었다고 원고는 주장한다. 스냅챗, 스트라이프, 스포티파이, 마이크로소프트 팀즈, 슬랙 등 챗GPT와 통합된 서비스를 사용하는 사람들 역시 크고 작은 피해를 입고 있다고 한다.

원고는 “IBM, 마이크로소프트, 액센추어와 같은 굵직한 IT 기업들이 인공지능에 수십억 달러를 투자하는 중”이라는 걸 짚으며 “이런 회사들은 일반인들과 비교해 기술적인 우위에 서있다는 점을 이용해 인공지능의 어두운 면을 보이지 않게 하고, 밝은 부분만을 강조하면서 투자금을 회수하려 한다”고 주장하기도 했다.

그 외에도 챗GPT가 저작권이 있는 책의 콘텐츠를 학습했다는 소송도 제기되고 있다.

연구 기관 퓨처럼리서치(Futurum Research)의 분석가 다니엘 뉴먼(Daniel Newman)은 인공지능 응용 프로그램에서 데이터 보호가 여전히 중대 과제임을 강조한다. “우리는 데이터에 대한 권리와 개인정보 보호에 대한 중요성을 점점 확실하게 이해하고 있습니다. 그런 가운데 놀라운 속도로 생성형 인공지능이라는 기술을 보급하고 있기도 합니다. 두 현상 사이에 충돌이 일어나고 있으며, 결국 인공지능이 주는 막강한 기능성이 승리할 가능성이 높습니다. 산업 내 전문가들은 이런 큰 흐름을 지켜보고 있다가 데이터 보호와 같은 중요 문제가 간과되기 시작할 때 다시 목소리를 내야 할 것입니다.”

글 : 셰인 스나이더(Shane Snider), IT 칼럼니스트
[국제부 문정후 기자(globoan@boannews.com)]

<저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지>