| 인공지능 기술 개발의 중단에 찬성하며 | 2023.05.08 |
얼마 전 ‘인공지능 기술 개발을 6개월 동안 중단하자’고 외친 FLI의 목소리에 2만 명이 넘는 IT 전문가들이 고개를 끄덕였다. 인공지능은 필요에 의해 개발된 수단이 아니라, 필요의 규정 없이 먼저 개발된 수단이라는 점에서, 그리고 매우 강력하다는 점에서 다시 한 번 평가되어야 할 기술이다.
[보안뉴스 문정후 기자] 인공지능 기술의 강력함을 어떻게든 응용해 보고자 하는 시도들이 세계 곳곳의 수많은 기업들에서 이뤄지고 있다. 하지만 기술에 대한 놀라움만 있지, 그 놀라운 기능의 분명한 활용처나 목적에 대해서는 아직도 의견이 분분하다. 필요에 의해 수단이 개발된 것이 아니라, 수단이 먼저 개발되고 필요를 끼워 맞추는 형국이다. 이 강력한 도구를 가지고 우리는 무엇을 해야 할까? ![]() [이미지 = utoimage] 얼마 전 미래생명협회(Future of Life Institute, FLI)는 ‘공개 서신’의 형태로 이 질문에 답을 제안했다. 인공지능의 개발을 멈춰야 한다는 것이었다. 특히 GPT-4보다 더 강력한 인공지능 시스템이라면 최소 6개월 정도는 훈련을 중단시켜야 하지 않겠느냐고 강력하게 촉구했다. 하지만 이것이 최선의 답일까? 그럴 수도 있고 아닐 수도 있다. IT 전문가들은 앞으로 이 답이 틀렸는지 맞았는지를 계속해서 - 자의에 의해서든 타의에 의해서든 - 증명해야 할 것이다. 생성형 인공지능의 개발 중단? 앞서 언급한 FLI의 공개 서신은 IT 업계에서 큰 화제가 됐다. 무려 2만 6천 명이 넘는 업계 전문가들이 이 서신에 서명을 함으로써 자신들도 FLI의 제안에 동의한다는 것을 나타냈다. 서명자는 지금도 늘어나는 중이다. 당연하지만 FLI는 인공지능의 개발을 완전히 중단시켜야 한다고 주장하고 있지는 않다. 안전한 방향과 방법론을 먼저 설정한 상태에서 연구와 개발을 진행하자는 것이었다. 그래야 강력한 생성형 인공지능이 더 유용한 것으로 발전할 수 있다는 게 FLI와 2만 6천 명의 주장이다. 사실 FLI의 공개 서신은 대형 플랫폼 업체들을 위해 작성된 것이었다. 대형 기업들이 인공지능을 언제든지 마음대로 관리할 수 있다는 과도한 자신감에 휩싸여 있다는 것을 지적하고자 했던 것이다. 실제로 인공지능의 윤리적 문제에 대해서 진지하게 논의하고 있는 건 극히 일부에 불과하다. IT 업계의 절대 다수는 인공지능의 강력함을 더 하는 ‘개발’과 ‘향상’에 집중하고 있고, 그 부분을 더 궁금해 한다. 이 때문에 FLI는 대기업들이 자율적으로 인공지능을 훈련시키고 관리하도록 하지 말고 감사 기구를 신설하자고도 주장했다. 그러나 이 서신에는 크게 두 가지 문제가 존재한다. 첫 번째는 ‘6개월이면 인공지능의 안전한 발전을 위한 제도 및 사회적 장치들을 다 마련할 수 있는가?’이다. 두 번째는 ‘인공지능의 위험 가능성이라는 개념은 누가 어떻게 무슨 자격으로 정의할 수 있는가?’이다. FLI는 인공지능 연구소들과 개별 전문가들이 인공지능 기술의 책임감 있는 개발을 진두지휘 해야 한다고 보고 있다. 그러나 인공지능 문제에 있어 FLI 스스로가 제기한 것은 ‘기술력’에 관한 내용이 아니다. 인공지능을 활용했을 때 우리 손에 떨어지는 결과물들에 대한 광범위한 통찰과 정확한 이해가 필요한 것이지, 단순 기술력 부족이 문제가 되는 건 아닌 것이다. 그러므로 기술에 능통한 자들이 지금의 문제에 해결책을 제시하도록 한다는 것이 제대로 된 접근법이라고 하기는 힘들다. 보다 효과적인 해결책이 나오려면 인공지능으로 야기될 수 있는 사회적, 제도적 이슈들까지도 다뤄야 한다. 그러므로 다양한 분야의 전문가들이 ‘인공지능의 안전한 발전’이라는 논의에 참여해야 한다. 인공지능 분야를 계속해서 연구하고 발전시켰을 때 나타날 수 있는 위험이라는 것을 다양한 관점에서 아울러야, 앞으로 일어날 수 있는 일들의 대비책과 가이드라인을 최대한 꼼꼼하게 마련할 수 있다. 데이터 윤리학자들 역시 그 동안 FLI와 같은 맥락의 주장을 해 왔었다. ‘데이터 양심(Data Conscience)’이라는 책의 저자 브랜데이스 마셜(Brandeis Marshall) 역시 “기술 분야 전문가들만이 해결책을 제시한다는 건 건강하지 못한 것”이라는 입장을 견지하고 있다. 지난 주 한 매체 칼럼을 통해서도 “테크 분야 지도자들이 해결책을 제시할 수 있다는 막연한 기대감이 팽배하다”고 지적했었다. LLM의 전문가라고 할 수 있는 팀닛 게브루(Timnit Gebru) 역시 구글에서 근무할 당시 LLM의 위험성과 한계성을 지속적으로 발표해 왔다. 이런 목소리들이 점점 커지고 있다는 건 인공지능이 ‘소프트웨어 분야’ 바깥으로 나오고 있다는 증거가 된다. 지난 수년 동안 인공지능은 IT 개발자들만이 만지고 주무르던 것이었다. 그 개발자들은 ‘빠르게 움직이고 기존 것들을 철폐하라(Move fast and break things)’라는 철학에 수년 간 매료되어 있었다. 즉 신기술의 빠른 개발과 향상이라는 것이 개발자들을 움직이게 하는 가장 큰 요인이었다는 것이다. 전방위적인 변수들을 고려한다는 건 개발자들에게 매우 낯선 개념이었다. 그러니 인공지능의 발전이라는 것에 제동을 걸려는 이번 FLI의 시도가 대대적인 이슈가 되는 것이라고도 볼 수 있다. IT 전문가들, 어떻게 이 문제에 참여해야 하는가? 그럼에도 현실 속에서 대부분의 기업들은 인공지능과 관련된 모든 문제를 IT 담당자들에게 맡기려 할 것이다. 인공지능의 무조건적인 발전, 안전선 없는 향상이 우려된다면, IT 담당자들은 지금의 그런 ‘지위┖를 이용해 기업들이 인공지능에 과투자 하지 않을 수 있도록 유도해야 한다. 그리고 더 많은 분야에서 경험을 가진 사람들이 인공지능 논의에 참여할 수 있도록 초대하는 것도 중요하다. 이렇게 함으로써 IT 담당자 자신들도 IT 전문성이란 것에 갇혀 보지 못한 것들을 볼 수 있게 되고, IT 담당자로서 인공지능과 관련된 문제를 보다 넓은 시각으로 바라볼 수 있게 된다. 생각지도 못한 측면에 대해 알게 된다는 건 분야를 막론하고 더 깊은 전문성으로 나아가는 데 큰 도움이 된다. 동시에 인공지능의 어떤 부분에 안전선을 형성해야 하는지도 더 확실히 인지할 수 있게 된다. 이런 일을 충실하게 수행한다면 인공지능에 관해서는 보다 탁월한 시각을 갖게 될 것이다. 지금의 인공지능 논란을 자기 발전의 계기로 삼을 수 있다는 것이다. 특정 기술을 얼마나 어떻게 도입하느냐의 문제는 기업과 산업의 여러 가지 면모들에 따라 결정된다. 하지만 전통적으로 B2B 기업들과 정부 기관들은 신기술을 느리게 도입하는 쪽에 속했다. 인공지능이라는 분야에 있어서는 조금 다르다. 이 회사 저 회사, 혹은 이 산업 저 산업 구분없이 빠르게 모든 곳에 적용되고 있기 때문이다. 인공지능과 데이터 윤리학 전문가인 라빗 도탄(Ravit Dotan)은 최근 발표를 통해 “인공지능 투자 비율이 정부 포함 모든 분야에서 급증하는 중”이라고 알리기도 했다. 그러다 보니 세계 여러 정부 기관들에서도 인공지능과 관련된 규정들을 마련하느라 급히 움직이기 시작했다. 이탈리아의 경우 프라이버시 침해를 우려하여 챗GPT의 사용을 일시적으로 금지시키기도 했다. 현재 이탈리아의 개인정보 보호 담당 기관과 오픈AI가 여러 가지 문제를 해결하기 위해 합작하고 있는 것으로 알려져 있다. 유럽연합에서도 인공지능과 관련된 여러 가지 법안들이 등장하는 중이다. 미국에서는 인공지능 훈련용 데이터의 투명성 강화와 윤리적인 결정을 보장하기 위한 방안들이 입법부에서 논의되고 있다. 결국 이 모든 움직임은 전 세계 수천만 명의 사람들이 인공지능의 대단함을 맛보았고, 더 맛보기 위한 방법을 마련하는 중에 나타나는 일이라고 볼 수 있다. 이 흐름 자체는 막을 수 없다. 이제 세상은 더 신기한 기술들을 이전과 다른 방법과 속도로 받아들이게 될 것이다. IT 분야의 전문가가 아니더라도 신기술을 늘상 접할 수 있게 될 것이며, 이것은 꽤나 큰 변혁이다. 기술의 발전에 안전한 테두리를 쳐야 할 이유가 하나 더 생긴 것이라고 할 수 있다. 기술의 사용은 비전문가도 할 수 있지만, 기술의 안전한 사용은 전문가들이 고안해야 한다. 그러므로 이번에 제안된 ‘인공지능 기술 개발의 6개월 중단’ 선언은 앞으로 우리가 나아가는 데 있어 반드시 있어야 할 휴지기라고 생각한다. 필요하다면 6개월 이상 중단할 수도 있어야 한다는 게 필자의 의견이다. 이 기간 동안 IT 기술과 윤리, 사회, 일상, 일반 대중이 조화를 이룰 수 있을 만한 발판을 마련해야 하기 때문이다. 그것이 앞으로 더 거세게 등장할 새로운 것들을 받아들이는 데 있어 중요한 토대가 될 수도 있다. 글 : 피에르 드보아(Pierre DeBois), 창립자, Zimana [국제부 문정후 기자(globoan@boannews.com)] <저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지> |
|
|
|