| 인공지능의 안전한 활용 위해 필요한 인간의 역할은? | 2024.03.31 |
가짜뉴스가 점점 큰 사회 문제로 자리를 잡아가고 있다. 특히 선거가 많은 올해 가짜뉴스는 더욱 기승을 부릴 예정이다. 그런데다가 어설프게 발전한 인공지능마저 퍼지고 있어 문제는 더욱 심각하다. 인간의 역할을 돌아봐야 할 때다.
[보안뉴스= 니콜라스 아빌라 GTO , Globant] 지금 왓츠앱을 통해 공유 받은 영상은 진짜일까? 엑스에서 유행하고 있는 이미지는 어디선가 조작된 건 아닐까? 오디오 파일은 어떤가? 설마, 인공지능이 만들어낸 것은 아닐까? ![]() [이미지 = gettyimagesbank] 인공지능이라는 기술은 수많은 장점과 강점을 가지고 있기도 하지만 반대로 현실을 그럴듯하게 왜곡하고 거짓을 만들어내는 데에도 뛰어나다는 치명적 단점 역시 보유하고 있다. 이건 가설이 아니다. 이미 우리는 인공지능이 만들어내는 딥페이크와 가짜뉴스를 수없이 많이 접하고 있다. 그런데도 인공지능 도구들은 날마다 업그레이드 되고 강력해지면서 소비자들을 유혹하고 있다. 가짜뉴스라는 것이 사회적 문제를 일으킨 건 최소 1938년부터다. 당시 ‘세계의 전쟁(The War of the Worlds)’라는 라디오 프로그램에서 외계인이 미국을 침략했다는 이야기가 나왔는데, 당시 방송 진행자들은 분명하게 ‘이 이야기에는 픽션의 요소가 다분히 섞여 있다’고 경고를 했음에도 많은 청취자들이 이를 사실로 받아들였고, 이 때문에 뉴욕과 뉴저지의 일반 대중들 사이에서 큰 공포가 야기되기도 했었다. 다음 날 뉴욕타임즈 헤드라인에 “가짜 소식에 속은 청취자들”이라는 내용의 기사가 실리기도 했었다. 사실 그것이 최초 사건이라고 하기에는 애매하다. 이미 30년대에는 각종 방송과 매체들에 가짜뉴스들이 증가하고 있었기 때문이다. 히틀러의 일기장이 발견되었다거나 각종 범죄 사건과 관련된 허위 소식들이 의도적이든 실수로든 이따금씩 나타나 퍼져나갔다. 그러면서 매체들은 가짜 소식을 걸러내는 방법을 터득해냈고, 90년대 전까지만 하더라도 가짜뉴스가 매체를 통해 퍼지는 일이 많지는 않았다. 논란의 여지가 있는 소식들은 있을지언정 오늘 날의 가짜뉴스와 같은 거짓이 마구 퍼지지는 않았다. 그러다가 디지털 시대가 본격화 되었고, 그러면서 가짜뉴스를 걸러내는 훈련을 제대로 받지 않았던 일반 개개인들이 뉴스를 자유롭게 생산하고 퍼나르기 시작했다. 이른 바 ‘1인 미디어’라는 것으로 긍정적인 변화도 일어났지만 가짜뉴스에 취약해졌다는 단점도 생겨난 것이다. 그런 상태에서 사람을 흉내 내는 기술들이 등장해 각종 콘텐츠들이 돌아다니기 시작했고, 가짜를 걸러내는 훈련이 충분히 되지 않았기에 이런 콘텐츠들은 여론을 쥐고 흔들기 시작했다. 그것이 지금까지 이어지고 있다. 물론 지금 다시 라디오 방송을 통해 외계인이 미국을 침공하고 있다는 소식이 나온다 한들, 그 때처럼 사회적 소란이 일어나지는 않을 것이다. 그런 소식을 곧이곧대로 믿지 않을 정도의 ‘가짜 분별 능력’을 대부분 갖추고 있기 때문이다. 게다가 소식이 그 어느 때보다 빨리 퍼지기 때문에, 정정 보도도 시급히 나가 소란을 잠재울 수 있다. 하지만 인공지능은 외계인 침공보다 더 그럴듯한 소식을 더 설득력 있게 전파할 수 있다. 1인 미디어 시대가 된 지도 한참이라는 건, 그 그럴듯한 거짓말을 누구나 생산해 퍼트릴 수 있다는 뜻이 된다. 세계경제포럼(WEF)이 가짜뉴스와 허위 정보의 확산을 단기적 위협으로서는 1위, 장기적 위협으로서는 5위로 선정한 데에는 이유가 있다. 그래서 많은 입안자들, 테크 전문가들, 사업가들이 생성형 인공지능의 악용을 막기 위한 여러 가지 장치들을 마련하는 중이긴 하다. 하지만 적지 않은 시간이 걸리고 있으며, 언제 효과적인 장치가 등장할 지는 알 수 없다. 그러는 사이에 인공지능 기술은 빠르게 발전하고 있기도 하다. 즉 당분간은 인공지능이라는 위험에 기업들이 개별적으로 대응해야 한다는 것이다. 이는 인공지능이 만들어낸 거짓에 속지 않아야 한다는 뜻도 되지만, 반대로 자기가 개발한 인공지능 기반 서비스나 상품이 거짓으로 소비자들을 속이는 바람에 회사 평판이 추락하는 일도 막아야 한다는 뜻도 된다. 인공지능의 안전한 활용, 인간의 인간다운 역할이 중요 재미있는 건 인공지능이 가짜뉴스를 빠르게 생성해 효과적으로 퍼트릴 수 있는 만큼 방어에도 큰 힘을 발휘할 수 있다는 것이다. 인공지능이 만들어내는 가짜를 인공지능이 빠르게 탐지할 수 있고, 인공지능이 자동으로 퍼트리는 소식을 인공지능이 빠르게 차단할 수 있다. 가짜 사진, 가짜 영상, 가짜 기사 모두 콘텐츠 여과 알고리즘을 충분히 훈련시키면 수동으로 하는 것보다 빠르고 정확하게 가려낼 수 있다. 이런 도구들이 있다는 것을 더 많은 사람들에게 알리고, 능숙하게 사용할 수 있도록 교육하는 게 중요하다. 1) 사실 확인 전문 서비스와의 파트너십 : 인공지능이 막 도입되기 시작했을 때, 인공지능을 관리하고 감독하는 기능들까지 고려하는 경우는 많이 없었다. 그러다가 인공지능 기술이 인공지능만의 독특한 리스크를 가지고 있다는 사실이 알려지면서 안전 장치들에 대한 이야기가 나오기 시작했다. 인공지능 제품의 품질 향상을 위해서라도 이런 리스크들을 없애는 것이 필요하다는 인식이 퍼지고 있으며 받아들여지고 있다. 그러면서 정보 수집 전에 수기로 작성한 동의서, 안전한 데이터 수집 절차, 고객들을 위한 권장 사항 등이 같이 제공되는 분위기로 흘러가고 있다. 여기에 더해 인공지능 개발 시 사실 확인 전문 서비스와 협력하여 인공지능이 최대한 올바른 답을 낼 수 있도록 하는 것도 적극 도입되는 중이다. 2) 내부 전문가 지정 : 위의 도구들을 도입하여 인공지능 리스크를 충분히 낮춰둔 상태라면 그 다음 고려해야 할 것은 내부 임직원들을 교육하는 것이다. 전체 인력을 대상을 똑같은 교육을 하는 것보다 일부 직원들을 ‘내부 인공지능 전문가’로 임명하는 것이 더 효과적이다. 이 ‘내부 인공지능 전문가’란 인공지능 개발자 수준의 전문가는 아니더라도 인공지능 기술을 어느 정도 소비해보고 실험해본 사람들 중에 선택하는 것이 좋다. 즉 인공지능의 ‘소비자’로서의 경험이 풍부한 사람들만으로도 충분하다는 것이다. 최대한 다양한 부서에서 이런 사람들을 뽑는 게 좋다. 3) 사용자 교육과 인지 제고 프로그램 운영 : 인공지능을 어떻게 다뤄야 효과를 볼 수 있는지, 어떤 점에서 편리한지를 교육을 통해 전파하다보면 인공지능이 급박하게 확산될 수 있다. 그러다 보면 임직원들이 여기 저기 아무 데나 인공지능을 적용하려 할 것이다. 이 때 제어하지 못한다면 인공지능과 관련된 리스크가 실제 상황이 될 가능성이 높아진다. 필요에 따라 알맞은 범위 내에서 인공지능을 가동시키도록 교육하고 안내해야 한다. 여기서 중요한 건 범위가 너무 제한적이라고 사용자들이 느끼지 않도록 하는 것이고, 주기적으로 상황을 파악해 업무의 범위가 더 늘어나거나 필요의 범위가 넓어질 때 인공지능 사용 방법 역시 같이 확장되도록 해야 한다는 것이다. 즉 교육 내용을 꾸준히 업데이트 하라는 의미로, 이런 순차적 협응이 ‘인공지능을 안전하게, 그러나 마음껏 사용할 수 있다’는 느낌과 자신감을 준다. 이런 조언들을 모르는 조직은 아마 거의 없을 것이다. 다만 현장에서 이걸 전부 실천한다는 게 말처럼 쉽지 않다는 게 문제다. 사업의 다른 부분을 신경 쓰느라, 혹은 사용자들의 거부감이 생각보다 강해서, 혹은 알맞은 인력들이 확보되지 않아서 등 여러 가지 상황이 생길 수 있다. 그렇기 때문에 사용자 편에서 인공지능의 리스크를 줄인다고 애쓰는 것에는 한계가 있다. 개발자들이 안전한 인공지능을 만드는 데 앞장서야 근본적인 문제가 해결된다. 개발자들 역시 인공지능에만 몰두하는 게 아니라, 인공지능에 집중하는 만큼 인간에 대한 새로운 관심을 가져야 할 필요가 있다. 나중에 어떻게 될지 몰라도 지금은 인공지능을 인간이 다채로운 방법으로 도와주고 지켜줘야 한다. 글 : 니콜라스 아빌라(Nicolás Ávila), GTO , Globant [국제부 문정후 기자(globoan@boannews.com)] <저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지> |
|
|
|