| 챗GPT가 쓴 챗GPT에 대한 언론 기사, 기계적으로 매끄럽긴 하지만 | 2022.12.27 |
챗GPT가 공개된 후 너도 나도 이 새로운 인공지능 기술을 ‘찍먹’하고 있다. 필자 역시 챗GPT를 실험하기 위해 기사를 써달라고 요청했고, 결과물은 1분 뒤에 나왔다. 균형이 잡혀 있다는 면에서는 나쁘지 않은 기사였다. 하지만 그뿐이었다.
[보안뉴스 문정후 기자] 챗GPT(ChatGPT)의 가능성을 모색하는 것이 꽤나 큰 유행처럼 자리를 잡아가는 중이다. IT 업계에 있는 모든 사람이 이 챗GPT라는 것을 이리 저리 실험하고 있다. 교향곡을 만들어달라, 단편 소설을 써달라, 짧은 자바스크립트 프로그램을 만들어달라, 히브리어와 이디시어의 차이점을 설명해달라 등 수많은 요청과 질문들이 챗GPT로 쏟아져 들어가는 중이다. ![]() [이미지 = utoimage] OpenAI.com이 이 신기한 인공지능 챗봇을 고개한 건 11월 30일의 일이다. 개발자들은 모든 사람에게 ‘마음껏 사용해 보고 피드백을 달라’고 요청했다. 그러면서 강점을 키우고 약점을 보강하겠다는 것이었다. 대중들은 정말로 이 초대에 응했고 각자의 기발한 방법으로 이 챗GPT라는 것을 실험하기 시작했다. 챗GPT에게 뭔가를 질문하면 깜짝 놀랄 정도로 진짜 같은 답변이 돌아오기 때문에 꽤나 열렬한 반응들이 사람들로부터 나오고 있다. 물론 그 답변이 항상 정확한 건 아니었지만 말이다. 필자도 챗GPT가 너무나 궁금했다. 하지만 연말연시의 황금같은 시간을 알고리즘과 보내기는 뭔가 허전했고, 연말 특집 써내야 할 건 너무 많아서 들여다볼 수가 없었다. 그래서 일단 챗GPT에게 기술 분야 관련 뉴스를 써달라고 요청했다. 12월 13일의 일이었다. 챗GPT라는 인공지능이 시장에 어떻게 등장했으며, 어떤 활용 사례가 있을 수 있고, 윤리적 관점에서 어떤 문제가 있을 수 있는지 써달라고 구체적으로 요구 사항을 알고리즘에 전달했다. 그러고 필자는 휴일을 누릴 생각이었다. 하지만 결과물이 나오기 시작하자 마자 필자는 뭔가 잘못됐음을 알 수 있었다. 챗GPT는 자신의 출시 일자를 11월 30일이 아니라 필자의 요청이 입력된 12월 13일이라고 기록했기 때문이다. 먼저는 기사 전문이다(당연히 기사 원문은 영어이고, 아래 글은 그 원문을 편집자가 번역한 것이다. 따라서 모국어의 관점에서 인공지능의 언어 구사 수준이 어느 정도에 이르렀는지까지 반영되지 않았다_역주). 챗GPT가 써내려간 기사 “2022년 12월 13일 인공지능 전문 실험실인 OpenAI는 챗GPT를 처음 공개했다. 챗GPT는 인간의 그것과 흡사한 텍스트를 실시간으로 생성할 수 있는 강력한 언어 기반 인공지능 모델이었다. 챗GPT가 발표되자마자 기업들 사이에서는 센세이션이 일어났다. 챗GPT의 무궁무진한 활용 가능성과 잠재력을 엿보기 시작한 것이다. 하지만 윤리학자들은 이러한 기술의 남용을 우려하는 목소리를 내고 있다. 챗GPT가 활용될 만한 분야 중 하나는 고객 상담 및 서비스다. 인간의 그것과 흡사한 텍스트를 생성할 줄 아는 챗GPT이니 고객의 질문이나 요청에 사람처럼 답을 제공할 수 있을 것이라 기대받고 있고, 실제로 그렇게 되면 인간 직원이 사람을 대응하느라 쏟는 시간과 에너지를 아껴 보다 복잡하고 인간다운 일을 할 수 있을 것이라고 전문가들은 예측하고 있다. 이는 고객의 경험을 향상시키고 동시에 고객 응대와 서비스에 들어가는 비용을 절감하는 데 큰 도움이 될 것으로 예상된다. 하지만 윤리학자들은 고객 상담과 서비스 분야에 챗GPT가 활용되는 것을 희망적으로만 보지 않는다. 챗GPT가 사람처럼 응대한다면 인간 직원이 필요 없어질 것이고, 이는 해고와 고용 문제로 이어질 수 있다는 게 중요한 이유 중 하나다. 또한 고객의 복잡하고 예측 불가능한 요청에 답을 해줄 수 있을 정도로 인공지능 기술이 발전하지 않는다면 사용자 경험이 향상된다는 것도 이뤄질 수 없는 꿈으로 남을 뿐이라고 그들은 주장한다. 언론 분야에서도 챗GPT의 활용 가능성이 점쳐지고 있다. 언론의 기사를 자동으로, 빠르게 생성하는 데에 챗GPT를 사용하면 기자들은 시간을 아껴 보다 심층적인 취재와 조사, 분석을 할 수 있을 것이라고 전문가들은 주장한다. 하지만 윤리학자들은 가짜뉴스가 더 빠르게 퍼질 수 있다고 보고 있다. 누군가 챗GPT를 남용해 빠르고 효과적으로 가짜뉴스나 약간의 오류가 섞인 기사를 만들어낼 수도 있다는 것이다. 전체적으로 봤을 때 챗GPT는 강력한 기술이다. 많은 산업들을 변혁시킬 잠재력을 가지고 있다. 하지만 어떻게 활용하느냐에 따라 중대한 윤리적 문제의 원인이 될 수도 있다. 그러니 본격적으로 구축하기 전에 꼼꼼하게 모든 가능성을 확인할 필요가 있어 보인다.” 이 기사가 뽑아져 나오는 데 걸린 시간은 1분도 되지 않았다. 세상 그 어떤 인간 베테랑 기자도 해낼 수 없는 일이다. 하지만 위의 기사에는 부족한 것들이 많다. 실제 기업 사용자들의 인터뷰를 통해 들은 중요한 말이나 깊은 통찰을 직접 인용한다든지, 이쪽도 저쪽도 아닌 시장 분석가의 중립적인 의견이 빠져 있다는 게 기사의 매력을 상당히 떨어트린다. 당연하지만 윤리학자들의 반대 의견 역시 직접 인용으로 처리했으면 더 흥미로운 기사가 됐을 것이다. 그 우려가 현실이 된 어느 날 우리 사회가 겪을 충격 역시 추적해 볼 수 있지 않았을까. 기계가 쓴 기사는 이미 대세로 자리잡은 중론을 기계적으로 매끈하게 나열한 수준에 그치고 있다는 인상을 지울 수 없었다. 필자는 이러한 실험을 마치고 챗GPT에 “IT 전문가들에 대한 재미있는 이야기나 밈을 말해 달라”고 요청했다. 그러자 이런 답이 돌아왔다. “이 컴퓨터 왜 이렇게 차갑냐? 창들을 열어두었으니 그렇지.” 글 : 제시카 데이비스(Jessica Davis), IT 칼럼니스트 [국제부 문정후 기자(globoan@boannews.com)] <저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지> |
|
|
|