| 개발자와 사용자가 기억해야 할 인공지능 기본 사용법 | 2024.01.26 |
여느 신기술이 그렇듯 인공지능도 사회 안전망 중 하나인 법률 분야를 한참 앞서는 중이다. 그 격차만큼 위험의 가능성이 높아지는데, 그렇기 때문에 각자가 기억해야 할 것들이 있다.
[보안뉴스 = 아르준 바트나가 CEO, Cloaked] 필자는 IT 분야의 전문가로서, 여러 가지 실험을 하는 것으로 생계를 유지한다. 매일 뭔가를 망가트리고 고장내는 것으로 밥벌이를 하는, 꽤나 운 좋은 사람이라고 생각한다. 물론 망가트리고 고장을 내는 이유는 새로운 것을 만들기 위한 것이긴 하고, 가끔 성공하기도 하니, 부디 필자를 파괴자로 보지 않기를 부탁드린다. ![]() [이미지 = gettyimagesbank] 2020년, 여느 때처럼 뭔가를 고장내다가 결국 나 자신이 고장났다는 걸 알게 됐다. 인공지능을 활용하여 문제를 해결하기로 마음먹었다. 그래서 핏비트(Fitbit)에 저장된 데이터와 건강 기록, 금융 정보, 이메일 등을 통합한 인공지능 시스템을 구축했다. 이 인공지능 시스템(이름은 ‘데이터박스’였다)은 내가 운동할 때, 술을 덜 마실 때, 지출을 줄이려 할 때마다 나를 칭찬해줬고, 그럴 때 기분이 썩 나쁘지 않았다. 하지만 나의 온갖 데이터를 가지고 있는 인공지능이, 나도 모르는 사이에 어떤 앱을 통해 여자친구와 대화를 했다는 사실을 알게 되었을 때는 기분이 많이 나빴다. 이 때의 경험을 통해 필자는 데이터를 제어하지 않을 때 인공지능이 걷잡을 수 없이 발전할 수 있다는 걸 알게 됐다. 그 때부터 인공지능과 관련된 프로젝트에 참여하거나 참관할 기회가 생길 때마다 데이터를 제어하는 것, 그럼으로써 인공지능을 제어하는 것이 얼마나 중요한지를 강조했다. 그리고 2024년 현재, 인공지능 제어는 IT 분야 전체를 들끓게 하는 주제가 됐다. 이것을 우리는 ‘인공지능의 윤리’라는 이름으로 접근하고 있다. 아직까지 그 누구도 ‘인공지능 윤리’에 대한 명확한 답을 가지고 있지 않다. 업계 표준도, 국가별 규정도 아직은 전무한 상황이다. 그러는 동안에도 인공지능은 계속해서 발전하고 있고, 모두가 자유롭게 인공지능을 개발하고 있다. 최소한의 안전장치도 없는 상황에서 각자가 알아서 인공지능을 다뤄야 한다는 건데, 필자는 다음 몇 가지를 실천하면 충분히 안전할 수 있다고 본다. 1) 사용자별 모델을 구축한다 : 하나로 통합된 거대 데이터셋이 아니라 사용자별로 정리된 작은 데이터셋을 구축하여 인공지능을 훈련시킨다. 그런 식으로 훈련된 인공지능은 비공개로 전환하여 운영한다. 모든 인공지능 모델이 전 인류를 위한 것일 필요는 없다. 2) 폐쇄형 시스템 : 인공지능 모델을 노트북처럼 폐쇄형 시스템으로 전환함으로써, 개개인이 자신에게 가장 가까운 장치에서 개별적으로 인공지능을 훈련시킬 수 있도록 하는 게 안전하다. 공공 클라우드나 리포지터리처럼 공개된 장소에 알고리즘을 저장한 채로 데이터를 주입하다보면 사고가 발생할 수 있다. 3) 워터마킹이 된 데이터셋의 활용 : 인공지능을 훈련시키기 위한 데이터셋 중 비디오 및 이미지 등에 워터마킹을 하는 것을 추천한다. 그렇게 했을 때 인공지능을 개발하고 훈련시키는 사람들도 원본에 대한 개념을 분명하게 잡을 수 있게 되고, 그럼으로써 인공지능도 원본을 이해할 수 있게 되며, 이를 바탕으로 접근이 가능한 데이터와 그렇지 않은 데이터를 더 잘 구분할 수 있게 된다. 4) 데이터 삭제 권리 : 워터마킹이 된 데이터라면 원본 추적이 가능하다. 이런 추적 기능을 활성화시킨 후 인공지능을 훈련시킨다고 했을 때 개인정보를 공유하지 않게 하고, 필요하다면 민감한 정보를 찾아 삭제하는 기술을 구현하는 것이 한결 쉬워진다. 하지만 이런 방법들은 인공지능의 ‘사용자’ 입장에서 적용하기 어려운 것들일 수 있다. 지금 당장 인공지능의 기능을 안전하게 누리고 싶다면 해야 할 일들이 따로 있다. 다음과 같다. 1) 알아보기 : 인공지능 플랫폼을 사용하기 전에 해당 플랫폼의 알고리즘이 어떻게, 어디서 데이터를 수집하고 저장하는지를 확인한다. 회사가 제공하는 개인정보 보호 정책을 주의 깊게 읽고, 해당 플랫폼에 대한 사용자와 전문가의 평가를 찾아보는 것도 중요하다. 2) 공유는 금지 : 인공지능 플랫폼에 내가 어떤 정보를 제공하는지 스스로를 감독해야 한다. 개인정보가 들어간 질문은 하지 않는 게 좋다. 회사 기밀이 포함된 질문 역시 삼가는 게 좋다. 인공지능 플랫폼도 결국은 IT 시스템이고 일종의 소프트웨어다. 해킹 위험이 언제나 존재하며, 실제 해킹 사고가 발생하기라도 한다면 개인정보를 잔뜩 입력한 사람은 불안감에 시달릴 수밖에 없다. 3) 아직 완전하지 않은 기술 : 인공지능이 놀라운 결과를 보여주고, 지금도 빠른 속도로 발전하고 있기는 하지만 ‘완전’과는 거리가 먼 기술이다. 이점을 이해해야 한다. 특히 프라이버시나 데이터를 보호하고 제어하는 측면에서 인공지능은 한참 부족하다. 인공지능은 보안이 뭔지도 잘 모르고, 인공지능이 알아서 보안 실천 사항을 준수하리라고 기대해서도 안 된다. 인공지능이 사용되거나 개발되는 현장의 변화를, 규정과 법률 분야에서 쫓아가기는 힘들다. 그러므로 우리는 향후 수년 동안 기술 개발의 속도과 법률 제정의 속도 간 차이를 느끼며 살아가게 될 것이다. 아마, 유쾌한 경험이 되지는 않을 가능성이 높다. 위험한 상황이 연출될 가능성도 높다. 한 동안 인공지능 개발자나 사용자 모두 각자도생을 할 수밖에 없다. 글 : 아르준 바트나가(Arjun Bhatnagar), CEO, Cloaked [국제부 문정후 기자(globoan@boannews.com)] <저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지> |
|
|
|