딥페이크 성범죄 등 ‘AI’로 인해 발생하는 보안 위협과 대응현황 살펴보니 | 2024.09.05 |
2024 AI Security Day 행사, AI 위협 사례 공유 및 대응 방안 논의
성균관대학교 김기범 교수, KISA 김성훈 팀장, 법무법인 화우 이근우 변호사 발표 [보안뉴스 박은주 기자] AI 시대 생성형 AI를 악용한 다양한 사이버 공격과 새로운 형태의 범죄, 보안 위협이 발생하고 있다. 기술 발전 속도에 맞춰 관련 대응책이 신속하게 마련되지 않으면 피해는 더욱 커질 수 있는 상황이다. AI와 관련된 다양한 사이버 위협 사례를 공유하고 대응방안을 논의하는 자리가 ‘2024 AI Security Day’에서 마련됐다. ![]() [이미지=gettyimagesbank] AI로 인해 발생하는 범죄는? AI를 활용한 범죄를 △AI 스스로 행하는 범죄 △AI 시스템 자체를 대상으로 하는 범죄 △AI를 수단으로 이용한 범죄 △AI를 수단으로 행하는 범죄로 구분할 수 있다. 특히 최근에는 AI 시스템을 악용한 ‘딥페이크(Deepfake) 범죄’가 날로 심각해지고 있다. 딥페이크 미디어란 AI를 활용해 사진 혹은 영상을 제작해 실제처럼 보이지만 조작된 오디오 또는 시각 미디어를 말한다. 해당 미디어를 통해 음란물 제작 및 유포, 가짜뉴스, 투자사기 등 각종 범죄가 자행된다. ![]() ▲성균관대학교 김기범 교수[사진=보안뉴스] 방송통신심의위원회에 따르면 올해 7월 말까지 딥페이크 성범죄 영상물에 대한 시정요구 건수가 6,434건으로 전년 1,684건 대비 약 4배 폭증한 것으로 드러났다. 법무법인 화우 이근우 변호사는 최근 피해학교 지도를 공유하며 “전국의 여러 학교에서 딥페이크 성범죄가 발생하고 있다”며 “딥페이크를 악용한 성범죄 영상물 96%가 여성을 표적 삼았고, 학교 내 어린아이들이 피해자 혹은 가해자가 될 수 있다”며 심각성을 강조했다. 딥페이크 범죄, 대응현황은? ![]() ▲법무법인 화우 이근우 변호사[사진=보안뉴스] 우리나라의 현재 성폭력처벌특례법 등 기존 법안으로는 딥페이크 성범죄를 처벌하기에 한계가 있는 상황이다. 전문가들 사이에서는 불법 촬영물에 딥페이크 영상 추가, 딥페이크 수요자 처벌 규정 추가, 성 착취물에 딥페이크를 포함한 구체적 처벌 기준을 마련해야 한다는 의견이 제기되고 있다. 지난 9월 1일 여야 대표가 만나 딥페이크 처벌규정 강화에 합의하고, 딥페이크 성 착취물 소지·구입·저장·시청자 처벌법 개정안이 발의되는 등 대응책을 마련해가는 단계다. 생성형 AI에 따른 보안 위협은? ![]() ▲KISA 김성훈 팀장[사진=보안뉴스] 그러나 이미 본격적인 AI 상용화 단계에 진입하고 AI 시대가 본격화되며 다양한 분야에서 AI가 영향을 미치고 있다. 따라서 AI 기술이 미치는 영향을 충분히 이해하고, 위험을 최소화할 수 있는 적절한 방안 마련이 필요하다. KISA 김성훈 팀장은 “레거시 시스템과 AI 모델 보안을 병행해 AI 보안 위협에 대응해야 한다”며, “일회성으로 검증하는 레거시 시스템에 비해 주기적인 보안 검증이 필요한 AI 모델을 활용하면 정기적인 보안 점검을 진행할 수 있기 때문”이라고 말했다. 김 팀장은 “KISA는 앞으로 가이드라인, 인증, 인력 양성 등 AI를 안전하게 보호하기 위한 균형 있는 대책을 수립할 것”이라며 “동시에 AI 모델 취약점 분석 및 AI 악용 범죄에 대응하는 등 AI 기술을 활용해 보안을 강화할 것”이라고 덧붙였다. [박은주 기자(boan5@boannews.com)] <저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지> |
|
![]() |