보안 제품정보


인공지능 위험성 판단기준과 규율 방안을 논의하다 2022.01.26

과기정통부, ‘제4차 인공지능 법제정비단 공개발표회(세미나)’ 개최

[보안뉴스 박미영 기자] 과학기술정보통신부(이하 과기정통부)는 26일 ‘인공지능의 위험성 판단과 법적 과제’를 주제로, 인공지능 법·인문사회·기술 분야 전문가들이 참여하는 제4차 인공지능 법·제도 공개발표회(세미나)를 개최했다.

과기정통부 주관으로 구성한 인공지능 법제정비단은 인공지능 법·제도·규제 관련 주요 이슈를 연구하는 전문가 협의체로, 지난 3월부터 제2기 활동을 출범해 현재까지 총 4차례에 걸친 공개세미나를 개최하며 학계와 업계 국민의 의견을 수렴하고 있다.

참고로 지난 9·10·12월에는 ‘인공지능 법적지위, 어디까지?’ ‘공정한 알고리즘과 자율적 관리 방안’ ‘인공지능 사고와 범죄, 누가 어떻게 책임질까?’를 주제로 공개발표회를 개최한 바 있다.

이번 발표회에서는 작년 4월 유럽연합에서 제안한 ‘인공지능 법안’과 같은 세계적인 인공지능 규율 동향을 살피고 동 법안과 같이 인공지능 위험성을 분류해 그 수준별 의무를 부과하는 것이 좋을지, 특히 ‘고위험 인공지능’의 범위와 규제 수준은 어디까지일지를 다양한 사례를 바탕으로 논의하는 자리를 가졌다.

먼저 유럽연합에서 위험수준별 인공지능을 어떻게 분류하고 있는지, 금지되는 인공지능과 제품·서비스 출시에 일정한 요건이 요구되는 고위험 인공지능을 중심으로 국내 산업 환경에 비춰 위험 기반 접근 방식의 적절성을 살펴봤다.

나아가 잠재적 위험성에 대한 관리가 필요한 ‘고위험 인공지능’에는 무엇이 있고 어떤 의무 사항을 통해 규율하는 것이 적절한지를 기술·산업의 발전과 신뢰성 확보의 측면에서 검토했다.

위 논의에는 오병철 교수(연세대), 이근우 변호사(화우), 김병필 교수(KAIST), 하정우 연구소장(네이버), 남운성 대표(씨유박스)가 함께했다.

과기정통부 박윤규 정보통신정책실장은 “인공지능이 사람의 생명과 신체, 기본권에 위해가 될 가능성이 있는 경우, 적절한 규율 방안을 마련할 필요가 있다”며, “다만 인공지능 기술 자체는 중립적인 것으로 우리 삶에 다양한 혜택을 제공하는 등 무궁무진한 발전가능성을 제시하고 있는 바, 관련 기술과 산업 발전을 저해하지 않도록 구체적인 활용 사례를 중심으로 한 위험성 판단과 규제가 필요할 것”이라고 말했다.

아울러 “최근 인공지능 기술의 빠른 발전 속도를 고려하면, 국민의 안전과 신뢰의 기반을 이루는 법과 제도가 현실을 유연하게 반영할 수 있도록 인공지능 법제정비단의 역할이 계속될 필요가 있다”고 강조했다.
[박미영 기자(mypark@boannews.com)]

<저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지>