과학기술정보통신부와 대통령경호처가 작년 4월 공동 발주한 연구개발 과제, ‘지능형 유무인 복합 경비안전 기술개발사업’이 논란에 휩싸였다. 총 240억 원이 투입될 계획이었던 이 사업은 군중 속에서 위험 행동을 사전에 인식하고, 생체신호를 분석해 긴장도를 탐지함으로써 잠재적 위험 인물을 식별하는 인공지능 시스템 개발을 목표로 하고 있다. 해당 인공지능 시스템은 이동형 카메라, 로봇, 드론 등 다양한 장비를 투입하여 원거리에서도 군중의 행태를 분석할 수 있도록 지원한다. 즉, 과기부와 경호처는 군중 감시 인공지능을 개발하려 한 것이다.
국정감사에서 드러난 바에 따르면, 해당 연구는 IRB(기관생명윤리위원회) 심의도, 한국연구재단의 연구윤리 사전검토도 받지 않았다. 인공지능 시스템의 실제 적용 대상이 사실상 국민 전체이며, 수집 및 처리하게 될 데이터가 극히 민감한 생체정보에 해당함에도 어떠한 윤리 검토도 없었다는 사실이 믿기지 않는다.
왜 이런 연구과제가 발주되었을까. 과제 공고문은 문제의 인공지능 시스템은 기존의 ‘차단·분리형’ 경호 방식으로 인한 국민 불편을 줄이고 ‘개방형 경비안전 체계’로의 전환이 필요하다고 주장했다. 요약하자면, 이번 군중 감시 인공지능은 국민 안전과 편의를 위한 것이었다. 그러나 도대체 어떤 주권자가 자신의 안전을 위해 자신을 감시해달라고 요청했는가. 연구과제를 발주한 과기부와 경호처는 감시의 일상화를 국민 편의로 정당화하려 하는가.
더군다나 해당 과제의 수요기관은 대통령경호처로, <대통령 등의 경호에 관한 법률>은 경호 대상을 전·현직 대통령과 그 가족으로 한정한다. 결국 문제의 연구과제는 대통령의 안전을 위해 기술을 활용해 국민을 프로파일링한, 국가 주도 감시 사회로의 퇴행에 지나지 않는다.
시민사회단체의 비판과 언론 보도 이후 문제의 연구과제에 대한 연구비 지원은 중단되었다. 그러나 연구 중단이 곧 사태의 종결을 뜻하진 않는다. 연구윤리 검토 절차의 무시, 그리고 기술의 본질적 목적에 대한 사회적 논의 부족 등 근본적 문제는 여전히 남아 있다. 게다가 한국은 감시 기술의 등장을 막을 법적 장치도 취약하다. 개인의 범죄 가능성을 평가하거나 예측하는 인공지능을 ‘허용할 수 없는 위험(Unacceptable risk)’으로 분류해 금지하는 EU AI법과 달리, 한국의 AI 기본법은 고영향 인공지능이 서비스되기 전에 검인증과 기본권 영향평가를 받도록 “노력”할 것을 명시하고 있다. 제2, 제3의 감시형 인공지능은 얼마든지 다시 등장할 수 있다.
문제의 해법은 “기술은 중립적이지 않다”는 사실을 성찰하는 데서 시작될 것이다. 기술은 그것을 설계, 개발, 배포하고 사용하는 주체의 의지에 따라 언제든 통제의 도구가 될 수 있다. 인간의 자유와 존엄을 해치지 않는 인공지능은 기술 개발 전 과정에 민주적 통제와 윤리적 책임이 스며들어 있을 때만 나타날 수 있다. 감시가 아닌 신뢰, 통제가 아닌 투명성 위에서만 진정한 기술 강국을 이룰 수 있다. 더 정교한 감시 시스템이 아니라, 더 성숙한 기술 민주주의가 필요하다.



































































































































































































