인공지능 공정성, 투명성, 책임성 대해 토론회 열려
"이제는 기존의 산업 진흥이나 수월성만을 강조하는 반쪽짜리 법제를 넘어, 데이터 수집에서 AI 이용 결과의 공정성까지 AI 기술의 라이프 사이클 전반을 포괄하면서 이용자 보호와 위험성에 기반 한 차등적 규제를 담은 입법의 혁신이 요구된다.“
최근 인공지능 챗봇 ‘이루다’가 불러일으킨 AI 윤리 문제와 관련하여 인공지능의 공정성, 투명성, 책임성에 대한 사회적 논의가 활발하게 이뤄지고 있다.
이런 가운데, 지난 2월17일 개최된 ‘인공지능의 공정성·투명성·책임성 보장을 위한 법제 정비 방안 토론회’에서 오정미 변호사(서울대학교 공익법률센터)는 ‘입법의 혁신’을 주장하며 “인공지능 정책과 이용자를 포함한 이해관계 조정을 위한 추진체계와 거버넌스 조직의 법적 근거를 마련하고 공정성, 투명성, 책임성에 기반 한 신뢰의 생태계 구축을 위해 제정안에 포함될 규율 내용”을 제안하였다
오 변호사는 현재 앞 다투어 발의되고 있는 인공지능 관련 제정안에서는 ‘수월성의 생태계 구축’이 중요하다는 점에 방점을 두고 있지만 EU 인공지능 백서에서 이와 같은 수월성의 생태계를 달성하기 위해서라도 고유한 ‘신뢰의 생태계’를 창출할 미래 규제 프레임워크가 중요하다고 강조하고 있다는 점에 주목해야 한다고 말했다.
“인공지능 정책과 이용자를 포함한 이해관계 조정을 위한
추진체계와 거버넌스 조직의 법적 근거를 마련하고
공정성, 투명성, 책임성에 기반 한 신뢰의 생태계를 구축해야 한다.”
-오정미 변호사(서울대학교 공익법률센터)
이에 앞서 토론회를 주관한 국회 정보통신특별위원회, 정필모 위원장은 “인공지능은 많은 분야에서 다양한 제품과 서비스로 상용화되었고 기술 발전으로 획기적 변화는 이미 우리 삶에서 일상적으로 진행되고 있다”며, “하지만 새로운 기술은 바람직한 미래만을 보장해주지는 않는다. 인공지능 알고리즘 오류와 제품 및 서비스 사건 사고는 끊임없이 발생하고 있다. 최근 서비스가 중단된 인공지능 챗봇 이루다 문제가 특히 그렇다”고 밝혔다.
정 위원장은 이어, “규제 일변도의 정책으로 인공지능 산업이 세계와의 경쟁에서 뒤처지면 안 된다는 점은 모두가 공감하는 것이다. 개발자와 기업의 창의력과 경쟁력은 폭넓은 자율성의 보장으로부터 나온다”며, “다만 자율에는 반드시 그만큼의 책임이 뒤따른다. 이 원칙은 투명성과 공정성 확보가 전제되어야 하며 특히 공정은 기계적 균형이 아닌 불편부당이라는 개념으로 접근해야 한다. 이를 위해서는 현행 법체계에 대한 고려와 사회적 합의를 바탕으로 설명 요구권과 이의제기권에 대한 깊이 있는 검토가 필요하다”고 강조했다.
인공지능도 적절한 규제 필요해
이날 첫 번째 발제를 맡은 충북대학교의 김민우 박사도 “지능정보기술의 발전으로 방대한 데이터를 스스로 학습하면서 최적의 판단을 내린다는 기본 전제에서부터 문제 상황에 봉착한다”며, “학습 데이터 그 자체가 중립적이지 못하며 어느 정도의 흠결을 내재하고 있다든지 편향되거나 왜곡될 가능성을 배제할 수 없기 때문이다. 이와 같은 데이터로 학습한 결과는 지능정보기술이 잘못된 판단 편향과 편견 및 차별이 담긴 판단을 할 수 있을 가능성을 높일 수도 있다”고 지적했다.
김 박사는 지능정보기술을 적용한 서비스나 제품으로부터 이용자를 어떻게 보호해야 할 것인지, 지능정보기술을 활용한 서비스가 규제 때문에 불가능해지거나 제한될 경우 이를 어떻게 정당화할 수 있는지, 지능정보사회를 어떻게 촉진할 것인지 등 개별 규제의 문제로부터 국가의 근간인 헌법질서 국가조직 법치주의 민주주의 등의 규범적 가치에 대한 영향 평가 전망에 이르기까지 거시적인 담론이 동시에 다루어져야 한다고 피력했다.
“지능정보기술을 적용한 서비스나 제품으로부터 이용자를
어떻게 보호해야 할 것인지, 지능정보기술을 활용한 서비스가
규제 때문에 불가능해지거나 제한될 경우 이를 어떻게
정당화할 수 있는지, 지능정보사회를 어떻게 촉진할 것인지 등
개별 규제의 문제로부터 규범적 가치에 대한
거시적인 담론이 동시에 다루어져야 한다.”
-김민우 박사, 충북대학교
“인공지능에 있어서도 적절한 공정성 투명성 설명가능성에
관한 적절한 수준의 규제가 마련됨으로써 이러한 신뢰가능한
인공지능 기술 분야에 대한 관심과 투자가 증가하고
그 결과 인공지능에 대한 사회적 신뢰가 높아지는
선순환의 고리가 만들어지기를 기대한다.”
-김병필 교수, KAIST 기술경영학부
이어진 각 토론자들도 인공지능 기술에 대해 규제의 필요성을 제기하면서 조심스러운 접근을 강조하였다.
KAIST 기술경영학부의 김병필 교수는 “인공지능 개발 기업들이 흔히 제기하는 인공지능 ‘규제’가 이제 막 싹트기 시작한 인공지능 산업을 위축시킬 것이라는 주장은 재고될 필요가 있다”며 “인공지능 산업 발전에 있어 가장 중요한 점은 인공지능에 대한 사회적 신뢰를 형성하는 것이고 적절한 규제는 사회적 신뢰를 구축하는 기초가 될 수 있다”고 강조했다.
현재의 인공지능 기술 수준에 비추어 인공지능 공정성이나 설명 가능성을 달성하기가 쉽지 않다는 어려움이 있지만 환경 분야 사례에서 보는 것처럼 규제가 오히려 관련 기술 발전을 추동할 수도 있다는 말이다. 김 교수는 “앞으로 인공지능에 있어서도 적절한 공정성 투명성 설명가능성에 관한 적절한 수준의 규제가 마련됨으로써 이러한 신뢰가능한 인공지능 기술 분야에 대한 관심과 투자가 증가하고 그 결과 인공지능에 대한 사회적 신뢰가 높아지는 선순환의 고리가 만들어지기를 기대한다”고 밝혔다.
사단법인 정보인권연구소의 장여경 이사도 토론 발제자들의 취지에 공감한다는 점을 전제해다. 장 이사는 “국민으로부터 ‘신뢰받는 생태계’를 구축하기 위하여 인공지능 정책과 이용자를 함께 포함하는 거버넌스 체계를 마련하고 공정성 투명성 책임성에 기반 한 법률적 규율을 도입할 필요가 있다”고 말했다.
정부는 산업 중심적 인공지능 정책을 성찰하고 최근 유엔 등 국제기구가 각국 정부에 인공지능과 관련하여 인권규범 준수를 권고하는 바를 이행할 필요가 있다는 것이다. 나아가 국민의 인권과 안전을 보호하기 위해 인공지능 제품과 서비스에 특별한 규율을 도입하였거나 도입을 검토하고 있는 해외 법제도를 참고하여 관련 법제도를 정비할 필요가 있다고 지적했다.
장 이사는 특히 “국민과 영향을 받는 당사자들에게 투명하고 적법한 절차를 보장하는 법률 규율을 마련하는 것이 중요하다”며, “공공 부문 인공지능의 경우, 알고리즘을 이용한 의사결정이 이루어지기 전에 국민 일반에게 정보와 설명을 공개하고 특히 공청회 등의 방식으로 영향을 받는 주체들의 의견을 수렴하는 절차가 보장되어야 한다”고 말했다.
“국민과 영향을 받는 당사자들에게 투명하고 적법한
절차를 보장하는 법률 규율을 마련하는 것이 중요하다.
공공 부문 인공지능의 경우, 알고리즘을 이용한
의사결정이 이루어지기 전에 국민 일반에게 정보와
설명을 공개하고 특히 공청회 등의 방식으로 영향을
받는 주체들의 의견을 수렴하는 절차가 보장되어야 한다.”
-장여경 이사, 사단법인 정보인권연구소
“규제나 법은 위험의 요소를 최소화하고 이용자를
보호하는 측면이 우선되어야 한다. 문제가 발생한
다음에 법을 만드는 것이 아니라 개발 단계에서부터
올바른 활용을 위한 전제 사회적 규범 규제를
논의하고 마련해야 한다.”
-윤명 사무총장, 소비자시민모임
소비자시민모임의 윤명 사무총장은 인공지능 시대, 이용자 관점을 고려한 법제화가 필요하다하고 주장했다.
윤 사무총장은 국제소비자기구에서 AI 서비스의 소비자 위험을 최소화하고 잘 활용하기 위한 6가지 방법을 제시하였다며 ①책임성 ②권한과 통제권 ③규제적 접근 ④AI 정의 ⑤새로운 시스템(구조) 만들기 ⑥AI 이해력 (literacy) 키우기 등을 소개하였다.
그는 이에 “규제나 법은 위험의 요소를 최소화하고 이용자를 보호하는 측면이 우선되어야 함에도 불구하고 현재 우리의 인공지능과 관련한 규제나 법제도 마련에 있어서는 이러한 부분이 거의 나타나고 있지 않다. 문제가 발생한 다음에 법을 만드는 것이 아니라 개발 단계에서부터 올바른 활용을 위한 전제 사회적 규범 규제를 논의하고 마련해야 한다”고 강조했다.
정부, 점진적 다각적 대체 마련에 부심
정부의 인공지능정책을 총괄하고 있는 과학기술정보통신부 김경만 과장(인공지능정책과)은 점진적인 인공지능 정책 입장을 내놓았다.
사람 중심의 인공지능 구현을 위한 도전과 과제라는 발표에서 김 과장은 “인공지능 기술이 일상생활의 일부가 되면서 윤리 문제 등 신뢰성이 점차 중요하게 됐다. 인공지능 신뢰성 확보를 위한 기술개발, 윤리교육, 법제도 등 정책이 필요하다”는 점을 견지했다.
구체적으로는 인터넷기업협회, 지능정보산업협회 등 개발자와 기업 등을 대표할 수 있는 민간단체 중심으로 주제별로 준수해야할 체크리스트를 마련하여 지원하고 데이터, 알고리즘 편향 등 인공지능 개발, 활용 단계에서 발생할 수 있는 윤리 이슈에 대해 일반 시민 대학원생 등 단계별로 교육 방안을 마련하겠다는 것. 그는 “인공지능이 이용하는 데이터 편향성을 완화하거나 윤리기준을 위배하는 알고리즘을 검증할 수 있는 기술개발에 투자하고 기업 자율의 알고리즘 검증을 우선권고하고 민간 중심의 자율인증제를 검토하고 있다”고 말했다.
“개발자와 기업 등을 대표할 수 있는 민간단체 중심으로
주제별로 준수해야할 체크리스트를 마련하여 지원하고
데이터, 알고리즘 편향 등 인공지능 개발, 활용 단계에서
발생할 수 있는 윤리 이슈에 대해 일반 시민 대학원생 등
단계별로 교육 방안을 마련하겠다.”
-김경만 과장, 과학기술정보통신부 인공지능정책과
“AI산업 진흥을 주관하는 과기부와 디지털 시장의
불공정거래 규율을 주관하는 공정위가 공동으로
가칭 알고리즘 공개 및 설명가이드라인 제정을
추진할 계획이다. 플랫폼 알고리즘 운영의 투명성,
공정성을 확보하면서도 기업의 영업비밀 공개 우려를
최소화할 수 있는 방안을 마련하겠다.”
-이동원 과장, 공정거래위원회 시장감시총괄과
공정거래위원회 이동원 과장(시장감시총괄과)는 먼저, 과기부 중심의 산업진흥에 초점을 둔 현재 인공지능 법제에 공정성 투명성 책임성을 제고하기 위하여 공정위, 인권위, 개보위 등 3개 기관을 포함하는 거버넌스 구축을 제안한 오정미 변호사의 의견에 긍정적인 의견을 나타내었다.
이 과장은 “발제 취지에 깊이 공감하며 특히 미 FTC 사례 설명과 함께 이에 대응하는 한국 공정위의 적극적 역할”에 대해서도 무겁게 받아들인다고 말했다. 이와 관련하여 현재 공정위는 디지털 공정거래 질서 확립을 최우선 과제로 하여 온라인 플랫폼 공정화법 제정, 전자상거래법 전면개정, 심사지침 제정 등 다양한 법제 정비를 추진하고 있다고 전했다.
“거버넌스 제안과 같이 AI 분야의 종합적인 법제 정비를 위해서는 관계부처 간 협업이 중요하다고 본다. 일례로 AI산업 진흥을 주관하는 과기부와 디지털 시장의 불공정거래 규율을 주관하는 공정위가 공동으로 가칭 알고리즘 공개 및 설명가이드라인 제정을 추진할 계획이다. 플랫폼 알고리즘 운영의 투명성 공정성을 확보하면서도 기업의 영업비밀 공개 우려를 최소화할 수 있는 방안을 마련하기 위해 과기부와 적극적으로 협업하여 성공적인 부처협력 사례를 만들어가겠다.”
“AI 서비스의 개발 운영 시 개인정보의 안전한
처리 보호를 위한 수칙 개발 및 정보주체 권리 강화를
위한 입법을 추진하고 있다. 또한 개보정보위에서는
AI 환경의 개인정보보호 수칙과 자동화된 의사결정
대응권 도입을 추진하고 있다.”
-이한샘 과장, 개인정보보호위원회 데이터안전정책과
개인정보 보호위원회의 이한샘 과장(데이터안전정책과)은 AI 서비스 관련 개인정보보호 대응방안에 대해 의견을 피력했다. 지능정보사회에서 인공지능 기술이 적용된 다양한 서비스의 개발 확산으로 사생활 침해 등 개인정보 침해위험 우려가 제기되어 AI 서비스의 개발 운영 시 개인정보의 안전한 처리 보호를 위한 수칙 개발 및 정보주체 권리 강화를 위한 입법을 추진하고 있다.
또한 개보정보위에서는 AI 환경의 개인정보보호 수칙과 자동화된 의사결정 대응권 도입을 추진하고 있다. “개인정보위는 ‘AI 환경의 개인정보보호 수칙’을 마련 중에 있으며 주요 원칙 및 실천수칙을 세워 검토하고 있다. AI 개발자 및 서비스 운영자가 개인정보 보호법 등에 따라 지켜야 할 실천수칙, AI 서비스 이용자 안내사항, 참고사례 등을 수록할 예정이며 향후 전문가 및 이해관계자 등 의견수렴을 거쳐 발표할 계획이다. 이 밖에서도 AI 관련 ‘자동화 의사결정에 대한 배제 등의 권리 도입’에 대한 개인정보 보호법 개정을 추진하고 있다.
<저작권자(c)스마트앤컴퍼니. 무단전재-재배포금지>