인공지능 시스템 F·A·T·E 규제 입법 어떻게 하나
  • 2023-08-17
  • 신윤오 기자, yoshin@elec4.co.kr

공정성, 책임성, 투명성, 윤리의식 등 단계적 통제수단 도입 논의
 
인공지능 시스템의 FATE(공정성, 책임성, 투명성, 윤리의식)에 대한 규제가 어느 정도 필요하다는 점에 대해 사회적 합의가 도출되고 있다. 데이터 출처 품질을 점검하고 인공지능 시스템의 기능과 보안을 평가하는 내부 거버넌스를 구 축하며 그 위험을 평가하여 경감 조치를 취하도록 하는 입법이 논의되고 있다.  

국회입법조사처는 최근 ‘인공지능의 FATE를 위한 입법 논의 동향과 시사점’이라는 보고서에서 이같이 밝혔다. 인공지능의 공정성(airness), 책임성(Accountability) 투명성(Transparency),윤리의식(Ethics) 일명 FATE를 확보하기 위한 입법이 주요국에서 논의되고 있다.
 

데이터 출처, 품질을 점검하고 인공지능 시스템의 기능과 보안을 평가하는 내부 거버넌스를 구축하며 위험을 평가하여 경감 조치를 취하도록 하되 단계적으로 통제수단을 도입할 필요가 있다, 또한 규제의 실효성을 확보하기 위해서 정부의 인공지능 검증 조사 및 집행 역량을 확보하여야 한다고 주장했다.

먼저 공정성이다. 인공지능은 기존에 만들어진 데이터를 이용하기 때문에 인간이 지니고 있는 편향과 차별을 답습하여 불평등을 재생산할 수 있다, 이러한 편향차별 재생산은 금융 고용 건강 등 주요 부분에서 특정 집단에게 기회나 자원을 불공정하게 할당하거나 특정 집단에 대한 고정관념을 갖게 하여 사회적 약자를 계속 취약한 위치에 처하게 할 수 있다. 따라서 공정한 인공지능 개발 및 활용은 점차 중요한 요소로 여겨지고 있다.

두 번째 책임성이다. 인공지능을 설계 개발 배포 운용하는 자는 인공지능 시스템이 적절하게 기능하도록 설계하고 지속적으로 관리 감독하는 체계를 구축하여 자신의 인공지능으로 하여금 부작용이 발생하는 것을 방지하여야 한다. 관련 사업자는 데이터의 출처, 품질, 신뢰성. 대표성을 점검하고 인공지능 시스템이 의도치 않은 위험을 유발하는지 확인하는 내부 거버넌스를 구축할 필요가 있다. 이러한 책임성은 법적 책임에 한정 되는 것이 아니라 윤리적 사회적인 책임이 포함된다.

세 번째 투명성이다. 인공지능 기계학습은 서로 복잡하게 연결된 계층내 수백만 개의 변수들이 상호작용하는 구조이기 때문에 인간이 결과가 도출된 이유를 파악하기 어려운 측면이 있다. 인공지능의 결정 과정에 대한 설명이 부족하면 그 결과와 예측을 분석할 수 없어 인공지능에 대한 신뢰성이 저하되고 인공지능이 유발한 사고와 문제에 대한 해결방안과 책임소재를 논하기 어렵다. 인공지능 판단이 중요한 영향을 미치는 영역에서는 인공지능이 사용된다는 사실뿐만 아니라 인공지능이 사용하는 데이터 변수 알고리즘 작동 방식에 대한 기본 정보가 제공될 필요가 있다.

마지막으로 윤리의식이다. 인공지능 기술의 파급력은 인간에게 해를 끼치는 방향으로 사용될 수 있다. 음성을 복제하는 인공지능 기술이 보이스피싱에 이용되고 인공지능이 생성한 미국 국방부 청사 화재 딥페이크 사진이 미국 주식시장에 영향을 주기도 하였다.인공지능이 각종 범죄뿐만 아니라 시민 담론과 민주주의 가치를 훼손하는 데에도 사용될 수 있는 만큼 윤리의식에 기반 한 인공지능 개발 및 사용이 필요하다.

 

<저작권자(c)스마트앤컴퍼니. 무단전재-재배포금지>


#소프트웨어   #인공지능  

  • 100자평 쓰기
  • 로그인

세미나/교육/전시
TOP