가트너, 데이터 거버넌스와 보안 조치의 발전 속도가 AI 도입 속도보다 느려 보안 위험 발생
"국경을 넘나드는 부적절한 생성형 AI 사용이 2027년까지 AI 관련 데이터 유출 사고의 40% 이상이 될 것이다."
가트너(Gartner)가 글로벌 AI 표준화 격차가 운영 비효율성을 초래한다고 강조했다. AI 및 데이터 거버넌스에 대한 일관된 글로벌 모범 사례와 표준이 없다면, 시장이 세분화되고 기업이 전략을 지역별로 따로 수립할 수밖에 없게 돼, 기업의 글로벌 AI 운영 확장과 AI 제품 및 서비스 활용 능력이 저해될 수 있다는 것.
사용자들이 생성형 AI 기술을 도입하는 속도가 데이터 거버넌스 및 보안 조치의 발전 속도를 앞지를 정도로 빨라졌고, AI 기술을 지원하기 위한 중앙 집중식 컴퓨팅 성능으로 인해 데이터 현지화에 대한 우려가 커지고 있다.
요그 프리츠(Joerg Fritsch) 가트너 VP 애널리스트는 “의도치 않은 국경 간 데이터 전송은 주로 감독 미흡으로 인해 발생한다. 명확한 설명이나 발표 없이 생성형 AI가 기존 제품에 통합될 때 더욱 빈번하게 일어난다”며, “조직에서는 직원들이 생성형 AI 도구를 사용해 만들어내는 콘텐츠에 변화가 일어나고 있다. 이러한 도구는 승인된 업무용 애플리케이션에서는 유용하게 활용될 수 있지만, 민감한 프롬프트가 알 수 없는 위치의 AI 도구나 API로 전송될 경우 보안에 위험을 미칠 수 있다”고 설명했다.
프리츠 VP 애널리스트는 “AI 정책이 지역에 따라 다르게 전개돼 데이터 흐름 관리 및 품질 유지가 복잡해지면 운영 비효율성이 발생할 수 있다”며, “기업들은 민감한 데이터를 보호하고 규정 준수를 보장하기 위해 고급 AI 거버넌스와 보안에 투자해야 하며, 이는 AI 보안, 거버넌스, 규정 준수 서비스 시장의 성장과 AI의 투명성과 제어를 강화하는 기술 솔루션의 발전을 촉진할 것”이라고 전했다.
가트너는 2027년까지 AI 거버넌스가 전 세계 모든 주권 AI 법률과 규정에서 필수 요건이 될 것으로 예측했으며, 기업들은 이에 선제적으로 대응해야 한다고 조언했다.
“필수 거버넌스 모델과 제어를
통합하지 못하고, 데이터 거버넌스
프레임워크를 신속하게 확장할
리소스가 부족한 기업은 경쟁에서
불리해질 수 있다” _프리츠 VP 애널리스트
이에 가트너는 AI 데이터 유출, 그중에서도 국경을 넘는 생성형 AI 오용으로 인한 위험을 완화하고 규정 준수를 보장하기 위한 몇 가지 전략적 조치를 제시했다.
기업은 AI 처리 데이터에 대한 지침을 포함하도록 데이터 거버넌스 프레임워크를 확장해 국제 규정을 준수하고 의도치 않은 국경 간 데이터 전송을 감시해야 한다. 여기에는 정기적 개인정보 영향 평가와 데이터 계보, 데이터 전송 영향 평가 통합이 포함된다.
또한 AI 감독을 강화하고 AI 배포 및 데이터 처리에 대한 투명한 커뮤니케이션을 보장하기 위한 위원회를 구성해야 한다. 해당 위원회는 기술 감독, 위험 및 규정 준수 관리, 커뮤니케이션 및 의사 결정 보고의 역할을 담당해야 한다.
민감 데이터를 보호하기 위한 고급 기술, 암호화, 익명화를 활용해야 한다. 예를 들어, 특정 지역의 신뢰 실행 환경을 확인하고, 데이터가 해당 지역을 벗어날 경우 차등 개인정보와 같은 고급 익명화 기술을 적용할 수 있다.
AI 기술에 맞춘 신뢰, 위험 및 보안 관리(TRiSM) 제품 및 기능에 대한 예산을 계획하고 할당해야 한다. TRiSM 투자에는 AI 거버넌스, 데이터 보안 거버넌스, 프롬프트 필터링 및 수정, 비정형 데이터의 합성 생성이 포함된다. 가트너는 2026년까지 AI TRiSM 제어를 적용한 기업은 부정확, 불법 정보를 최소 50% 감소시켜 잘못된 의사결정을 줄일 것으로 예측했다.
<저작권자(c)스마트앤컴퍼니. 무단전재-재배포금지>