노드VPN, 한국인 92%는 AI 활용 시 개인정보 보호 고려 못하고 있어
노드VPN은 1월 28일 ‘세계 데이터 프라이버시의 날(Data Privacy Day)’을 맞아, 생성형 AI 도구가 업무 환경에 빠르게 확산되는 가운데 한국인의 개인정보 보호 인식이 위험 수준에 이르렀다는 조사 결과를 공개했다.
노드VPN이 2025년 한 해 동안 진행된 국가 개인정보 테스트(National Privacy Test, NPT) 데이터를 분석한 결과, 한국인의 92%는 업무에서 AI를 사용할 때 고려해야 할 개인정보 보호 요소를 충분히 인식하지 못하고 있는 것으로 나타났다. 생성형 AI가 생산성 향상을 위한 도구로 빠르게 자리 잡고 있지만, 개인정보 노출과 데이터 활용에 대한 이해는 이를 따라가지 못하고 있다는 분석이다.

실제로 챗지피티(ChatGPT), 코파일럿(Copilot) 등 생성형 AI 도구는 문서 작성, 요약, 분석 등 다양한 업무에 활용되고 있다. 그러나 이 과정에서 개인 정보나 회사 내부 정보가 무심코 입력되는 사례가 늘고 있음에도, 해당 데이터가 어떻게 저장·분석·활용되는지에 대한 인식은 여전히 부족한 상황이다.
이 같은 위험은 업무 환경에만 국한되지 않는다. 같은 조사에 따르면 한국인의 45%는 딥페이크 영상이나 음성 복제 등 AI 기술을 활용한 사기를 정확히 구별하지 못하는 것으로 나타났다. AI 기술이 텍스트를 넘어 실제 인물과 구분하기 어려운 영상과 음성까지 구현할 수 있게 되면서, 사기 수법 역시 한층 정교해지고 있다는 설명이다.
노드VPN의 기존 글로벌 조사 결과 역시 이러한 우려를 뒷받침한다. 전 세계적으로 최근 2년간 3명 중 1명은 온라인 사기를 경험했으며, 이 가운데 49%는 실제 금전적 피해를 입은 것으로 나타났다. AI 기술이 사이버 범죄에 활용되면서 이전보다 적은 기술적 지식만으로도 고도화된 공격이 가능해졌고, 2026년에는 AI 기반 공격이 주요 사이버 보안 위협으로 부상할 것으로 전망된다.
노드VPN은 AI 활용이 일상화되는 환경에서 개인정보 보호에 대한 인식 격차 자체가 새로운 보안 리스크로 작용하고 있다고 지적했다. 특히 기술 자체보다도, 사용 과정에서의 판단과 기본적인 보안 원칙 준수가 중요하다고 강조했다.
이에 노드VPN은 업무 환경에서 생성형 AI 활용 및 AI 기반 사기로부터 자신을 보호하기 위해 회사 기밀 및 고객 정보 입력 금지, AI 대화 내용의 기록·저장 가능성 인지, 조직 차원의 AI 사용 정책 사전 확인, 예상치 못한 금전 정보 요청에 대한 경계, AI 생성 음성과 영상에 대한 무조건적 신뢰 지양, 보안 소프트웨어 최신 상태 유지 등 기본적인 보안 수칙을 권고했다.
노드VPN 최고기술책임자(CTO) 마리우스 브리에디스(Marijus Briedis)는 “AI 도구는 동료와의 대화와 달리 기록되고 분석될 수 있으며, 향후 모델 학습에 활용될 가능성도 있다”며, “직원들이 고객 정보나 내부 전략, 개인정보를 무심코 입력할 경우 자신도 인식하지 못한 보안 취약점이 발생할 수 있다”고 말했다.
<저작권자(c)스마트앤컴퍼니. 무단전재-재배포금지>







