다양한 분야 접목되며 알파고 이후의 인공지능 붐, 오남용 문제는 과제
#1 장면: “ 식품영양 기능 성분 데이터베이스(DB)를 효율적으로 모니터링, 관리할 수 있는 프로그램이 있으면 좋지 않을까”
이러한 아이디어를 떠올린 이상훈 농업연구사는 챗GPT를 활용하면 기존보다 600배 빠른 업무처리가 가능할 것이라고 생각했다.
수작업으로 10건을 처리하는데 30분이 걸렸다면 챗GPT는 1,000건을 처리하는데 불과 5분이면 충분하다는 것이다. 최근 농촌진흥청이 챗GPT의 업무 활용도를 높이고자 직원들을 대상으로 개최한 ‘챗GPT 활용 아이디어 공모전’에서 최우수상을 받은 사례이다.
이번 공모전에서는 농업기술 개발 연구 분야 55건, 농업기술 보급지도 및 행정 분야 48건 등 모두 103건이 응모했다. 농촌진흥청 관계자는 “공모전 참여율이 예상을 훨씬 웃돌아 챗GPT를 활용한 업무 효율화에 직원들의 관심이 매우 높음을 알 수 있었다”라고 밝혔다.
#2 장면: 반려견 케어 솔루션 브랜드 디디케어스는 챗GPT를 활용해 반려견에 대한 정보를 맞춤형으로 제공하는 ‘페보 댕박사’ 베타 서비스를 도입했다.
페보 워치 디바이스를 통해 수집한 데이터를 기반해 GPT 서비스를 최초로 선보인 페보는 펫 산업에서 한단계 빠르게 기술에 접목시킨 점을 주목받았다. 페보 댕박사 서비스는 OpenAI의 기술을 활용해 반려견에 대한 맞춤형 정보를 제공한다.
일반적인 챗GPT 서비스와는 다르게 페보의 반려견 데이터를 GPT 프롬프트에 최적화하여 선보였으며, 본인이 키우는 반려견에 대한 질의 내용에 맞춰 응답하도록 설정되어 있다. ‘페보댕박사’는 개인정보 확인 여부가 필요 없는 반려견의 특성 활용 및 페보 워치 디바이스를 통해 수집된 페보의 방대한 데이터를 기반으로 AI가 학습할 수 있다.
이를 통해 해당 서비스에서는 본인이 키우는 반려견에 대해 더욱 명확하고 자세한 답변이 가능하다. 회사 측은 “페보는 꾸준히 반려견 데이터를 AI에학습시켜, 점진적으로 최적화된 답변을 유도할 수 있을 것으로 예측하고 있다. 이를 통해 반려견의 건강과 잘못된 상식을 개선시킬 수 있을 것”이라고 설명했다.
생성형 AI의 시대
이처럼 챗GPT의 등장은 다양한 분야와 사회 곳곳을 변화시키고 있다. 새로운 인공지능 시대를 열었다. 본격적인 생성형 AI(generative AI) 시대가 열렸다고 해도 과언이 아닐 정도로 다양한 분야에 응용된다. 생성형 AI는 다양한 영역에서 엄청난 생산성 향상을 가져올 것으로 기대되고 있다. 생성형 AI의 확산에 대비하여 컴퓨팅 파워 확보, AI 반도체 연구개발, 데이터 유 통 거래 활성화, 저작권 정비, 이용자의 활용 역량 강화가 필요하다는 지적은 물론 윤리적인 문제를 거론하는 목소리도 덩달아 커지고 있다.
과학기술정책연구원의 박현준 미래전략팀장은 한 보고서(ChatGPT가 촉발한 AI기반지식플랫폼 체제 변혁과 대응방안)에서, “생성형 AI는 AI 자기학습 알고리즘에 기초, 학습 데이터 셋에 존재하지 않는 새로운 것을 창조한다”며, “향후 2~5년이내 주류 기술로 자리 잡을 것”이라고 예측한다. 그는 이어, AI기술은 매우 빠른 속도로 발전하고 있으며 멀지 않은 시일 내 에 사회에 주류기술(Plateau of Productivity)로 자리잡을 것이며, 이에 따른 사회적 파급력이 매우 크게 나타날 것으로 기대한다고 평가했다.
국회입법조사처 정준화 박사는 ‘챗GPT의 등장과 인공지능 분야의 과제’라는 보고서에서 “챗GPT 이용자들은 대부분 그 능력에 대해서 긍정적으로 평가하며 다양하게 활용하고 있 다. 예를 들어, 미국에서는 챗GPT가 의사, 변호사, MBA 시험을 통과하는 수준이라는 평가가 있었고, 국내에서는 챗GPT에게 2023년도 수능 문제를 풀게 해 보니 외국어는 수능 2등급 수준 이었다는 분석도 있었다. 챗GPT를 이용하여 보고서 초안을 만들거나 챗GPT만 이용해서 책을 출판하는 등 실생활에 직접 활용하는 사례들도 나타나고 있다”고 말했다.
데이터 유통 거래 활성화
또한 초거대 AI 시대의 기업경쟁력, 국가경쟁력을 강화하기 위해서는 대규모 학습 데이터를 빠르게 처리하고, 수많은 이용자 질문에 실시간으로 대답할 수 있는 컴퓨팅 파워(computing power)를 확보하는 것이 중요하다며, 이를 위해 정부는 국가 슈퍼컴퓨터 자산을 확충하고 민간이 이를 초거대 AI 개발에 활용할 수 있도록 ‘국가초고성능컴퓨팅 혁신전략’에 반영해야 한다고 주장했다.
특히 범용성을 갖춘 초거대 AI 모델을 만들기 위해서는 다양한 분야의 학습데이터를 확보해야 하고 민간에서 직접 공급하기 어려운 데이터 수요를 파악하여 정부와 공공기관이 보다 적극적으로 학습데이터를 구축할 필요가 있다. 이와 함께 민관의 다양한 분야에 축적되어 있는 방대한 데이터가 초거대 AI 모델 학습에 활용될 수 있도록 데이터 유통 거래를 활성화시켜야 한다.
대한상공회의소는 지난 3월말 챗GPT가 주도하고 있는 AI 기술의 미래와 금융 산업과의 접목에 대한 심도 있는 논의를 진행했다. 이 자리에 참석한 김선주 연세대학교 컴퓨터과학과 교수(인공지능학과장)는 “AI 기술은 앞으로 이미지, 비디오, 음성 등 다양한 모덜리티가 융합되는 방향으로 발전해나갈 것”이라며 “현재 AI 분야에서 언어기반 영상 편집 및 생성, 영상에 대한 언어설명과 같은 연구들이 활발히 진행 중이고 음성, 음악, 영상, 언어가 종합적으로 하나의 AI 모델로 통합되는 기술이 실현되면 현재의 채팅기반 GPT를 뛰어넘어 일반인공지능(Artificial General Intelligence, AGI) 시대로 넘어갈 것”이라고 말했다.
또한, 최현만 대한상의 금융산업위원장은 “챗GPT에 ‘앞으로 금융사의 경쟁력 유지 방법’을 물어보니 ‘①의사결정 효율화, ②시장정보 수집과 처리, 그리고 ③고객 경험 개선에 신기술을 활용해야 한다’는 답변을 받았다”며, 이어 “빅데이터, 인공지능, 블록체인 같은 실험도구들과 자본이 붙으면 그동안의 프로세스를 완전히 탈피하는 거대한 파급력을 가질 수 있을 것”이라고 전망했다.
생성형 AI의 명암
이처럼 챗GPT가 사회 각 방면에 파급력을 가져오고 있지만 긍정적인 영향만 있는 것도 아니다. 챗GPT가 생산성 향상에도 불구하고 생성형 AI가 가져오는 고용 충격 및 정보의 신뢰성, 윤리적 문제, 보안 등 사회적 문제도 서서히 드러내고 있다.
하나금융경영연구소의 김남훈 연구위원은 최신 보고서(챗GPT로 다가온 생성형 AI의 명암)에서 이같은 지적을 했다. “첫째, 몇 년 전만 해도 AI는 단순 반복 업무 및 저숙련자 고용 위기로 논의되었다. 그러나 오픈AI의 논문에 따르면 정보를 다루는 고학력 지식노동자들이 GPT와 같은 LLM(초거대언어모델)의 영향에 더 크게 노출될 것으로 예상됐다. 둘째, GPT와 같은 생성형 AI 활용에 있어서 신뢰성 이슈가 지속될 수 있다. 생성형 AI는 사람처럼 정보와 논리를 바탕으로 맥락에 따라 답을 추론하는 AI 모델이 아니다. GPT는 미리 학습된 단어 및 데이터 간의 관계를 파악해 확률이 높은 답을 ‘생성’한다. 훈련된 정보나 지식이 부족하거나 부정확할 경우 그럴 듯하지만 오류가 많거나 무의미한 답변을 하는 ‘할루시네이션(hallucination)’ 현상이 발생한다”고 말했다.
또한 김 위원은 “셋째, 생성형 AI로 만들어진 창작물의 저작권 침해, 윤리적 편견 등에 대한 부정적인 여파도 만만치 않다. 이미지 공급업체 게티이미지는 Stability AI를 저작권 침해 혐의로 고소했고 국내에서도 카카오가 AI로 만든 카톡 이모티콘의 입점을 불허하는 등 저작권과 관련한 논의가 진행 중이다. 잘못된 학습에 따른 윤리적 편향성도 해결되어야 할 문제이다. 마지막으로, 생성형 AI 활용과정에서의 기밀이나 개인 정보노출에 대한 우려도 크다. 챗GPT나 각종 플러그인을 통해 질문한 자료는 AI서버에 저장되기 때문에 답변을 얻는 과정에서 프롬프트 인젝션 등 해킹을 통해 악의적으로 정보를 탈취할 가능성도 있다”고 지적했다.
이러한 문제를 더 심도있게 다루기 위해 최근 국회에서는 ‘Chat GPT와 생성형 AI의 윤리적 이슈와 해결 방안’이라는 주제로 세미나(국제인공지능윤리협회, THE AI 등 개최)가 열렸다. 세미나에서는 챗GPT와 생성형 AI의의 주요한 윤리 이슈인 ▲저작권 문제 ▲기술적 악용 ▲교 육에의 영향 ▲기업계 영향 등을 주제로 전문가 발표가 이어졌다. 주제 발표 내용을 요약해 소개하면 다음과 같다.
생성형 AI의 저작권은
"대법원 판례는 ‘누가하더라도 같거나 비슷할
수 밖에 없는 표현’은 창조적 개성이 드러나지 않아
창작물 인정하지 않는다. 이에 생성 AI의 경우 동일한
학습데이터, 동일한 알고리즘은 이와 유사한
결과가 도출될 가능성이 있다"
_양진영 변호사
양진영 변호사는 ‘Chat GPT, 생성형AI의 저작권 침해 문제와 해결방안’이라는 발제에서 AI와 법적 이슈에 대한 문제를 중점적으로 다뤘다.
양 변호사는 개인정보와 프라이버시 문제 관련해서, “딥러닝 등 AI 알고리즘은 블랙박스 현상으로 인해 결과 도출 과정을 알기 어려운 경우가 많다. 개정 개인정보 보호법은 제37조의2(자동화된 결정에 대한 정보주체의 권리 등)를 신설하여 인공지능에 의한 데이터에 처리에 대한 거부ㆍ설명 요구권을 명시했다. AI를 통한 의사결정으로부터 소비자를 보호 하기 위해 국내외에서 설명가능한 AI (XAI)에 대해 논의하고 있다”고 말했다.
현행법 상 AI에게 저작권을 인정할 수 없다. 저작권법은 ‘인간’만 저작권자로 인정하기 때문이다. 저작권법상 “저작물”은 인간의 사상 또는 감정을 표현한 창작물이다. 양 변호사는 “대 법원 판례는 ‘누가하더라도 같거나 비슷할 수밖에 없는 표현’은 창조적 개성이 드러나지 않아 창작물 인정하지 않는다. 이에 생성 AI의 경우 동일한 학습데이터, 동일한 알고리즘은 이와 유사한 결과가 도출될 가능성이 있다”고 말했다.
AI가 만든 작품 그 자체에 대한 권리는 AI 개발자, AI 서비스 운영자에 있을까. 생성 AI의 결과물이 부정경쟁방지법 상 성과에 해당하는지에 관하여 명확한 판시는 아직 없다. 생성 AI의 결과물을 저작권으로 보호를 해주지 않는 이유는 공공의 영역으로 보기 때문이라는 해석이 있다.
하지만 AI가 만든 작품에 인간이 추가적으로 창작적인 요소를 가미한 경우는 또 달라진다. 양 변호사는 “AI를 보충적인 도구로 이용한 후 개인의 특성과 개성을 반영한 새로운 작품을 창작한 경우, 창작적인 요소를 가미한 사람이 저작권을 주장할 가능성 있다. 단, AI 이용자가 저작권을 인정받기 위해서는 AI의 원작품과 동일성/실질적 유사성이 없어야 한 다”고 말했다.
AI 개발자, AI 서비스 운영자에게 부정경쟁방지법 상 성과에 관한 권리 귀속이 가능할 여지가 있으며 AI 이용자가 추가적인 창작적 요소를 가미하였다면 AI 이용자에게 저작 권 인정이 가능하다고 덧붙였다. 생성 AI와 저작권 이슈 해결 방안에 대해 양 변호사는 “생성 AI로 만들어진 결과물에 대한 권리 인정여부에 대한 논의와 학설은 많지만, 아직 명 확한 판례 존재하지 않다”며, “생성AI 서비스 제공자의 안내및 사용자의 주의가 필요하다. 학습데이터 공개 의무에 따라 생성AI 프로그램에 학습데이터와 결과물에 AI를 통해 생성 되었다는 사실 및 학습데이터 세트를 함께 명시하고 학습데이터 세트에 대한 저작권자의 의사를 확인해야 한다”고 말했다.
또한 학습데이터 세트에 대한 공정이용 논의(TDM 도입 여부)와 학습데이터 세트에 대한 보상모델, 보상방안 논의도 필요하다고 주장했다.
생성형 AI의 오남용, 어떻게 막나
"높은 성능으로 효율을 높여주는 강력한 능력이지만
사용자의 목적에 크게 영향을 받아 악용되거나
데이터의 한계, 모델의 한계, 리소스의 한계로
오용 남용되는 경우가 자주 목격된다. 기술적
접근을 통한 예방/방지, 정책적 접근을 통한 대응,
생성형 AI에 대한 시각을 전환함으로써 악용,
오용, 남용을 극복할 수 있을 것으로 기대한다."
_이지항 교수, 상명대학교
상명대학교의 이지항 교수(휴먼지능정보공학전공)는 ‘생성형 AI 기술의 악용 이슈와 해결 방안’ 발표에서 생성형 AI 기반 기술의 3가지 문제와 3가지 접근을 제시했다. 3가지 문제 는 악용, 오용, 남용으로 딥페이크 악용이나 인공지능 모델의 편견 사례(범죄 예측시스템의 인종 편향)와 같은 오, 남용 문제를 사례로 들었다. 또한 3가지 접근은 방지, 대응, 전환이다.
이에 대한 대응으로 양성화(안전한 활용 및 도입 촉진)와 생성모델 보안정책 수립을 들었다. 이 교수는 “민감 정보 유출, 잘못된 결과물 오용 등 ChatGPT 위험성에 대한 대국민홍 보?교육 및 안전 활용지침 마련 및 배포를 통해, ChatGPT 위험성에 대한 인식 제고 및 무분별한 활용 방지 노력이 필요하다”며, “기업 내에 ChatGPT를 안전하게 도입하고 부작용을 완화하기 위해, 관련 보안사고 정보공유, CISO 및 보안 담당자 간담회 개최, 기업보안정책 수립 및 교육지원 등을 추진해야 한다”고 말했다.
또한 생성모델 보안정책 수립과 관련, 학 습 데이터 수집단계부터 학습 및 결과물 활용까지 전과정에 대한종합적인 보안프레임워크 및 가이드라인을 제정하고 학습데이터 수집 처리 간 개인정보보호법 준수, 인공지능 모델 의 투명성을 확보하고, 잠재적 위험을 완화하기 위한 정책을 마련해야 한다. 적대적 공격 방어, 인공지능 프라이버시 보호,설명가능한 인공지능, 데이터 편향 식별 완화 등 인공지능 기술의 공정성 투명성 등 확보 및 인공지능기술에 대한 신뢰 증진을 강조했다.
현재 딥러닝의 발전에 따른 생성형 AI의 ‘super-human performance’를 목도하고 있다는 이 교수는 “높은 성능으로 효율을 높여주는 강력한 능력이지만 사용자의 목적에 크게 영 향을 받아 악용되거나 데이터의 한계, 모델의 한계, 리소스의 한계로 오용 남용되는 경우가 자주 목격된다”며, “기술적 접근을 통한 예방/방지, 정책적 접근을 통한 대응, 생성형 AI에 대한 시각을 전환함으로써 악용, 오용, 남용을 극복할 수 있을 것으로 기대한다”고 강조했다.
AI 윤리규정 준수 노력해
"매월 정기 회의를 통해 카카오 공동체
서비스들의 AI 윤리규정 준수 여부와
위험성 점검, 알고리즘 투명성 강화
등을 위한 체계적 정책 개선 업무를 수행한다."
_황승택 부장, 카카오 인권과 기술윤리팀
카카오 인권과 기술윤리팀의 황승택 부장은 “AI 시대, 카카오의 기술윤리” 주제 발표에서 기업의 대응방안을 소개했다.
카카오는 2018년 알고리즘 윤리헌장을 제정하며 기술윤리 철락을 수립하였다. 가령, 차별에 대한 경계 “알고리즘 결과에서 의도적인 사회적 차별이 일어나지 않도록 경계한다”는 원칙에서는 ‘증오발언 근절’을 위한 카카오의 원칙을 수립하였다.
카카오는 특정 대상을 차별하거나 이에 대한 편견을 조장하며, 일방적으로 모욕하거나 배척하는 행위에 반대한다거나 이러한 차별에 기반해 특정인과 특정 집단을 공격하는 발언을 증오발언으로 정의한다는 것이 골자이다. 또한 이모티콘 제작 가이드를 통해 ‘증오 발언’ 지침 위반 시 입점 및 판매를 제한하고 기사 배치, 분류, 추천 등 뉴스 알고리즘을 이용자에게 공개했다고 밝혔다. 카카오는 AI 윤리를 위한 준비로 2022년 7월 25일 ‘카카오 공동체 기술윤리 위원회(Tech for good committee)’를 출범했고 전담 조직 ‘인권과 기술윤리팀’도 발족하였다.
황승택 부장은 “매월 정기 회의를 통해 카카오 공동체 서비스들의 AI 윤리규정 준수 여부와 위험성 점검, 알고리즘 투명성 강화 등을 위한 체계적 정책 개선 업무를 수행한다”고 말했다.
AI 리터러시 교육 중요해
"이용자 'AI 역량' 강화 교육은 필수적이고
교육현장에서 'AI 리터러시'도 함께 강조해야 한다.
다시 말해, 하나의 정답이 요구되는 경우는
반드시 검증이 필요하고 교육현장에서의 표절 시비는
신뢰 기반의 원칙 합의에서 출발해야 한다.
또한 부정확성, 환각현상, 편견, 개인정보 유출을
대비하고 유능한 만큼 악용과 오용, 남용의 가능성에
대비한 교육이 필요하다."
_김명주 교수, 인공지능윤리정책포럼 위원장
인공지능윤리정책포럼 위원장이자 서울여자대학교 정보보호학과장인 김명주 교수는 발표(챗GPT, 생성형 AI의 교육과 교육계에서의 영향 및 해결 방안)에서 AI 리터러스 교육을 강조했다.
이용자에 의한 악용, 오용 그리고 남용이 심각해지면서 ‘AI 리터러시 교육’이 중요해졌다는 것. 남의 글을 읽고, 자신의 글을 쓸 줄 아는 능력을 말하는 리터러시(Literacy, 문해력)는 미디어를 통해 전달된 정보를 비판적으로 이해하고, 미디어를 통해 창의적으로 생각을 표현하고 소통하는 능력을 포괄한다. 김 교수는 “AI 리터러시는 AI 생성물을 비판적으로 이해하여 수용하는 능력, AI 기술과 도구를 이해하여 이를 적절하게 활용하는 능력, AI 제품과 서비스를 현실적으로 개발하는 능력 등을 포함한다”고 말했다.
챗GPT의 표절 문제는 생성형 AI들이 초래하는 일반적 문제로 생성형 AI도 한 명의 저자이므로, 자신만의 스타일이 존재한다. 개발사에서 고유 워터마크(Watermark)를 생성할 수 있고 ‘합성생성물’로 인한 저작물의 다양성이 감소될 우려가 있다. 챗GPT 산출물 확인(표절 체크)에 대한 기술적 사례도 찾아봐야 한다.
챗GPT, Bard, 생성형 AI 열풍은 일과성이 아니라고 강조한 김 교수는 “미래 인재의 디지털, AI 역량 등 새로운 역량으로 자리매김하고 있으며 이는 똑똑한 대학원생 50명, 유능한 보조작가 50명을 소유한 것과 같고 교육현장에서 금지할 것이 아니라 적정 교육이 필요하다”며, 이용자 ‘AI 역량’ 강화 교육은 필수적이고 교육현장에서 ‘AI 리터러시’도 함께 강조해야 한다. 다시 말해, 하나의 정답이 요구되는 경우는 반드시 검증이 필요하고 교육현장에서의 표절 시비는 신뢰 기반의 원칙 합의에서 출발해야 한다. 또한 부정확성, 환각현상, 편견, 개인정보 유출을 대비하고 유능한 만큼 악용과 오용, 남용의 가능성에 대비한 교육이 필요하다”고 말했다.
인공지능 주요 개념과 생성형 AI의 관계(한국방송통신전파진흥원 Report 양지훈, 윤상현)
챗GPT에 물었다
챗GPT에 질문을 해봤다. “생성형 AI가 위험하지 않을까”라고 물어보니, 챗GPT는 다음과 같은 대답을 했다. “생성형 AI는 잠재적으로 위험한 상황을 일으킬 수 있습니다. 그러나 적절한 조치를 취하고 윤리적 가이드라인을 준수한다면 이러한 위험을 완화하고 제어할 수 있습니다. 몇 가지 관련된 위험과 대응 방법은 다음과 같습니다”라고. 챗GPT가 말하는 위험과 대응 방법을 요약하면 ▲편향성과 차별 ▲개인 정보 보호 ▲악용과 사회적 영향 ▲인간-인공지능 상호작용 ▲작동 불안정성과 오류 ▲인간의 일자리 변화 등을 들었다.
구글이 최근에 발표한 ‘Bard’에도 같은 질문을 했다. ‘Bard’의 대답은 이랬다. “생성형 AI는 매우 강력한 도구가 될 수 있지만, 위험할 수도 있습니다. 생성형 AI가 악의적인 목적으로 사용될 수 있는 가능성은 항상 있습니다. 예를 들어, 생성형 AI는 허위 뉴스를 만들거나 사기를 치거나 사이버 공격을 수행하는 데 사용될 수 있습니다. 또한 생성형 AI는 인간의 일자리를 대체할 수 있는 잠재력이 있습니다. 생성형 AI는 인간이 현재 수행하는 많은 작업을 더 빠르고 효율적으로 수행할 수 있습니다. 이것은 많은 사람들이 일자리를 잃을 수 있음을 의미합니다.(중략)”
생성형 AI 시대에 우리는 무슨 준비를 해야 하나(국회입법조사처)
이어, “생성형 AI의 미래는 어떻게 될까”라는 질문을 챗GPT와 ‘Bard’에 던졌다. 챗GPT는, 생성형 AI의 미래는 매우 흥미로운 전망을 가지고 있다며 발전된 AI 기술, 개인화된 경험, 창의성과 협업, 의료 및 과학 분야의 발전, 윤리적 및 사회적 고려, 일자리 변화 등을 나열했다.
‘Bard’는 설명은 이랬다. “생성형 AI는 텍스트, 이미지, 비디오, 음악 등 다양한 형태의 데이터를 생성할 수 있는 AI의 한 유형입니다. 생성형 AI는 아직 개발 초기 단계에 있지만, 향후 다양한 분야에 적용될 가능성이 높습니다. (중략) 생성형 AI는 아직 잠재력이 무궁무진한 기술입니다. 향후 생성형 AI가 사회와 경제에 미칠 영향은 매우 클 것으로 예상됩니다. 생성형 AI의 미래는 매우 밝습니다. 생성형 AI는 아직 개발 초기 단계에 있지만, 향후 다양한 분야에 적용될 가능성이 높습니다. 생성형 AI는 사회와 경제에 큰 영향을 미칠 것으로 예상됩니다.”
<저작권자(c)스마트앤컴퍼니. 무단전재-재배포금지>