1학기때 들었던 수업 중 AI공존윤리 교수님께서 딥페이크를 설명하실 때 이 부분을 정말 흥미롭게 들었는데요. 뉴스에서 보면 딥페이크를 통한 기술로 범죄가 상당히 많이 일어나는 것으로만 알고있었지 정확히 딥페이크가 무엇인지, 어떤 목적으로 탄생한 기술인지를 몰랐었는데, 알게되어 굉장히 새로웠습니다. 청소년들조차 이 기술을 재미로 악용하여 협박하는 사례와 성인들도 마찬가지로 악용하여 초,중,고등학생에게 해당 학생의 딥페이크 사진을 보내며 협박하고 금품을 갈취하며 심한 정신적 압박을 겪고 있는 친구들도 많다는 것을 알게 되었습니다. 어쩌면 우리의 얼굴이 합성된 이상한 사진들이 인터넷상에 우리도 모르게 유포될 수도 있겠다 싶었습니다. 저는 이 기술이 일반인들도 접근하여 사용하기 쉽게 앱으로도 출시되었다는 점과 본래의 취지인 예전 사진들을 화질 좋게 바꿔주는 것으로써 사용하는게 아닌 이상한 사진에 다른사람 얼굴을 합성하여, 이를 악용해 정치적 목적 또는 협박용으로 사용하는 악용사례에 대하여 심각성을 느꼈습니다.
이에 대한 사례로 아이돌들의 딥페이크 사진 협박 디엠, 유명 연예인의 딥페이크 사진으로 광고에 마케팅에 사용, 딥페이크 기술로 홍콩의 한 다국적 기업 최고 재무 책임자를 모방하여 화상전화회의에 참석해서 거액의 약 342억을 송금한 사례, 주변 지인의 사진을 딥페이크를 통한 음란물 제작하는 사례 등 앞서 말했듯 일반인들도 딥페이크 기술에 접근하기 쉬워져서 해당 사례들처럼 악용하기도 쉽고, 전문적으로 해당 기술을 배워 작정하고 거액의 돈을 뜯어내거나 딥페이크를 통해 다른 유명 연예인들의 동의없이 마케팅, 광고에 활용하는 등의 사회적으로 심각한 상황이라고 생각이 됩니다.
딥페이크
인공지능 기술인 딥러닝(deep learning)과 ‘가짜’를 의미하는 단어인 페이크(fake)의 합성어로, 인공지능 기술을 이용하여 진위 여부를 구별하기 어려운 가짜 이미지나 영상물
- 딥페이크라는 단어가 등장한 시기는 2017년으로, 미국 온라인 커뮤니티 Reddit의 한 회원이 기존 영상에 유명인의 얼굴을 입혀 가짜 콘텐츠를 게재한 데서 유래되었습니다. 이후 온라인 커뮤니티와 SNS를 중심으로 급속히 확산된 딥페이크 콘텐츠는 최근 DeepFaceLab, Faceswap 등 오픈 소스 형태의 영상 합성 제작 프로그램이 배포되면서 더욱 성행하고 있습니다.
> 딥페이크 콘텐츠 생성과정
딥페이크의 기반은 2014년에 등장한 머신러닝 기술인 ‘적대관계생성신경망(Generative Adversarial Networks, 이하 GAN)’입니다. GAN은 AI 모델을 생성모델1 과 분류모델2 로 구분하며, 각 모델의 학습을 반복하는 과정을 거친다. 이러한 과정에서 생성모델과 분류모델은 서로를 적대적 경쟁자로 인식하며 상호 발전하게 됩니다. 생성모델은 실제와 유사한 데이터를 생성할 수 있게 되고, 분류모델은 데이터의 진위여부를 구별할 수 없게 되는 것입니다. 이 과정을 반복하면서 원본 영상과의 구별이 거의 불가능할 정도로 정교한 합성 영상이 만들어집니다.
*적대관계생성신경망(GAN):생성자와 식별자가 서로 경쟁하며 데이터를 생성하는 모델
- GAN을 NIPS에서 발표한 Ian Goodfellow 구글 브레인의 는 생성자를 위조지폐범에 식별자를 경찰에 비유하였음
>> 딥페이크의 양면성
최근엔 의료계에서도 딥페이크 기술을 바탕으로 연구를 진행하고 있습니다. 2019년 7월에 독일 뤼벡대(University of Lübeck) 의료정보학연구소 연구진은 딥러닝 알고리즘의 이미지 패턴매칭 기능3 을 활용하여 질병 진단용 인공지능을 개발했다. 뤼벡대 연구진은 적대관계생성신경망(GAN)을 이용하여 원본 영상과 진위여부를 구별할 수 없는 정확도의 딥페이크 의료영상을 만들어냈습니다. 딥페이크 영상은 인공지능이 질병을 학습하고 정확히 진단할 수 있도록 딥러닝하는데 사용된다. 의료영상을 분석할 데이터가 충분치 않았는데, 딥페이크 기술로 이를 해결한 것입니다.
하지만 한편으론 여론을 조작하려 가짜 뉴스를 제작하거나 유명인의 얼굴을 무단 도용해 성인물을 만드는 등 그 위험성 또한 심화되고 있습니다. 유명 할리우드 배우들이 위조된 성인물 영상으로 피해를 보았으며, 국내에서도 온라인 커뮤니티와 SNS를 중심으로 유명인뿐 아니라 일반인까지 딥페이크의 악용 피해를 보고 있습니다.
이처럼 정교한 딥페이크 기술은 미디어 업계에서 특수효과로 활용되어 콘텐츠 품질 개선에 기여할 수 있지만, 한편으로는 성인물과 가짜 뉴스 제작 등 각종 범죄의 도구로 쓰이고 있습니다.
저는 이러한 딥페이크의 양면성 중에서도 부정적인 면, 딥페이크 기술을 응용한 범죄에 대하여 좀 더 조사를 해보고, 이러한 문제를 해결하기 위해 효과적인 방안이 무엇일지 고찰해보기로 생각했습니다.
2. 본론
저는 우선 보편적으로 깔려있는 대부분의 사람들의 딥페이크에 관한 인식정도에 관한 통계를 알아보고자 했습니다.
▼ 딥페이크 인식
딥페이크의 사람들의 인식은 어떠할까요?
" 딥페이크 영상이 무엇인지 아십니까?"
위의 질문에 대한 전세계적 응답 통계는 다음과 같습니다.
해당 통계는 iProov에서 2022년에 8개국(미국, 캐나다, 멕시코, 독일, 이탈리아, 스페인, 영국, 호주)에서 16,000명을 대상으로 설문 조사를 실시하여 딥페이크에 대한 여러 질문을 한 통계결과입니다.
전 세계적으로 응답자의 71%가 딥페이크가 무엇인지 모른다고 답했습니다. 전 세계 소비자의 3분의 1도 채 안 되는 사람들이 딥페이크를 알고 있다고 답했습니다.
딥페이크에 대해 가장 잘 알고 있는 나라는 멕시코와 영국입니다. 멕시코 응답자의 40%, 영국 응답자의 32%가 딥페이크가 무엇인지 알고 있다고 답했습니다.
스페인과 독일은 딥페이크에 대한 지식이 가장 부족하다고 느꼈습니다. 스페인과 독일 모두 응답자의 75%가 "아니요"라고 답했습니다.
☞ 개인적으로 저희나라가 통계자료에 존재하지 않아 매우 아쉽지만, 전세계적인 딥페이크 관련 설문 통계 자료가 거의 없어서 해당 자료를 쓰게된 점 양해 부탁드립니다.
> 2022년에 딥페이크 대해 알고 있는 사람이 29%(4,640명)밖에 없다는 사실이 굉장히 우려스러운 점입니다. 최근 기술이 상당히 발달했음에도 불구하고 전세계적으로 이렇게 인식도가 낮다는 것은 얼굴 스왑, 재연 등과 같은 여러 딥페이크 위협에 노출될 수 있고, 이것을 인지하지 못하는 경우가 있을 수 있습니다.
"진짜 영상과 딥페이크 영상의 차이를 알 수 있다고 생각하시요?"
해당 질문에 사람들은 다음과 같이 답하였습니다.
전 세계 응답자의 57%는 딥페이크를 알아볼 수 있다고 생각한다고 답했습니다. 43%는 실제 영상과 딥페이크 영상을 구별할 수 없다고 인정했습니다.
가장 자신감이 강한 응답자들은 멕시코 출신으로 82%가 딥페이크 영상과 실제 영상을 구별할 수 있다고 믿었습니다.
반면, 독일 응답자들은 가장 자신감이 부족했는데요. 57%가 차이를 알 수 없다고 답했습니다.
>> 전 세계 응답자의 57%는 실제 비디오와 딥페이크의 차이를 알 수 있다고 믿는데, 이는 2019년의 37%에서 증가한 수치입니다. 정교한 딥페이크는 인간의 눈으로는 구별할 수 없기 때문에 우려스러운 일입니다. 딥페이크를 검증하려면 딥 러닝과 컴퓨터 비전 기술이 필요합니다.
>> 진짜 문제는 예를 들어 악명 높은 톰 크루즈가 나온 것과 같은 고급 딥페이크인데, 이를 만들려면 정교한 도구, 지식, 시간이 필요합니다.
우리가 딥페이크를 찾아낼 수 있는 능력에 지나치게 자신감을 갖는다면, 딥페이크에 속을 위험이 더 커집니다.
저는 이 의견에 동의합니다. 저희의 눈을 속일정도로 이제는 딥페이크 기술이 상당히 발달했습니다.
따라서 자신감을 갖는게 아닌 해당 지식을 갖고, 딥페이크를 방어할 방법을 찾아야 합니다.
"다음 중 어떤 것이 딥페이크가 당신에게 어떻게 사용될 수 있는지에 대해 가장 걱정되나요?"
해당 질문에 대한 응답 선택지는 다음과 같습니다.
- 남색: 내가 말하지 않은 것을 다른 사람에게 설득하기 - 주황색: 내 평판 손상 - 하늘색: 내가 아는 사람의 돈을 훔치기 위해 내 신원을 도용하는 행위 - 초록색: 내 명의로 신용 카드 또는 은행 계좌를 개설하기 위한 신원 도용 - 보라색: 내 은행 및 기타 계좌에 액세스하기 위한 신원 도용 - 검정색: 사실이 아닌 것을 믿도록 유도하는 경우
여러분들은 어떤 것을 선택하시겠습니까? ☞ 이 글을 여기까지 읽어주신 여러분들께서는 딥페이크에 대해 무슨 우려가 가장 크게 다가오시나요? 저는 사실이 아닌 것을 믿도록 유도하는 것이 가장 우려스러운 것 같습니다. 그 이유는 은행계좌나 신원도용 같은 경우에는 얼굴인식도 필요한 것들도 있지만 대부분 그 외에도 2중 이상으로 보안 절차를 해놓아서 그나마 안심이 되지만, 제 얼굴을 딥페이크 시키는 등의 위협에는 쉽게 노출될 수 있겠다 싶어서 가장 걱정이 되는 것 같습니다.
사람들이 가장 우려하는 것은 딥페이크가 "온라인에서 보는 것을 믿기 어렵게 만들 수 있다"는 것입니다.
2위는 "딥페이크는 위험하다"는 의견으로, 전 세계 응답자의 62%가 동의했습니다.
58%는 딥페이크가 "점점 더 심각해지는 우려"라는 데 동의했습니다.
전 세계 응답자의 9%만이 딥페이크가 "누구도 속일 만큼 정확하지 않다"고 생각합니다.
전 세계 응답자의 2%만이 딥페이크의 어떤 측면에 대해서도 우려하지 않는다고 밝혔습니다.
▽ 딥페이크 통계
딥페이크 동영상의 인구 통계학적 분석 상위 딥페이크 포르노 웹사이트 5곳 및 상위 14개 딥페이크 YouTube 채널 상위 딥페이크 동영상에 등장하는 피사체의 국적, 직업을 분석하고, 또한 딥페이크 포르노 웹사이트 상위 5곳과 딥페이크 유튜브 채널 상위 14곳을 분석한 통계입니다. 그리고 포르노가 아닌 딥페이크 동영상을 호스팅하는 상위 14개 유튜브 채널을 분석한 통계자료입니다..
> 왼쪽 사진은 피사체의 국적에 따른 분류통계입니다.
해당 통계를 분석해보면 다음과 같습니다.
YouTube에서 딥페이크 동영상의 90% 이상이 서양인을 주제로 한 딥페이크 동영상이 90% 이상을 차지했습니다. 그리고 서양인이 아닌 피사체가 등장하는 동영상은 거의 3분의 1에 딥페이크 포르노 웹사이트의 동영상에 등장했습니다. 또한 피사체 중 한국 케이팝 가수가 4분의 1을 차지했습니다. 이는 딥페이크 포르노가 점점 더 전 세계적인 현상으로 일어나고 있다는 의미로 해석이 가능합니다.
> 오른쪽 사진은 피사체의 직업 통계입니다.
딥페이크 포르노 동영상에 등장하는 피사체 중 1%를 제외한 모든 피사체는 엔터테인먼트 분야에서 일하는 여배우와 뮤지션이였습니다. 또한 YouTube 딥페이크 동영상에 등장하는 피사체는 더 다양한 직업군에서 등장하고 있으며, 특히 정치인 및 기업 인사도 포함됩니다.
▼ 그렇다면 어째서 딥페이크는 빠르게 확산하게 되었을까요?
생성적 적대 신경망(GAN) 연구의 발전이 딥페이크 확산에 기여했습니다.
생성적 적대 신경망(GAN) 연구는 2014년 4건에서 2019년 9월 1207건으로 급속히 증가한 것을 알 수 있습니다. 이는 우상향 그래프로 앞으로도 상당히 많이 빠르게 증가할 것으로 보입니다.
딥페이크 콘텐츠는 GAN을 활용한 DeepFaceLab, Faceswap 등 오픈 소스 영상 합성 프로그램이 배포되면서 더욱 성헹하게되었습니다.
- GitHub를 통해 딥페이크 기술로 영상의 얼굴을 바꾸는 오픈소스코드 공유도 확대되었습니다.
* GitHub Star는 '북마크' 혹은 '좋아요'와 비슷한 역할을 하며, 보통 Star개수를 통해 프로젝트의 신뢰도와 확산가능성을 가늠합니다.
딥페이크는 산업적 활용가치가 높아 영화, 음반 등 다양한 분야에서 활용 중 입니다.
따라서 위와 같은 GAN연구와 GitHub 등과 같은 사이트를 통한 오픈소스 프로그램 배포, 딥페이크의 산업적 활용가치 등으로 인해 확산이 빠르게 되었습니다.
▼ 딥페이크 언급 양 분석
2017년 말을 기준으로 언급 양이 증가하였고, 2018년부터 급증하였습니다.
언급 양이 증가한 시점마다 사회,문화적으로 이슈를 발생시키는 딥페이크 콘텐츠가 등장하였습니다.
> 2017년 말 미국의 사이트에서 딥페이크 라는 가명을 가진 회원이 다수의 가짜 포르노 비디오를 올렸고 그 중 유명 배우들의 콘텐츠가 주목받았습니다.
- 키워드: Deepfake, Reddit, Hollywood, Celebrity, Porn, FakApp, AI
> 2019년 5~6월 낸시 펠로시 의장, 저커버스 CEO 등 유명 인사의 영상이 게시되었습니다.
- 미국 낸시 펠로시 하원의장(민주당) 미국 진보센터 행사에 참석해 술에 취한 듯한 어투로 말하는 조작된 동영상이 소셜미디어를 통해 확산되었습니다.
- 인스타그램에 마크 저커버그 페이스북 CEO의 인터뷰 발언을 조작한 딥페이크 영상이 게시되었습니다.
- 2018년 버즈피드가 딥페이크의 위험성을 알리기 위해 게시한 오바마, 트럼프 관련 영상 내용도 동시에 언급되었습니다. - 키워드: Nancy Pelosi, Facebook CEO, Trump, Obama 등
▼ 딥페이크 기술에 대한 감정
왼쪽은 시간의 경과에 따른 딥페이크의 부정인식변화를, 오른쪽은 긍정 인식 변화를 나타낸 것입니다.
두 그래프의 y축 최대값은 2배 차이가 납니다. 또한 긍정적인 인식도 증가하고 있으나, 부정적인식대비 양적 측면에서는 열위인 것을 보아 딥페이크에 대하여 사람들이 부정적 감정, 인식을 긍정적 인식에 비해 느끼는 경우가 많은 것을 알 수 있습니다.
이렇게 우리에게 딥페이크는 마냥 신기하고 재밌는 기술이 아니게 되었습니다.
이 기술로 인해 우리는 일상을 위협받을 수도 있습니다.
딥페이크 기술을 악용하지 않게끔 할 수는 없을까요? 무슨 방법이 있을까요?
3. 결론
위의 조사를 통해, 해당 딥페이크로 인한 음란물 제작, 허위사실 유포 등의 각종 범죄에 응용한다는 것을 알게 되었습니다. 또한 위의 조사에 나오진 않았지만, 최근 딥페이크 앱들이 크게 성행하고 있고, 일반 사람들도 접근하기 쉬워 범죄로 이어지기도 쉽다는 우려도 듭니다. 음란물 제작의 피사체가 되는 국적은 유튜브에서는 서양인이 90%이상, 케이팝 가수또한 전체 인구 중 1/4을 차지하는 등 딥페이크 포르노가 점점 전세계적으로 일어나고 있다는 것을 알 수 있습니다. 이러한 딥페이크 포르노 피사체의 직업은 거의 대부분이 엔터테인먼트 분야에서 일하는 여배우와 뮤지션이라는 것을 알 수 있습니다. 이러한 딥페이크 기술은 빠른 속도로 기술이 정교해지고 있습니다. 또한 빠르게 확산되고 있죠. 이는 생성적 적대 신경망연구가 증가함과 비례하여 나타나는 것을 알 수 있습니다. GitHub를 통한 오픈 소스 프로그램 배포도 딥페이크 확산에 기여하였습니다. 이렇게 딥페이크 기술이 성장하는데도 불구하고 아직 사람들의 딥페이크에 대한 지식이 적다는 것이 상당히 우려스러운 점인 것 같습니다. 이에 대한 근거로 2022년에 딥페이크 대해 알고 있는 사람이 29%(4,640명)밖에 없다는 점과 전 세계 응답자의 57%는 딥페이크를 알아볼 수 있다고 생각한다고 답했으며 43%는 실제 영상과 딥페이크 영상을 구별할 수 없다고 인정했다는 점이 상당히 우려스럽습니다. 또한 사람들이 딥페이크를 두려워하는 원인들에 관한 설문조사 결과 전세계적으로 딥페이크를 둘러싼 가장 대중적인 두려움은 "내 신원을 도용하여 내 은행 및 기타 계좌에 액세스할 수 있다"라는 것입니다. 응답자의 50%가 해당 옵션을 택하였습니다. 이렇게 일상에 위협을 줄 수도 있는 딥페이크 기술, 저는 위의 다양한 통계자료를 보며, 제가 생각한 해결방안을 한 번 짧게나마 끄적여 보도록 하겠습니다.
해결방안
▼ AI 관련 윤리 및 기초 지식 교육을 통한 올바른 AI사용하기 4차 산업시대로써 기술이 급격히 발달함에 따라, 전세계적으로 AI관련 윤리와 기초 지식을 무조건 배워야한다고 생각합니다. 이는 우리가 앞으로 살아갈 때, 유능한 AI를 올바른 도구로써 사용하고 함께 공존하기 위해 AI 대한 윤리와 기초 지식이 필요하다고 생각합니다. 이는 한 국가에서만 시행하는 것이 아닌 전세계적으로 시행하는 것이 사람들에게 올바른 AI 사용법을 알게끔 해줄 수 있을 것 같습니다.
이를 실행하기 어려운 국가도 있을 수 있고, 교육을 듣는 것에 불만이 있을 수 있을 것 같습니다. 취업할 때 필수 자격증, 증명서 중 하나를 AI윤리 자격증, 증명서로 지정하는 것도 한 가지 방법이 될 것 같습니다.
또한 티비나 교육방송에서 수시로 AI관련 윤리를 방송하고 애니매이션, 만화와 같이 귀엽고 재밌게 해당 지식을 전달하는 것도 한 가지 방법이 되겠습니다.
▼ 딥페이크 판별 기술 강화 딥페이크 제작물인지를 판별할 수 있는 어플 또는 알고리즘을 개발하여, 억울한 일이 일어나지 않게끔 증명할 수 있는 수단을 만드는 것도 방법입니다. 하지만 이 방법은 교수님께서 딥페이크 기술이 업데이트되는 속도가 빠른 반면에 이에 대한 판별기술을 다양한 과정을 거쳐야 하기때문에 만들기 쉽지않다고 하셨습니다. 그래도 앞으로 연구는 계속 놓지 않고 해보아야 되겠다고 생각이 듭니다.
▼ 딥페이크 기술 관련 법률적 제재 사실 악용할 사람들은 법률제재를 무시하고 악용하기 하지만 이는 일반 사람들 등의 쉽게 악용한 사람들에게 악용방지턱이 될 것이라 생각합니다. 법률적 제재의 예시로는 딥페이크 기술을 사용할 때 무조건 이 제작물은 딥페이크로 제작된 영상이라는 것을 명시해야하는 법을 제정하는 것이 있겠습니다.
이 글을 읽고, 여러분들도 딥페이크 기술에 대해 한 번 더 생각해보는 계기가 되었으면 좋겠습니다! 부족하지만 긴 글 읽어주셔서 감사합니다~!