- 자유 주제로 사용할 수 있는 게시판입니다.
- 토론 게시판의 용도를 겸합니다.
Date 2021/02/27 23:11:45
Name 나주꿀
Subject [일반] [번역] 딥페이크, 장난감이라기엔 너무 위험한 (수정됨)

요즘에야 사람들이 딥페이크라는게 뭔지 잘 알지요. 전 이 영상으로 딥페이크라는게 뭔지 처음 알게 됐고
이 기술로 미래에 헐리웃 영화들이 뭘 할 수 있을까를 상상하곤 했습니다. 세상에, 터미네이터와 록키를 바꿔치기 할 수 있다면
미래엔 내가 좋아하는 배우들로만 영화를 만들 수도 있다는 이야기 아니겠습니까?


그러다가 사람들의 관심은 '이런 기술로 정치인들이 하지도 않은 이야기를 했다고 가짜 뉴스를 만들면 어쩌지?' 로 넘어갔죠.
너무 이야기가 심각해질까봐 예시 영상은 러브라이브의 스노우 하레이션을 부르는 트럼프를 가져와봤습니다. 

하지만 현재 딥페이크가 일으키고 있는 가장 큰 문제는 배우의 미스캐스팅도 아니고, 정치인들의 가짜뉴스도 아닙니다.
그게 뭘까요? 아래 영상과 번역에서 말하겠습니다.

-------------------------------------------------------------------------------------------------------------------
이번에도 심심해서 해본 번역입니다. 제 역주 개드립이나 번역에서 강조한 부분은 [빨간색]으로 표시하겠습니다. 
미역, 오역된 부분이나 빠진 부분이 있을 수 있으나 그나마 노력한 번역이니 지적해주실 땐 부드러운 톤으로 부탁드려요.



VOX : [딥페이크의 가장 큰 위협은 정치가 아닙니다]

본인의 딥페이크 영상이 있다는 걸 어떻게 알게 되셨나요?

크리스틴 벨(배우) : 남편이 말해줫죠. 남편친구인 애쉬튼 커쳐가 남편에게 말해줬어요. 
“딥페이크라는게 있는데, 당신 아내것도 있어요”

딥페이크는 기계 학습을 통해 얼굴 모사로 전혀 없었던 일들이 마치 있었던 것처럼 만드는 기술입니다.

그리고 이런 기술이 잘못된 손에 들어갔을 경우에 대해 사람들이 우려하고 있죠.

-국가 안보에 위협이 될 수 있습니다-
-2020년 선거에 영향을 끼칠 수 있습니다-
-민주주의에 가장 심각한 위협이 될 수 있습니다-

[하지만 딥페이크가 끼치는 가장 심각한 위협은 정치가 아닙니다. 포르노죠.]

딥페이크 유저들은 여성의 얼굴을 납치해서 그들의 허락없이 포르노에 집어넣고 있습니다.
이런 종류의 딥페이크가 해로운 이유죠. 사람들이 그게 가짜라고 생각하더라도요.

크리스틴 벨 : 충격을 먹었죠. 제 얼굴이잖아요. 내꺼라고요.

2019년 9월에 있었던 조사에서 딥 트레이스의 연구자들은 [온라인에서 식별할 수 있는 딥페이크 비디오중 96퍼센트가 포르노]라는걸 밝혀냈습니다.

헨리 에즈더(딥 트레이스 연구자) : 거의 모든 딥페이크 영상이 여성의 딥페이크죠, 게다가 동의를 받은적도 없고요.

폰허브와 다른 거대 포르노 스트리밍 사이트들은 딥페이크를 금지하는 정책을 펼치고 있습니다. 그걸 강제하는 것처럼 보이진 않지만요. 대부분 이런 비디오들은 이런 딥페이크를 위한 별도의 사이트들에 올라오고 있습니다.

헨리 에즈더 : 더이상 유명인사만의 문제가 아니에요. 유명인사들이라고 이런 비디오때문에 덜 고통을 받는 것도 아니고요. 
이 현상의 문제점은 그 숫자 자체가 증가하는 것 뿐만 아니라 희생자들의 숫자도 늘어나고 있다는 거에요.

노엘 : 일을 하다가 핸드폰으로 메일을 받았죠, 지금도 그 메일을 가지고 있어요.
5월 25일 4시 18분, “그냥 알아두라고 하는 말이야, 포르노 사이트에 네 딥페이크 비디오가 있어, 진짜 같아.”
그 메일을 받던 순간이 기억나요. 피가 얼어붙는 느낌이죠. 제가 성적인 행동을 하는 걸 묘사하고 있는데 영상 제목에 제 풀네임이 들어가 있었어요, 다른 비디오에선 제가 구강성교를 하고 있었구요. 

노엘씨는 오스트레일리아의 법학 전공생입니다. 유명인사가 아니죠. 
누군가가 그녀가 소셜미디어에 공유한 사진을 누드 사진에 포토샵 한 후 딥페이크 비디오로 만든겁니다.

이런 비디오에서 일어나고 있는건 디지털 조작기술이죠. 여러분이 이전에 써봤을법한 얼굴 바꾸기 필터와는 다른겁니다.
얼굴 바꾸기 앱은 여러분의 얼굴을 친구의 얼굴과 바꿔치기 하지만 여전히 여러분이 조종할 수 있는 얼굴이죠. 얼굴과 표정같은 특징이요.
하지만 딥페이크는 이런 얼굴의 특징만 따서 가져온다음 다른 사람의 표정을 따서 움직일 수 있게 만듭니다.

이런 점이 딥페이크 포르노비디오를 훨씬 침탈적으로 만듭니다. 
딥페이크 제작자가 희생자의 얼굴의 통제권을 뺏어다가 희생자가 원치 않았던 곳에 쓰는 거죠.
누군가의 얼굴 특징을 따오는건 “오토인코더”라는 프로그램을 이용해 
똑같은 얼굴을 다른 각도로 찍은 수백장의 사진을 다른 조명과 다른 표정과 합쳐서 그것들이 가진 공통점을 찾아낼 때까지 학습을 해야합니다.
그렇게 많은 양의 이미지들은 유명인사들에게서 얻어낼 수 있었죠. 하지만 이젠 누구라도 가능합니다.

헨리 에즈더 : 여러분이 소셜미디어를 하지 않더라도 사진 몇장 정도는 인터넷에 올리게 되죠. 여러분이 파티에 갔던 사진같은거요. 거기서 딥페이크 이미지 트레이닝에 쓸 사진을 가져올 수 있어요.

헨리 에즈더 : 그렇다고 하더라도 그럴싸한 딥페이크를 만드려면 많은 데이터가 필요해요. 
하지만 기술이 점차 발전하면서 더 적은 사진으로 이전보다 쉽게 딥페이크를 만들 수 있게 되고 있죠.

실제로 딥페이크에 관한 인프라는 증가추세에 있습니다.

헨리 에즈더 : 그런 사이트에선 비디오를 포스팅 하는 것 뿐 아니라 어떻게 딥페이크를 만들고, 특정인을 어떻게 타게팅 하는지도 논의하죠.

사실 “딥페이크”라는 용어 자체가 유명인사의 얼굴을 포르노 배우들에게 덧씌우는 서브레딧에서 유래했습니다. 
레딧은 그 페이지를 밴했지만 사람들은 다른 사이트로 옮겨갔습니다.

헨리 에즈더 : 그런 사이트에서 “자, 네가 특정 유명인사의 딥페이크를 만들고 싶다고? 그럼 이 포르노 배우가 잘 어울릴거야” 이런 식으로 매칭을 해주죠. 주문제작형 딥페이크를 만들면서 돈을 벌기도 하고요.

딥페이크 유저들은 특정 유명인사나 개인적으로 아는 여성의 딥페이크를 만드는데 돈을 지불합니다[우엑......]. 그리고 이런 행동이 합법인지 아닌지에 대해 이야기하죠. 어떤 유저들은 그 비디오가 가짜라는 문구를 넣음으로써 스스로를 지킬수 있다고 하지만 이는 사실이 아닙니다.

미국에선, 누군가 당신의 얼굴을 따다가 포르노를 만든다면 딥페이크라는걸 명시하든 안하든 상관없이 창작자를 고소할 수 있습니다.
하지만 실제로 그렇게 고소하기는 아주 어려운 일이죠. 비디오가 퍼져나는건 차치하고, 확실하게 처벌이 될지도 확신할수 없고 창작자를 찾아낼 수 있는지도 확실하지 않지만 변호사를 고용해야 하죠.

크리스틴 벨 : 동의에 대한 이런 저런 이야기가 오가죠. 그리고 전 동의하지 않아요. 그래서 안된다는 거에요. “이것은 실제 그녀가 아닙니다” 같은 문구를 넣었다고 하더라도 그런 생각이 들지 않는다는 거에요.

노엘 : 그게 가장 힘든 점이죠. 가짜 포르노와 제 이름은 영원히 연관되어질 테니까요. 제 미래의 아이들과 남편도 그걸 봐야 할 거구요. 그게 절 슬프게 만들어요.

크리스틴 벨 : 전 그냥, 제가 바라는 건 인터넷에서 사람들이 조금 더 책임감을 가지고 조금만 더 친절해졌으면 좋겠어요.

통합규정 1.3 이용안내 인용

"Pgr은 '명문화된 삭제규정'이 반드시 필요하지 않은 분을 환영합니다.
법 없이도 사는 사람, 남에게 상처를 주지 않으면서 같이 이야기 나눌 수 있는 분이면 좋겠습니다."
대박났네
21/02/27 23:20
수정 아이콘
개인적으로 거북이 좋아했지만 일부러 터틀맨 부활?시킨 그 프로그램 쳐다도 안봤습니다
저한텐 감동이 아니라 뭔가 소름으로 다가오더군요
다리기
21/02/27 23:30
수정 아이콘
저는 좋게 봤습니다. 딥페이크든 뭐든 이로운 쪽으로 활용할 가능성이 보이더군요.
악용할 여지도 무수히 많겠지만..
이아무개멍멍
21/02/28 07:29
수정 아이콘
저도 예토전생 실사판이라 거부감부터 들더라구요
21/02/28 09:12
수정 아이콘
저도 좀 그렇더라구요. 이게 과연 감동적인가? 기계가 대체할 수 있는 영역으로 바뀌는 것 뿐인데..
척척석사
21/02/27 23:30
수정 아이콘
지금 그 얘기 가지고 그알 하구있네요 이거 어떻게 막을수가 있기는 한가..
아케이드
21/02/27 23:34
수정 아이콘
딱히 대단한 기술이 필요한 것도 아니고 정말 누구나 마음만 먹으면 할수 있는 거라서 막는게 쉽지 않을 겁니다.
나주꿀
21/02/28 00:00
수정 아이콘
지금 현재기술로는 짤방수준 만드는데도 고화질의 원본 이미지가 많이 필요하고 고성능 컴퓨터가
오랫동안 기계학습을 해야 합니다. 그래도 미래엔 어떻게 기술이 발전할지 모르니 조심할 필요는 있겠죠.
VictoryFood
21/02/27 23:35
수정 아이콘
기술을 막을 수는 없을 것이고 초상권을 넘어서 인격권을 침해한다는 식으로 가는 수 밖에요.
21/02/27 23:36
수정 아이콘
그알,,, 딥페이크... 오프닝부터 소름 끼치네요..
Ko코몬
21/02/27 23:38
수정 아이콘
그알 빌드업이야 뻔하죠
딥페이크 주제 방송한다는 이유도 알패스 논란이 생기니 남자들은 딥페이크로 피해를 주고 있다로 시작하면서
일반인 딥페이크 피해사례 모집을 오래했습니다.
문제는 딥페이크의 기본을 알면 이런 생각을 못할텐데
딥페이크의 기본구조 자체가 머닝러신을 이용하기 때문에 몇초의 딥페이크를 만들기 위해서
영상소스가 몇시간이 필요한데 일반인을 가지고 딥페이크를 만든다는건
딥페이크의 기본구조 자체도 모르는 사람들이었다고 봅니다.
지금 방송중이기겠지만 결론은
무조건 금지해야한다라고 결론지어질거라고 봅니다
21/02/27 23:46
수정 아이콘
본문에 해외 일반인 사례가 있는데...

마치 ‘머닝러신’으로 생성한 댓글 같네요
Ko코몬
21/02/27 23:52
수정 아이콘
유미님이 생각하기로 머닝러신으로 1분짜리 딥페이크를 만드려면
얼마의 영상소스가 필요할것 같습니까?
흔히 알려진 강호동 얼굴로 블록레슬러 딥페이크를 만드려면
얼굴 근육이 전부 움직이는 높은 해상도 영상으로 최소 몇십분짜리가 필요하고
이걸 머닝러신 시키면 최소 하루 이상이 걸립니다.
그걸 일반인으로 영상을 만든다고요?
차라리꽉눌러붙을
21/02/28 00:26
수정 아이콘
강호동 얼굴로 다 학습하는 게 아니고 제너럴하게 학습 해 놓고 사진이나 짧은 동영상 주면 그걸로 만들어 줄 것 같은데요...
21/02/28 00:29
수정 아이콘
그정도 학습하면 너무 조잡해서 보자마자 그냥 가짜라고 알아챌 수 있는데 문제가 될까요? 애초에 딥페이크 위험성은 가짜인지 진짜인지 구분하기 힘들다는 게 문제 아닌가요?
동해원짬뽕밥
21/02/28 00:29
수정 아이콘
유투버 영상으로 딥페이크는 어느정도 가능할수도 있겠네요
그말싫
21/02/28 08:44
수정 아이콘
유투버들은 90퍼 이상의 시간을 죽어라 한 각도만 유지하니 안될거 같네요.
남자 유투버라면 모를까...
21/02/28 01:40
수정 아이콘
Ko코몬님이 ‘Machine Learning’을 잘 아시는 전문가로는 도저히 생각이 안 돼서 그건 그냥 따로 알아볼개요
한강두강세강
21/02/28 12:14
수정 아이콘
메시지를 깔 수 없으니 메신저를 까는 전형적인 댓글이군요.
21/02/28 15:20
수정 아이콘
저는 처음부터 머닝러신만 깠는데요
이 댓글도 약간 러닝머신 같아서 별로네요. 왜 자꾸 저한테 시비세요?
아마추어샌님
21/02/28 15:46
수정 아이콘
음 머신러닝만 깐게 아니라 머신러닝으로 생성한 댓글 같다고 말씀하셨잖아요.
이 발언은 머신러닝을 깐 말이 전혀 아니죠.
댓글쓰신 분에 향해서 하신 말이죠.

만약 지금 위의 댓글도 ko코몬님이 머신러닝이라는 의미로 하신거라면
좀 지나치신 발언 인것 같습니다. 저로서는 알바드립과 뭐가 다른지 모르겠습니다.
21/02/28 16:02
수정 아이콘
머신러닝을 깐 적은 없어요
아마추어샌님
21/02/28 16:08
수정 아이콘
[저는 처음부터 머닝러신만 깠는데요]
라고 말씀하시고 그 다음에
[머신러닝을 깐 적은 없어요]
라고 말씀하시면 어떻게 반응해야 할지 모르겠습니다.
21/02/28 18:51
수정 아이콘
(수정됨) 아마추어샌님 님// 걍 이 상황 전체가 캠릿브지 유우모어 같네요.. 저는 말 바꾼 적이 없는데요 :(

엔간한 상황이면 그냥 찰떡같이 알아들어줘도 좋겠지만 말했다시피 전문가가 틀리게 쓰진 않을 것 같아서요. 그뿐입니다.
한강두강세강
21/02/28 22:04
수정 아이콘
[Ko코몬님이 ‘Machine Learning’을 잘 아시는 전문가로는 도저히 생각이 안 돼서]는 메신저 깐 거 아닌가요? 내용에 문제가 있으니까 지적했는데, [시비]를 건다고 저한테 [시비]를 거시네요.
21/02/28 22:11
수정 아이콘
머신 러닝을 머닝러신으로 계속 적는 사람을 신뢰 못 하겠다는게 ‘전형적인 메신저 공격’인가요? 제 생각이랑 좀 다르네요
한강두강세강
21/02/28 22:49
수정 아이콘
의도했는지 실수인지는 Ko코몬님만 아시겠지만, 그거와 별개로 유미님은 메시지 싹 무시하고 메신저 공격하셨죠.

생각이야 유미님 마음이니 할 말 없습니다.

[저는 처음부터 머닝러신만 깠는데요]라는 문장 자체가 틀렸네요. 유미님은 [머닝러신이라고 말한 Ko코몬님]을 깐 거죠. 메신저를 까셨네요.
모나크모나크
21/03/01 12:37
수정 아이콘
맞춤법 말씀이셨네요. 서로의 의도는 잘 모르겠지만 시작부터가 참 못된 댓글이네요.
21/03/01 13:04
수정 아이콘
모나크모나크 님// 맞춤법이 아니죠.
나주꿀
21/02/27 23:48
수정 아이콘
그알 제작진 노트북에 워마드인가 메갈에서 만든 스티커가 붙어있던 짤은 유명하죠.
Ko코몬님 말씀대로 알페스 이후로 물타기를 위해 만드는 방송이 아닌가 싶습니다
(이글 번역하고 올렸는데 그알에서 딥페이크가 나온건 우연의 산물입니다, TV안본지 몇년 됐는데...)
알페스든 딥페이크든 성적 대상화가 된 본인의 동의가 없는 쓰레기짓인건 동일하니
동일범죄 동일처벌하면 됩니다.
아케이드
21/02/27 23:55
수정 아이콘
그 대상이 남성인가 여성인가에 따라서 대우가 다른듯 하더군요 이유는 모르겠지만...
21/02/27 23:53
수정 아이콘
성형수술 기술도 더 발전할 거고
영상조작 기술도 더 발전할 거고,
물리적인 형태가 내 정체성이라는 개념도 더 희박해지겠지요.
지금의 우리가 옷을 걸치고 다니듯이 얼굴과 목소리도 매일 원하는 걸로 바꿔가며 걸치고 다니게 될지도...
나주꿀
21/02/27 23:56
수정 아이콘
1. 공각기동대중 대사중에 미래엔 디지털 조작기술이 발전해서 디지털 자료는 법적 효력을 잃었다는 대사가 나옵니다. 물론 실제세상에선 저런 딥페이크나 디지털 조작자료를 찾는 AI도 발달하고 있어서 그걸 잡아낸다곤 하는데...

2. 얼굴과 목소리, 성정체성도 옷처럼 갈아입는 시대가 온다면 전 은발 벽안 미소녀로 살아가겠습니다 히히힛
타이팅
21/02/28 09:31
수정 아이콘
변발 미소녀로 읽고 잠깐동안 취향 독특하다 생각했네요
벌점받는사람바보
21/02/27 23:58
수정 아이콘
오히려 온라인의 영상물이 전부 디지털 자료일뿐이라고 생각하게 된다면 상관없지 않나싶기도 하고 ..
Respublica
21/02/28 00:07
수정 아이콘
DeepFake 라는 이름에서... deep은 문제가 없습니다. 그냥 기술일 뿐이죠. 다만, Fake인 것이 문제인 것이죠. 디지털 세계의 데이터는 (그나마 어려웠던 영상 조작마저 가능해지면서) 뭐든지 거짓이 될 수 있는 가능성이 존재하게 되니까요. 디지털 세상에서는 진실을 보증하기가 정말 어려워진다는 것이, 가짜의 세계가(대안현실이) 진짜 세계를 대체하기 더 쉬워지는 것이 진짜 문제입니다.
일반상대성이론
21/02/28 00:20
수정 아이콘
네이버 AI랩 하는거 보면 재밌는 거 많던데
Ko코몬
21/02/28 00:24
수정 아이콘
(수정됨) 그알 보고 왔습니다.
알패스의 반발로 시작된 딥페이크 청원으로 시작된 방송인데
결론은 연예인 딥페이크는 있다 외국에서 주로 만들어진다.
이건 이미 중국에서 만들어지고 있다고 알려져있습니다.
일반인 딥페이크는 과연 있을까라는것은
딥페이크인지 합성사진인지 모호하게 표현합니다.
노출증 성범죄자가 촬영을 했다면서 이걸 딥페이크로 만들었다고 하는데
정확하게 영상을 캡쳐 해서 합성을 한것인지
그 영상으로 딥페이크를 만든것인지 두루뭉실하게 표현하며 방송합니다.
정확하게 다르게 표현해햐하는 이유는
딥페이크-영상소스를 기반으로 머닝러신을 통해서 생성하는것
단순합성-영상을 캡쳐해서 인간이 포토샵과 같은 편집프로그램으로 만든것
이기 때문인데 결론은 이렇게 내립니다.
여성 대상 성범죄 하지마라 근데 같은 시기에 청원 했던 알패스는??
대박났네
21/02/28 00:32
수정 아이콘
저도 지금막 보고 왔는데 뭐랄까 딥페이크는 시늉이고
여자=일방적 피해자 남자=잠재적 가해자
그냥 흔한 남자들 성범죄 현황보고 방송 그이상도 이하도 아닌것 같네요
교묘하게 혐오의 선봉장에 서서 방송하더니
결론은 좋은기술 묻힐까 안타깝다네
딥페이크 관련 취재 분량은 솔직히 커뮤니티 이미 봣던 소개짤 몇개수준입니다
토어사이드(~-_-)~
21/02/28 00:35
수정 아이콘
참 역겨운 인간들이죠
유구한 역사를 자랑하는 알페스야말로 한국 여초사이트들 진지하게 파면
한 3부작은 거뜬히 나올 분량이 나올텐데 절대 안 하겠죠 크크
나주꿀
21/02/28 00:39
수정 아이콘
변태 소설보단 최첨단 얼굴 바꿔치기 기술이 방송쪽에서 더 돈이 되니까요
(플러스 알파로 방송국 작가중에 그런 알페스 관련한 사람이 얼마나 있을지도 궁금해지네요)
나주꿀
21/02/28 00:36
수정 아이콘
알페스 같은거 쓰는 애들이 저런 최첨단 기술에 익숙하지 않아서 그렇지
돈이나 기술 좀 쥐어주면 자기가 좋아하는 남자 아이돌 BL같은걸 딥페이크로 찍어내겠죠.
기술이 문제가 아니라 사람이 문제입니다.
21/02/28 00:30
수정 아이콘
연예인 사진은 금지할 수 있다치고, 개인이 모델링해서 만든 얼굴은 되겠죠? 근데 그게 얼마나 닮으면 안되는 걸까요? 세상엔 비슷한 사람도 많은데..
율리우스 카이사르
21/02/28 00:37
수정 아이콘
근데 여성 포르노 딥페이크 가 물론 심각한 문제긴 하지만.. 전 그래도 정치인이나 사회리더들의 발언이나 증언이 잘못되는게 더 큰일 같아요. ;:: 이제 뭘 믿어야 하나 이런 .. 것도 있고 딥페이크 기술이 정교해질수록 힘있고 권력있는 사람들은 빠져나가기 더 쉬워질듯.
아마추어샌님
21/02/28 00:43
수정 아이콘
(수정됨) 글에 대한 직접적인 의견은 아니고 글알 보고 드는 생각을 적어봅니다.

아직 해외사이트에 몰캠피싱된 연예인분들 영상이 돌아다니는 걸로 알고있습니다.
또한 유명 해외 포르노 사이트에는 일반인 피해자분들 영상을 손쉽게 볼 수 있습니다.
이일이 시작된지는 딥페이크에 비해 훨씬 오래됬으며 심각한 사건인데 사회적으로도 관심이 없고
그알팀도 크게 신경을 안쓰는걸로 보이네요.

개인적으로 이러한 일에 대해 이야기를 하면 피해자의 행실에 대한 비난을 하는 경우를 많이 보는데,
또 그러한 분들 중 적지 않은 분들은 N번방 이야기에 대해서는 분개 하시는 분들이 많았습니다.
그러면서 딥페이크에는 엄청 분개할 것 같다는 저의 뇌피셜을 붙여 봅니다

그알이 사회적 심각성 순서대로 사건을 다루어야 하는건 아니지만, 그렇다고 알페스에 대한 반발로 이슈가되고
그와 연계되어 방송이 나오는걸로 생각이 되서 거부감이 드네요. 그알이 이전에 몰캠피싱을 다루지 않았던것 같은데..
(구글 검색했을 때 나오는 것이 없네요)

이에 관련된 기사들 조금씩 찾아 보았는데
https://www.mk.co.kr/news/society/view/2016/04/297612/
5년전 기사이고 320명으로 부터 5억을 뜯어냈다는 내용입니다.
https://newsis.com/view/?id=NISX20210218_0001343579
511명에게 22억 뜯었다고 합니다(일주일전 기사) 5개조직 45명. 이는 경기 남부청에서의 1년 통계입니다.
이곳에서 전담을 한다고 해도 누적 몇천명은 되겠지요.
https://www.sedaily.com/NewsVIew/1Z5EHH4JJU
이 기사에서는 관련 보안(?)업계의 기사인데 연간 피해자수 추정을 만명으로 보고 있네요.

기사 검색을 계속하니 좀 화나네요. 이렇게 피해자가 많은데 왜 이슈가 안되고 있는걸까요.
그리고 이러한 상황에서 딥페이크가 그알을 탄다고 하니 개인적으로 생각이 볶잡해지지 않을 수가 없네요.

요즘 성범죄에 대해서 피해자의 행실에 대해 비난은 자제하는 분위기 인것 같지만
남성에 대해서는 그게 적용이 안되는 건가 그런 생각이 드네요.
그리고 이러한 모든 상황 때문에 성관련 해선 기울어진 운동장 아닌가 라는 생각이 듭니다.



이와 별개로 글 잘 읽었습니다.
영어가 저에게는 어려운 일인데
번역 덕분에 도움된것 같습니다!!
양파폭탄
21/02/28 01:59
수정 아이콘
기술이야 중립적인 것이라 기술을 막는다는건 불가능한 것이고,
악의적 사용을 막을 수 있냐는 것인데 미국에서 아동포르노 잡아족치는 수준까지야 가능하겠지만 거기서 더 숨는 단계라면 흠 이걸 뭔 수로 막을까요
영상물은 어떠한 증거도 갖지 못하게 되고 실물만이 신뢰받는 세상이 오겠군요.
포르노로 인한 여성들이 겪는 문제들은 뭐랄까 전 인류의 인식변화로 내가 딥페이크 포르노 주인공이 될 정도로 아름다운가봐 수준이 되지 않는 이상....
모나드
21/02/28 08:04
수정 아이콘
딥페이크 제일 좋아할 사람들이 알페스 쓰는 사람들 아닐까요?
어떻게 하는지만 배우고 나면 풀영상으론 안 만들어도 중간중간 일러나 숏클립으로 만들 것 같은데
박보검
21/02/28 08:44
수정 아이콘
그알 빠는 인간들이 많으니 방송도 뭐같이 만드네
그말싫
21/02/28 08:48
수정 아이콘
몰카 찾는다고 수억들였는데 하나도 못 찾았다는 사업이 떠오르네요.
일반인으로 무슨 딥페이크가 가능합니까, 그냥 영상에 사진 몇개 따라 움직이게 붙여놓는, 15년전 임요벙, 광민 이딴 움짤 시절 무언가는 만들 수 있겠죠.
21/02/28 09:08
수정 아이콘
(수정됨) 기술적용이 갈수록 쉬워질거기 때문에 갈수록 막기는 힘들어질것 같네요
Quantum21
21/02/28 10:20
수정 아이콘
단순히 기술적으로 금지가 가능한가 아니냐의 문제가 아닌 것 같습니다.

이를테면, 지금이야 초보적인 얼굴바꾸기 필터 뿐이지만, 실제 인물로 실시간방송중 얼굴 치환의 퀄리티가 구별어려운 시점까지 올거라는것도 분명합니다.
또 일전에 디즈니 캐릭터를 딥페이크로 다른 영상물과 합성한 걸 본 적이 있는데 상당한 퀄리티였습니다.

온갖 창의적인 상황이 발생할 것은 분명하고요.
금지는 기술의 문제보다 그에 관한 법리의 문제가 훨씬 더 어려운 문제라고 생각합니다.
Parh of exile
21/02/28 10:28
수정 아이콘
피해사럐가 엄연히 존재하는데 대체 뭔...
-안군-
21/02/28 11:03
수정 아이콘
그알 건은, 미지에 대한 공포가 만들어낸 촌극이죠. 태생이 오컬트방송이었던 본색을 드러내네요.

인공지능이 이세돌을 바둑으로 이겼대 => 와 이제 인공지능이 인류를 지배하게 되는거야?
딥페이크로 포르노영상에 연예인 얼굴을 합성할수 있대 => 와 그럼 우리회사 여직원 사진 한장 있으면 포르노에 합성이 되는거야?

뭐, 둘다 가능할 수도 있겠죠. 그런데 지금은 아닙니다.
Extremism
21/02/28 13:50
수정 아이콘
게이 동영상에 남자 아이돌 얼굴로 딥페이크 영상 찍어내면 노다지겠네요. 그 분들 말대로면 암묵적으로 합의된 아이돌 팬덤 문화라 잡혀갈 일도 없을거에요
셧더도어
21/03/01 17:04
수정 아이콘
여가부 인증 건전한 팬덤문화 크크크
Sardaukar
21/02/28 14:21
수정 아이콘
트럼프나 연예인이야 여러 각도의 수백 수천장 사진이 있어서 자연스럽게 만들 수 있겠다는 생각은 드는데

일반인 사진 한장으로 여러 각도의 얼굴 사진을 만들 수 있게 데이터가 쌓였다니 좀 무섭네요.

하긴 sns에서 자료 가져다가 계속 학습시키면 가능하겠다 싶음
21/02/28 15:42
수정 아이콘
웃긴 분들 몇명 계시네요.
선동과 날조에 쉽게 당하실분들
21/02/28 21:44
수정 아이콘
https://www.donga.com/news/Society/article/all/20210225/105611252/2
https://www.edaily.co.kr/news/read?newsId=01079126625732184&mediaCodeNo=258
https://www.technologyreview.kr/deepfake-revenge-porn-coming-ban/
딥페이크로 실제 피해받는 사람들이 있는데 이에 대한 공포를 미지에 의한 것이라 말하기엔 조금 그렇지 않나 싶습니다. 그리고 이런 딥페이크의 피해자의 1/4은 한국 케이팝 스타라는 과거 조사도 있었네요(https://news.joins.com/article/23599737).
아마추어샌님
21/03/01 14:12
수정 아이콘
딥페이크 영상이 없는가 하면 그렇지 않겠죠. 당장 알페스로 시끄러웠고 딥페이크가 갑자기 이슈가 된 그때 손흥민 선수를 게이 포르노에 합성한 사진이 돌고 있었으니. 그것 말고도 몇 년전 미국/영국 배우들 얼굴 합성해서 돌던일도 있으니 영상이 없는 건 아니죠. 기사에서 말한 KPOP여자 연예인들도(물론 남자연예인들도 있을 것입니다.) 피해자 분들 어느정도 있겠지요.
조롱 용도로 저스틴비버 얼굴 온갖 곳에 합성되던 것도 얼핏 지나가네요.아! 이분은 누가 파파라치로 실제 노출사진도 공개가 되셨지.

여기 글 댓글 읽어보면 기술적인 난이도가 있고 그게 인터넷에 올라온 사진 한 장 이나 몇 장 으로는 어렵다는 이야기고 그걸 기반으로 일상적으로 확대되기는 힘들다는 내용으로 생각됩니다. 그리고 첨부하신 기사내용에 따르면 [다양한 각도의 사진 250장]이 필요하니 일반인이 쉽게 타켓으로 되긴 어렵겠죠. 저게 최소 수준인듯 싶네요. 이런 내용을 통해 일반인이 사건의 피해자가 되기 어렵다는 이야기이고, 그렇기에 그알 초반에 나왔던 일반인 피해자분들은 많은 SNS활동을 통해 자료 수집이 가능했던 분들이 아니었나 싶네요. (저는 보다가 꺼서 전반적인 내용을 모릅니다.)

피해자가가 있다고 해도, 그게 숫자가 적거나 조건이 어려우면 미지의 공포의 단계라고는 할 수 있지 않을까 싶습니다. 우리나라에선 매일 매일 사람이 살인사건으로 죽는다. 이렇게 말할수도 있지만 한편으론 살인으로 죽을 확률이 매우 낮다라는 식으로도 말을 할 수 있죠. 현실적으로 살인 당할 공포로 살 필요가 있는지 의문스럽네요.

하지만 그건 제 생각이고 이걸 미지의 공포가 아닌 현실적인 공포라고 보시는 분도 계시겠죠. 그걸 인정한다고 보면 그보다 너무나도 피해자 수가 많은 몸캠피싱으로 인한 공포는 더 큰 현실적인 공포로 느껴져야 하지 않을까 싶습니다. 사건 건수도 매우 높고, 이게 잘못 걸리면 전 세계적으로 공유가 되어버리니.

그알이 조금 더 먼저 이슈된 알페스도 같이 디지털 성범죄란 카테고리에 넣어 다루었으면 지지를 많이 받았을지도 모르겠습니다. 그리고 그걸 패스하고 딥페이크만 다룬 시점에서 그알이 편향성을 드러낸것이며 그로인해 좀더 비판적인 말이 나오게 되는거 아닌가 싶네요.
21/03/02 00:50
수정 아이콘
중요한 건 이미 피해자가 있고 딥페이크 규모는 커지고 있으며 한국 여성 피해자 비중이 매우 높다는 것이죠. 굳이 다른 문제들을 이야기하고 비교하며 이 사안의 심각성을 낮게 볼 필요는 전혀 없어 보입니다.
아마추어샌님
21/03/02 01:57
수정 아이콘
(수정됨) 한쪽 성별의 문제를 외면만 한다면 비교를 하고 어떤지에 대한 판단은 내려져야죠.
동시에 이슈된 알페스에 대해 다루지 않고 이렇게 방영된 상황에선 더더욱요.
사실 동시에 라는 말도 우스운 말이고 성범죄를 덮기위한 용도에 가까웠는데..
이 사안을 어떻게 건조하게 볼수가 있을지...모르겠습니다.

이러한 이야기가 딥페이크 피해 입는 사람들 별거 아니다 이런식의 주장을 하려는게 아닙니다.
지금 이러한 방식으로 의제가 선정하는 것이 과연 공정한가 입니다.

알페스가 논란이 되고 이에 대해서 성착취에 대해 물타기하려는 시도라는 발언들이 나오고
남초사이트에서 알패스 청원을 하니
여초사이트에서 딥페이크 청원을 하고,
그의 연장선에서 그알에서 딥페이크만 다루어 방영을 하는 이 모든 상황이
저에게는 말이 안되는 상황으로 밖에 보이지 않거든요.

딥페이크든 몸캠이든 알패스든 피해자는 피해자이고 가해자는 가해자이고 그렇게 일이 끝나면 좋겠습니다만.
어디는 피해자가 안되고 어디는 피해자가 되고 누구는 가해자가 아니며 누구는 가해자가 되는 상황이라
결국 비교를 할 수 밖에 없게 되는거 아닌가 싶네요.

이러한 맥락을 다 지우고, 이런 일련의 과정을 다 지운다면,
저도 딥페이크 피해자가 심각해지고 피해가 커진다. 새로운 문제가 떠오른다 이렇게 말을 할 수 있겠지요.
21/03/02 12:49
수정 아이콘
그런 관점이라면 애초에 제게 댓글을 잘못 다셨고, 앞에 다신 댓글과는 포인트도 조금 다르게 느껴집니다. 이 문제가 실재하지 않는다는 뉘앙스의 댓글들이 앞에 있으니 저는 이 문제를 무슨 잘 몰라서 생기는 공포로 치부하기엔 어렵다는 정도의 내용 정도의 댓글만 남긴 거거든요.
태정태세비욘세
21/03/01 09:23
수정 아이콘
오해와 선동을 막기 위해서라도
간단한 코딩과 머신러닝 교육은 이뤄져야할듯..
21/03/02 10:28
수정 아이콘
저는 그래서 sns에 자기 얼굴 올리지 말라고 얘기 많이 합니다.
그래서 카톡 멀티프로필 기능도 아주 환영하고 있구요.
주변에 또라이 하나만 있어도 사진 가져다가 무슨 짓을 할지 모르는 현실이라...
목록 삭게로! 맨위로
번호 제목 이름 날짜 조회 추천
공지 [정치] [공지] 정치카테고리 운영 규칙을 변경합니다. -허들 적용 완료] [122] 오호 20/12/30 61189 0
공지 [일반] 자유게시판 글 작성시의 표현 사용에 대해 다시 공지드립니다. [14] empty 19/02/25 174272 6
공지 [일반] [필독] 성인 정보를 포함하는 글에 대한 공지입니다 [50] OrBef 16/05/03 310633 26
공지 [일반] 통합 규정(2019.11.8. 개정) [2] jjohny=쿠마 19/11/08 145359 1
91310 [일반] 여유증 입문하기 좋은 유튜브 채널 모음.zip [1] 데스티네이션380 21/04/13 380 0
91309 [일반] 가입인사 드립니다 :) [6] 어즈버208 21/04/13 208 1
91308 [일반] [박가네] 후쿠시마 원전 오염수 방출 결정의 일본 현지와 해외 반응은? [3] 아롱이다롱이531 21/04/13 531 0
91307 [일반] [역사] 19세기 말 일본인이 본 조선의 정세 [2] aurelius305 21/04/13 305 3
91306 [일반] 브레이브 걸스 - 롤린 올립니다~~크크크 [6] 포졸작곡가1825 21/04/13 1825 9
91305 [일반] 미 국무부에서 일본의 원전 오염수 방류를 지지하다(?) [55] rclay5141 21/04/13 5141 1
91304 [일반] [13] EP04. 여기는 자갈치 시장인가 갠지스 강인가. 인도 배낭여행기 [9] 우리고장해남1651 21/04/13 1651 19
91303 [일반] [13]별거 없는 여행. [2] 풀잎536 21/04/13 536 1
91302 [일반] 가끔은 소름이 돋는 서태지의 곡들 - (2) [17] 라울리스타2343 21/04/13 2343 7
91301 [일반] 이븐 할둔은 누구인가? [15] 이븐할둔2443 21/04/13 2443 27
91300 [일반] 이제 밖에서 아이유, 제니 볼수없습니다. [151] 추천12154 21/04/12 12154 4
91299 수정잠금 댓글잠금 [일반] 종특에 대해서. [45] 움하하5868 21/04/12 5868 6
91298 [일반] 42년 된 압구정 현대 아파트 80억은 합리적이다. [50] 암스테르담7746 21/04/12 7746 8
91297 [일반] 미얀마 군경, '80명 사망 바고 학살' 뒤, '시신 매매'에 '장기 탈취' 의혹까지 [50] 노하와이5158 21/04/12 5158 0
91296 [일반] 피지알 탈출 대작전 - 실패 [45] 휘군5199 21/04/12 5199 23
91295 [일반] [13]속리산 국립공원 (국립공원 스탬프 투어 2) +대둔산 [10] 영혼의공원1127 21/04/12 1127 4
91294 [일반] 심각한 젠더갭이 있으나 항상 무시되는것 - 양성 건강격차에 대한 이야기 [95] metaljet7515 21/04/12 7515 81
91293 [일반] 피자 타이거 스파게티 드래곤 재미있게 읽으셨던 분 계실까요? [21] Aiurr2047 21/04/12 2047 1
91292 [일반] 13차 글쓰기 이벤트 공지 드립니다.(주제:여행) [7] clover5718 21/03/15 5718 7
목록 이전 다음
댓글

+ : 최근 1시간내에 달린 댓글
+ : 최근 2시간내에 달린 댓글
맨 위로