기술

인공 지능 (AI) 덕분에 가짜 사실적인 얼굴이 인터넷을 장악했습니다.

Nvidia는 사람 대신 디지털 아바타를 사용할 계획입니다.

SeaGraph 행사에서 Nvidia는 Metaverse에 대해 구상하는 미래를 제시했습니다. 예상대로 Nvidia는 컨퍼런스에서 비주얼에 많은 신경을 썼고, 무대 위 사람들의 말 속에 Read more

멸종 된 병원체는 고대 문명을 파괴의 심연으로 가져 왔습니다.

수천 년 전 동부 지중해에서 여러 청동기 시대 문명이 거의 동시에 쇠퇴했습니다. 고대 이집트의 고대 왕국과 아카드 제국이 모두 무너지고 Read more

정통 잡지 더 타임즈 2022년 3월(1400년 3월과 1401년 4월), 루바 두젠코 현재의 위급한 상황에서 이 나라 주민들의 삶을 묘사하기 위해 출판되었습니다. Times 기사는 Luba Dozhenko가 저널리즘을 공부했고 영어를 잘하지 못했으며 러시아 군사 작전이 시작된 후 무기를 들기로 결정했다고 주장했습니다.

Digital Trends에 따르면 Luba Duzhenko는 실존 인물이 아니며 Times 기사가 게시된 직후 사이트에서 삭제되었습니다. Dozhenko는 러시아와 우크라이나의 경계선에 초점을 맞춰 트위터에서 주목을 받은 가짜 온라인 인물로 많은 팔로워를 유치했습니다.

Dojenko의 계정은 2022년 3월 이전에 어떤 트윗도 게시하지 않았습니다. 또한 그 이전에 해당 계정은 다른 사용자 이름을 사용했습니다. 또한 Luba Duzhenko의 계정이 우크라이나 상황에 대해 게시한 트윗은 실제 사람들 계정의 트윗에서 복사했습니다. 아마도 이 트윗으로 인해 Times 잡지의 관심이 Luba Duzhenko의 계정으로 옮겨졌을 것입니다.

처음에는 거의 모든 사람들이 Duzhenko가 실제 사람이라고 생각했지만 이 사람이 가짜라는 가장 큰 증거는 바로 모든 사람의 눈 앞에 있는 프로필 사진이었습니다.

가짜 트위터 사용자 Luba Duzhenko

Luba Dujenko의 프로필 사진의 일부에서 그녀의 머리카락의 일부가 머리에서 분리되어 있음이 분명히 이해되었습니다. 또한 조사 결과 사진에서 일부 속눈썹이 선명하지 않았으며, 무엇보다 사진 액자 가운데 눈이 부자연스럽게 보였다.

이 모든 증거는 우리가 인공 지능 기반 알고리즘에 의해 생성된 이미지에 직면하고 있음을 보여줍니다.

수천 장의 사진을 결합하여 인공 지능은 외부에 존재하지 않는 얼굴을 만듭니다.

Luba Duzhenko의 얼굴은 딥페이크 콘텐츠를 만드는 기술로 만들어졌습니다. 딥페이크(Deepfake)는 새로운 기술은 아니지만 최근 몇 년간 기술의 발전으로 많은 주목을 받고 있다.

Deepfake를 사용하면 비디오에서 한 사람의 얼굴 이미지를 다른 사람의 얼굴 위에 배치할 수 있습니다. 딥페이크 콘텐츠는 매우 위험할 수 있습니다. 분석가들은 이익을 취하는 사람들이 딥페이크를 사용하여 세계 지도자들의 거짓 연설을 만들고 정치적 문제를 일으킬 수 있다고 반복해서 경고했습니다. Deepfaking은 또한 포르노 콘텐츠를 생성할 가능성이 있기 때문에 사람들의 평판을 가지고 노는 우려스러운 기술입니다. 얼마 전 딥페이크 동영상 톰 크루즈유명한 할리우드 배우가 Tik Tok 소셜 네트워크에 뉴스를 만들었습니다.

딥페이크 기반 알고리즘에 실제 사람의 수억 장의 사진을 제공하면 이러한 알고리즘이 더 정확해지고 Luba Duzhenko의 프로필 사진에서 본 것과 같은 이미지를 생성할 수 있습니다. 딥 페이크 콘텐츠는 허위 정보를 처리하는 것을 매우 어렵게 만듭니다.

비현실적인 얼굴의 군대

최근 몇 년 동안 소셜 네트워크는 일반적으로 프로필 사진이 없는 가짜 사용자 계정과 트롤을 처리하는 데 더욱 공격적이 되었습니다. 동시에 스팸 콘텐츠를 생산하려는 이윤을 추구하는 사람들은 인공 지능 덕분에 강력하고 가치 있는 도구를 갖추고 있습니다. 딥페이크 알고리즘의 도움으로 이 사람들은 놀라울 정도로 실제처럼 보이는 이미지를 만듭니다.

이전에 트롤은 실제 사람의 사진을 사용자 계정에 올려놓고 일련의 작업을 수행하여 사진의 원래 소유자를 찾아 사용자 계정이 가짜임을 알 수 있었지만 이를 위해 수행하는 것은 거의 불가능했습니다. 인공 지능으로 만든 그림이 신선하고 독특하기 때문입니다.

대부분의 사람들은 사진을 자세히 보면 그것이 진짜가 아니라는 것을 알아차리지도 못합니다. 그 이유는 인공 지능이 최근 몇 년 동안 많은 발전을 보였고 사실적인 이미지를 만드는 데 매우 정확하기 때문입니다.

의사 소피 나이팅게일영국 랭커스터대 심리학과 교수는 인공지능이 만든 얼굴의 비현실성을 사람들이 인식할 확률은 50%에 불과하다고 말했다. 그에 따르면 많은 사람들은 얼핏 보면 인공지능 기반의 얼굴이 실제 얼굴보다 더 믿을만해 보인다고 생각한다.

나이팅게일 박사는 Photoshop 또는 CGI는 가짜 콘텐츠를 생성하는 도구에 액세스할 수 있는 경우 이 기술을 악용할 수 있습니다. 이 심리학 교수는 부정적인 목표를 가진 딥페이크 알고리즘을 사용하는 것이 이전 기술에 비해 더 큰 위협이라고 주장합니다.

인공 지능 가짜 행복한 남녀 얼굴

FFHQ 데이터 세트의 이미지와 StyleGAN2는 거의 구별할 수 없는 이미지를 생성했습니다.

야신 멕다드가짜 얼굴을 인식하는 95.2%의 정확도로 모델을 설계할 수 있었던 미국 플로리다 대학의 이탈리아 사이버 보안 연구원은 인공 지능이 생성한 이미지를 실제처럼 만드는 것은 그것을 생성하는 데 사용되는 도구라고 말합니다. .

Mekdad에 따르면 적대적 생성 네트워크 또는 더 나은 방법으로 이러한 이미지를 생성하는 데 사용되는 생성적 적대 네트워크(GAN)는 이미지의 최종 품질을 개선하기 위해 서로 반대되는 두 개의 신경 네트워크를 사용합니다. . 이러한 네트워크 중 하나(G 또는 Generator)는 가짜 이미지를 생성하고 다른 네트워크를 속이는 책임이 있습니다. 두 번째 네트워크(D 또는 판별자)는 G 네트워크의 결과를 인식하고 실제 얼굴과 분리하는 방법을 학습합니다. 네트워크 G와 네트워크 D 사이의 “이 제로섬 게임”을 통해 Deepfake 도구는 “인식할 수 없는 이미지”를 생성할 수 있다고 Yasine Mekdad는 말합니다.

인공 지능이 만든 얼굴이 엄청난 속도로 인터넷을 장악했습니다. Luba Duzhenko의 트위터 계정은 수십 명의 실제 사람들의 이미지를 결합하여 최종 이미지를 만들었습니다. Deepfake 알고리즘은 최근 더 우려스러운 캠페인에서도 사용되었으며 이는 경보를 울립니다.

관련 기사:

2020년 구글은 인공지능 윤리학 분야의 연구원으로 템나이트 개브로 Gebro가 Google 알고리즘의 편향을 보여주는 기사를 게시했기 때문에 해고되었습니다. Timnit Gebro가 Google에서 해고된 직후 AI가 생성한 얼굴을 프로필 사진에 사용한 여러 트위터 계정 그들은 한 번에 나타났습니다. 그리고 그들은 Gabru를 파괴하기 시작했습니다. 이 사용자 계정은 Google 인공 지능 연구 팀의 전 구성원이라고 주장하며 Gebro를 지원한 모든 사용자를 공격했습니다. 중국과 같은 국가에서도 소셜 네트워크에서 정부 내러티브를 홍보하기 위해 유사한 조치를 취했습니다.

아무렇게나 트위터를 확인하면 가짜 얼굴을 사용하는 계정을 찾는 데 오랜 시간이 걸리지 않을 것입니다. 백신과 같은 논란의 여지가 있는 주제에 대해 트윗하는 많은 계정의 관리자는 AI가 생성한 얼굴 뒤에 숨습니다.

트위터와 페이스북은 이러한 스팸 계정에 대해 강력히 반대하며 적발 시 즉시 삭제하겠습니다. 트위터조차 매일 백만 개 이상의 스팸 계정을 차단한다고 주장합니다. 이러한 소셜 네트워크에는 가짜 얼굴을 사용하는 트롤을 처리할 수 있는 프레임워크가 없지만 Twitter는 사용자 가이드라인에서 “다른 사람을 속이거나 가짜 신원을 사용자 경험에 영향을 미칩니다.” 다른 사람에게 부정적인 영향을 미치는 것은 금지되어 있습니다.

이름의 인공 지능 회사 Sensity는 인기 있는 소셜 미디어 사용자의 0.2~0.7%가 컴퓨터 생성 이미지를 사용하는 것으로 추정합니다. 이 숫자는 얼핏 보기에는 그리 크지 않아 보이지만 페이스북, 인스타그램, 트위터는 각각 29억, 14억, 3억 명의 사용자를 보유하고 있으며 그 중 일부라도 수백만 개의 사용자 계정에 해당한다는 사실을 잊지 마십시오. 이러한 계정은 허위 정보를 유포하는 캠페인에 참여할 수 있습니다.

가짜 얼굴을 감지할 수 있는 Chrome 브라우저 확장 프로그램의 제조업체가 Sensity의 주장을 확인했습니다. 알베르토 리졸리V7 Labs의 CEO는 사람들이 온라인에 업로드하는 이미지의 평균 1%가 가짜라고 말합니다.

가짜 얼굴 시장

인공지능 AI로 만든 가짜 얼굴 시장

소셜 네트워크에서 가짜 얼굴이 확산되는 데 기여한 요인 중 하나는 그러한 얼굴에 쉽게 액세스할 수 있다는 것입니다. 생성된 사진과 같은 플랫폼에서는 누구나 단 몇 달러에 수십만 개의 고품질 비현실적인 얼굴에 액세스할 수 있습니다. 반면에 명예 훼손 캠페인과 같은 단기 목적으로 가짜 이미지가 몇 개 필요하고 돈을 쓰고 싶지 않은 사람들은 thispersondoesnotexist.com과 같은 웹사이트를 방문할 수 있습니다. 이 웹사이트를 로드할 때마다 완전히 새로운 가짜 이미지가 생성됩니다.

이와 같은 웹사이트는 다음과 같은 사람들을 위해 생계를 유지하고 있습니다. 벤자민 스트릭 훨씬 더 도전적입니다. Strick은 영국 정보 복원력 센터(Center for Information Resilience)의 연구 책임자이며 그의 팀 구성원은 온라인에서 사기성 콘텐츠를 가로채고 분석하는 데 매일 몇 시간을 보냅니다.

벤자민 스트릭(Benjamin Strick)은 “자동 생성 기술을 가짜 얼굴을 가진 프로필 세트에 주입하고 가짜 스타트업의 회원으로 가장하면 온라인에서 소셜 엔지니어링을 수행할 수 있고 매우 기만적인 행동을 할 수 있습니다”라고 말합니다.

인공 지능 기반 기술은 많은 가치 있는 서비스의 기반입니다.

에반 브라운, 플랫폼 생성된 사진의 설립자는 우리가 이것을 완전히 부정적인 방식으로 보아서는 안 된다고 말합니다. 그는 이미지가 GAN은 또한 매우 긍정적인 용도를 가지고 있습니다. 예를 들어 Google 지도 스트리트 뷰에서 얼굴을 익명화하고 비디오 게임에서 가상 세계를 시뮬레이션합니다. 그는 자신이 관리하는 플랫폼이 이러한 목적으로 가짜 이미지 사용을 조장한다고 말합니다.

Brown은 Generated Photos의 특수 방어 기능이 이익을 보는 사람들을 막고 악의적인 활동을 감지할 수 있기를 희망한다고 말했습니다. Brown은 소셜 네트워크가 결국에는 AI가 생성한 사진을 실제 사진과 구별할 수 있을 것이라고 예측합니다.

물론 인공지능 기반의 생산기술을 규제하는 것은 어려운 일이다. 이러한 기술은 많은 가치 있는 서비스의 기초이기 때문입니다. 이러한 기술의 응용 프로그램 중 하나는 장면의 조명을 지능적으로 조정하는 새로운 Snapchat 및 Zoom 필터입니다.

조르지오 파트리니Sensity의 CEO는 생성된 사진과 같은 서비스를 차단해도 AI 생성 얼굴의 확산을 막을 수는 없다고 말했습니다. 그는 다양한 플랫폼이 이러한 유형의 이미지를 처리하기 위해 새로운 접근 방식을 채택해야 한다고 믿습니다.

Graphika의 연구 이사 (소셜 네트워크 분석 분야에서 활동)는 플랫폼이 완고하고 심각 할 때까지 가짜 콘텐츠를 사용하면 정부 기관과 언론에 대한 사람들의 신뢰가 줄어들 것이라고 말합니다. 그는 이러한 기술 남용에 맞서기 위해서는 교육 시스템이 시작되어야 하고 사람들에게 뉴스 출처의 신뢰성을 확인하는 방법을 가르쳐야 한다고 말합니다.

온라인에서 가짜 얼굴을 식별하는 방법?

다행히 AI가 생성한 얼굴을 인식할 수 있는 신뢰할 수 있는 방법이 있습니다. 기억해야 할 중요한 점은 이러한 이미지는 단순히 수천 장의 사진을 결합하여 생성된다는 것입니다. 따라서 최종 이미지가 사실적으로 보이지만 자세히 보면 이미지에서 이상한 점을 발견할 수 있습니다.

귀 모양이나 귀걸이조차도 서로 일치하지 않거나 그림 전체에 머리카락이 있을 수 있습니다. 안경테도 이상하게 보일 수 있습니다. 다른 것에 주의를 기울이면 이미지에서 비정상적인 점을 찾을 수도 있습니다.

가장 눈에 띄는 특징은 인공지능이 만들어내는 대부분의 이미지에서 사람의 눈이 화면 중앙이라는 고정된 위치에 고정된다는 점이다. 아래 동영상을 시청하여 알아보세요.

인공 지능으로 만든 이미지에서 사람의 눈의 위치는 일반적으로 고정되어 이미지의 중앙에 표시됩니다.

소피 나이팅게일 박사는 AI 생성 이미지가 제기하는 가장 큰 위협은 허위 콘텐츠를 조장하는 것이라고 말합니다. 특정 주제에 대한 콘텐츠가 많을수록 사람들이 해당 주제를 가짜로 간주할 가능성이 줄어듭니다.

나이팅게일 박사는 “우리 사회와 민주주의는 우리 주변 세계의 기본적인 진리에 대해 추론하지 못한다면 심각한 위험에 처할 수 있습니다.”라고 말합니다.

Related Articles

답글 남기기

이메일 주소는 공개되지 않습니다.

Back to top button