주제에 대한 기사를 찾고 있습니까 “딥 페이크 악용 사례“? 웹사이트에서 이 주제에 대한 전체 정보를 제공합니다 https://c2.chewathai27.com/ 탐색에서: https://c2.chewathai27.com//blog. 바로 아래에서 이 주제에 대한 자세한 답변을 찾을 수 있습니다. 찾고 있는 주제를 더 잘 이해하려면 끝까지 읽으십시오. 더 많은 관련 검색어: 딥 페이크 악용 사례 연예인 딥페이크 악용 사례, 딥페이크 범죄 사례, 딥페이크 사례, 딥페이크 문제점, 딥페이크 긍정적 사례, 딥페이크 해결방안, 딥페이크 알고리즘, 딥페이크 방지법
영국의 한 배우를 합성한 성인용 딥페이크 영상물이 257개가 유포되고, 조회 수가 580만 회를 넘긴 사례도 있다. 불법 제작된 딥페이크 성인용 콘텐츠 제작 방지 방안을 마련하는 일이 시급하다고 볼 수 있다. 가짜 뉴스도 심각한 딥페이크 악용 사례이다.
딥페이크 기술의 빛과 그림자
- Source: www.kca.kr
- Views: 1975
- Publish date: 3 hours ago
- Downloads: 36921
- Likes: 8191
- Dislikes: 6
- Title Website: 딥페이크 기술의 빛과 그림자
- Description Website:
- Source: Youtube
- Views: 29405
- Date: 40 minute ago
- Download: 85245
- Likes: 7035
- Dislikes: 9
딥페이크 악용사례에 대한 법률적 대응방안
16 thg 9, 2021 — 일단 딥페이크를 편집, 합성, 가공하면 5년 이하의 징역으로 처벌된다. 다만 모든 딥페이크 제작 행위를 처벌하는 것은 아니고 성적 욕망 또는 수치심을 …
- Source: www.nepla.net
- Views: 17082
- Publish date: 9 minute ago
- Downloads: 35496
- Likes: 7046
- Dislikes: 8
- Title Website: 딥페이크 악용사례에 대한 법률적 대응방안
- Description Website: 16 thg 9, 2021 — 일단 딥페이크를 편집, 합성, 가공하면 5년 이하의 징역으로 처벌된다. 다만 모든 딥페이크 제작 행위를 처벌하는 것은 아니고 성적 욕망 또는 수치심을 …
당신은 진짜와 가짜를 구분할 수 있나요? [사건사고]
- Source: Youtube
- Views: 69182
- Date: 24 hours ago
- Download: 11917
- Likes: 7172
- Dislikes: 1
“딥페이크, 사회·국가적 혼란 초래 우려…AI로 AI 악용 막아야 …
보고서에 따르면 GAN은 본래 실제와 가상의 이미지를 더 정밀하게 구별해 구현하기 위한 기술로 개발됐다. 영상이나 이미지를 정교하게 편집하거나 더 실감 나는 콘텐츠를 제작하고, 손상된 영상을 복원하는 등 생산적인 용도로 쓰일 수 있는 기술이다. 어도비의 포토샵 등에도 이 기술이 활용됐다.
보고서를 작성한 안성원 소프트웨어정책연구소 AI정책연구팀 선임연구원은 “과거부터 기술은 소위 ‘혁명’으로 불리며 인류의 역사를 바꿔놨다”면서 “기술의 본질을 이해하며 올바르게 활용하되 부작용을 최소화하기 위한 모두의 노력이 필요한 때”라고 말했다.
연구소가 최근 발간한 ‘인공지능의 악용 사례, 딥페이크 기술과 과제’ 보고서에 따르면 딥페이크는 ‘생성적 적대 신경망'(GAN, Generative Adversarial Network)이라는 AI 기술을 통해 만들어진다.
6 thg 8, 2022 — 이 사례처럼 인공지능(AI)에 기반한 딥페이크 기술이 단순 개인의 인권침해를 넘어 국가·사회적 혼란까지도 초래할 우려가 있어 기술·제도적 대응을 통해 …
- Source: www.yna.co.kr
- Views: 1946
- Publish date: 50 minute ago
- Downloads: 48987
- Likes: 5038
- Dislikes: 7
- Title Website: “딥페이크, 사회·국가적 혼란 초래 우려…AI로 AI 악용 막아야 …
- Description Website: 6 thg 8, 2022 — 이 사례처럼 인공지능(AI)에 기반한 딥페이크 기술이 단순 개인의 인권침해를 넘어 국가·사회적 혼란까지도 초래할 우려가 있어 기술·제도적 대응을 통해 …
나도 모르는 사이, 내 얼굴이 불법 영상에? 딥페이크 범죄의 모든 것 | 짧은 그알
- Source: Youtube
- Views: 33058
- Date: 54 minute ago
- Download: 16525
- Likes: 1500
- Dislikes: 5
“딥페이크, 사회·국가적 혼란 초래 우려…AI로 AI 악용 막아야”
SW정책연구소 ‘긍정적 AI’ 활용 산학연 연구·개발 제언
‘딥페이크'(deepfake) (PG) [장현경 제작] 일러스트
(서울=연합뉴스) 임성호 기자 = 러시아-우크라이나 전쟁이 한창이던 올해 3월, 볼로디미르 젤렌스키 우크라이나 대통령이 러시아에 항복을 선언하는 내용의 영상이 유튜브와 페이스북 등에 유포됐다.
물론 이는 실제로 젤렌스키 대통령을 촬영한 영상이 아니었다. 누군가 그를 정교하게 가장한 딥페이크(deepfake) 영상을 올려 허위 정보를 전파하려고 한 것이다.
젤렌스키 대통령이 즉각 반박성 메시지를 내고 SNS들도 이를 삭제하며 실제 전황에 영향이 미치지는 않았지만, 우크라이나군 등이 이를 실제로 믿었다면 큰 혼란이 빚어졌을 가능성이 있다.
광고
이 사례처럼 인공지능(AI)에 기반한 딥페이크 기술이 단순 개인의 인권침해를 넘어 국가·사회적 혼란까지도 초래할 우려가 있어 기술·제도적 대응을 통해 악용을 방지해야 한다고 6일 소프트웨어정책연구소가 제언했다.
딥페이크는 ‘딥러닝'(deep learning)’과 ‘페이크'(fake)를 합성한 말로, 인공지능(AI)을 기반으로 얼굴 생김새나 음성 등을 실제처럼 조작한 영상 등을 통칭한다.
연구소가 최근 발간한 ‘인공지능의 악용 사례, 딥페이크 기술과 과제’ 보고서에 따르면 딥페이크는 ‘생성적 적대 신경망'(GAN, Generative Adversarial Network)이라는 AI 기술을 통해 만들어진다.
그럴듯한 가짜 이미지를 생성(Generative)하고, 생성·감별 기능을 하는 두 개의 딥러닝 네트워크가 서로 적대적(Adversarial)으로 경쟁·학습하며 더 나은 결과를 만들어내는 강화학습 방식의 기술이다.
딥페이크 사례 [소프트웨어정책연구소 보고서 캡처. 재판매 및 DB 금지]
보고서에 따르면 GAN은 본래 실제와 가상의 이미지를 더 정밀하게 구별해 구현하기 위한 기술로 개발됐다. 영상이나 이미지를 정교하게 편집하거나 더 실감 나는 콘텐츠를 제작하고, 손상된 영상을 복원하는 등 생산적인 용도로 쓰일 수 있는 기술이다. 어도비의 포토샵 등에도 이 기술이 활용됐다.
그러나 이 기술이 가짜뉴스 등에 악용돼 국가 안보 등에 악영향을 미치는 것을 막기 위해 국가·사회적 차원에서 대응에 나서야 한다고 보고서는 강조했다.
우선 사회 문제를 해결하고 인류 행복에 기여하는 ‘긍정적 AI'(AI for Good)를 만들어 AI로 AI를 막아야 한다고 보고서는 제안했다.
산학연이 힘을 합쳐 이런 AI를 활용한 연구·개발 과제를 진행할 수 있도록 지원해야 한다는 것이다.
특히 미디어와 금융, 치안 등 특정 분야에서 GAN을 악용하는 사례를 전문적으로 감지하는 AI 개발을 다각적으로 시도해야 한다고 보고서는 덧붙였다.
또 지방자치단체와 협력해 시민이 직접 참여할 수 있는 생활 속 AI 활용 프로젝트나 경진대회 등을 추진하고, 집단지성을 활용해 개발한 AI 기술력을 확보하는 것도 중요하다고 보고서는 부연했다.
보고서를 작성한 안성원 소프트웨어정책연구소 AI정책연구팀 선임연구원은 “과거부터 기술은 소위 ‘혁명’으로 불리며 인류의 역사를 바꿔놨다”면서 “기술의 본질을 이해하며 올바르게 활용하되 부작용을 최소화하기 위한 모두의 노력이 필요한 때”라고 말했다.
제보는 카카오톡 okjebo <저작권자(c) 연합뉴스, 무단 전재-재배포 금지>
AI 악용 가짜 음란물 딥페이크 범죄 ‘기승’…최근 2.5배 증가 – 뉴스1
한 음란사이트에 인공지능(AI) 기술을 활용한 ‘딥페이크(DeepFake)’를 통해 제작된 연예인 합성 음란물이 게시되어 있다. © News1
27 thg 9, 2021 — AI를 악용한 범죄 중 딥페이크(Deepfake) 기술로 타인 얼굴 사진과 음란물 영상해 합성, 이를 유포하겠다고 협박해 금전을 요구하는 범죄가 기승을 부리고 …
- Source: www.news1.kr
- Views: 104495
- Publish date: 21 minute ago
- Downloads: 27478
- Likes: 3186
- Dislikes: 3
- Title Website: AI 악용 가짜 음란물 딥페이크 범죄 ‘기승’…최근 2.5배 증가 – 뉴스1
- Description Website: 27 thg 9, 2021 — AI를 악용한 범죄 중 딥페이크(Deepfake) 기술로 타인 얼굴 사진과 음란물 영상해 합성, 이를 유포하겠다고 협박해 금전을 요구하는 범죄가 기승을 부리고 …
※가족에게 필수공유※ 딥페이크 신종 피싱 방법 미리 알려드립니다ㅣ그알PICK
- Source: Youtube
- Views: 52174
- Date: 5 hours ago
- Download: 45664
- Likes: 8873
- Dislikes: 8
AI 악용 가짜 음란물 딥페이크 범죄 ‘기승’…최근 2.5배 증가
한 음란사이트에 인공지능(AI) 기술을 활용한 ‘딥페이크(DeepFake)’를 통해 제작된 연예인 합성 음란물이 게시되어 있다. © News1
#.대전에 거주중인 A씨는 올 1월부터 3월까지 메신저로 구매자들에게 제작을 의뢰받아 70여명의 연예인과 일반인의 불법 합성물을 딥페이크로 제작·판매하다 검거됐다.부산에 사는 B씨와 C씨는 지난해 6월부터 7월까지 연예인 150여명의 얼굴을 딥페이크로 타인의 신체 사진과 합성·판매하다 붙잡혔다.최근 인공지능(AI) 기술이 불법적인 범죄에 악용되고 있어 대책 마련이 시급한 것으로 나타났다. AI를 악용한 범죄 중 딥페이크(Deepfake) 기술로 타인 얼굴 사진과 음란물 영상해 합성, 이를 유포하겠다고 협박해 금전을 요구하는 범죄가 기승을 부리고 있는 것이다.27일 국회 과학기술정보방송통신위원회 소속 김상희 국회부의장이 방송통신위원회로부터 제출받은 자료에 따르면, 지난 2020년 6월부터 단속이 시작된 ‘딥페이크 성적 허위영상’ 차단 건수는 12월까지 548건에, 올 1월부터 9월까지 1408건으로 2.5배 증가했다.김 부의장이 경찰청으로부터 제출받은 딥페이크 범죄 내용을 살펴본 결과, SNS와 채팅 메신저로 일반인과 연예인 등 피해자들의 사진과 개인정보를 받아 딥페이크로 ‘성적 허위 영상물’을 제작해 판매하고 유포하는 것으로 드러났다.더욱이 피해자의 사진만 갖고 AI로 이질감없이 영상을 만들기 때문에 확실히 단속하지 못한다면 다크웹 등으로 퍼져나가 ‘제2의 N번방 사건’이 될 가능성이 많다는 지적이다.AI를 포함 지능정보기술을 악용한 범죄 피해를 막기 위해선 기술에 대한 규제도 필요하다는 지적이 나온다. 현행 기능정보화 기본법 제31와 60조에 따르면 지능정보기술이 사람의 생명과 신체의 안전을 저해하면 이를 제한하고, 필요하다면 국가가 그 기술을 비상 정지하게 되어 있다.하지만 현재까지 AI 등 지능정보 기술이 사람의 생명이나 신체에 대한 긴급한 위해를 야기하는 등 규정을 위배하는 사례가 없어, 해당 법이 적용된 적은 없다.김 부의장은 “현행법에는 AI를 악용해 심각한 정신적·금전적 피해를 주는 것에 대한 규정이 없다”며 “AI를 악용한 범죄를 예방하고 큰 피해를 막기 위해 심각하게 지능정보 기술을 악용한 경우는 기술의 사용을 제한하거나 중지할 수 있게 해야 한다”고 밝혔다.이어 “미래산업 사회에 진입을 위해 AI 발전은 꼭 필요하지만 인간에게 심각한 피해를 끼친다면 정부가 직접 나서야 한다”며 “AI 범죄를 신종 범죄로 규정하고 AI의 불법행위와 악용을 막을 방안을 마련해 더 이상 AI 범죄로 고통받는 국민이 없도록 노력해야 한다”고 강조했다[email protected]
[기고] 딥페이크, AI 기술발전이 가져온 부작용 … – 대한금융신문
기존 보이스피싱과 달리 대상의 가족관계 및 사회적 네트워크를 파악해 지인의 영상과 음성까지 묘사한 스피어피싱 범죄가 만연할 것이라는 예상이다. 영상과 음성을 동시에 위조한 초현실적인 컨텐츠가 제작 가능해짐에 따라 금융사기 피해가 급증할 것이란 전망이다.
페이스북, 마이크로소프트, 구글 등 글로벌 기업을 중심으로 딥페이크 감지 솔루션 개발 활동이 진행되고 있지만 탐지 기술이 유포·확산 속도를 따라가지 못하기 때문에 동영상·음성이 이미 나온 뒤에는 실질적 회복이 거의 불가능한 게 현실이다.
국내의 경우 지난해 6월 딥페이크 영상 제작·배포를 성범죄로 처발하는 규정이 시행돘지만, 음성학습을 통한 보이스피싱은 기존 전자금융거래법 제9조(‘13년 5월) 외 처벌규정이 없는 만큼 법제 강화를 위한 조기검토가 필요해 보인다.
14 thg 4, 2021 — 딥러닝 기술을 기잔으로 하는 딥페이크가 ‘FakeApp’ 등 무료 소프트웨어(SW) 배포로 대중화되며 수많은 악용사례가 발생, 이로 인한 윤리 논쟁이 반드시 …
- Source: www.kbanker.co.kr
- Views: 77815
- Publish date: 18 hours ago
- Downloads: 22815
- Likes: 1704
- Dislikes: 7
- Title Website: [기고] 딥페이크, AI 기술발전이 가져온 부작용 … – 대한금융신문
- Description Website: 14 thg 4, 2021 — 딥러닝 기술을 기잔으로 하는 딥페이크가 ‘FakeApp’ 등 무료 소프트웨어(SW) 배포로 대중화되며 수많은 악용사례가 발생, 이로 인한 윤리 논쟁이 반드시 …
성인물 얼굴 ‘바꿔치기’…한국 女 연예인 ‘최대 피해’ (2019.12.03/뉴스투데이/MBC)
- Source: Youtube
- Views: 43761
- Date: 5 minute ago
- Download: 13709
- Likes: 7946
- Dislikes: 6
[기고] 딥페이크, AI 기술발전이 가져온 부작용
최근 인공지능(AI) 기술 기반 컨텐츠가 확산하고 있는 가운데 ‘딥페이크(Deepfake)’ 기술을 악용한 명예훼손, 금융사기 등 디지털 범죄 사례가 크게 증가하고 있다.
딥페이크 감지를 위한 기술투자가 지속되고 있지만 아직 초보적 수준이라 피해를 방지하기 위한 강력한 제재 법안 마련이 필요해보인다.
미국 시장조사업체인 가트너는 오는 2023년부터 전체 금융사기 범죄 중 20%에 딥페이크가 활용될 것으로 예측했다.
AI 기술 중 가장 주목받고 있는 생성적 적대 신경망을 활용한 ‘음성변조·생성’ 기술의 악용 가능성 우려가 커진 것이다.
실제로 지난 2019년 3월 영국의 한 에너지기업에서 딥페이크 음성조작을 통해 걸려온 전화에 상사의 목소리로 거액을 송금하라는 지시를 받고 3억원을 사기당하는 사건이 발생하기도 했다.
기존 보이스피싱과 달리 대상의 가족관계 및 사회적 네트워크를 파악해 지인의 영상과 음성까지 묘사한 스피어피싱 범죄가 만연할 것이라는 예상이다. 영상과 음성을 동시에 위조한 초현실적인 컨텐츠가 제작 가능해짐에 따라 금융사기 피해가 급증할 것이란 전망이다.
딥러닝 기술을 기잔으로 하는 딥페이크가 ‘FakeApp’ 등 무료 소프트웨어(SW) 배포로 대중화되며 수많은 악용사례가 발생, 이로 인한 윤리 논쟁이 반드시 해결해야할 과제로 부상했다.
가장 빈번한 악용사례는 유명인의 얼굴·음성을 합성해 진짜 같은 가짜뉴스를 생성하거나 유명인을 사칭해 타인을 비난하는 등의 명예훼손이다.
2가지 머신러닝(가짜 데이터를 생성, 만들어진 가짜를 감지) 실행 후 감지할 수 없을 때까지 학습을 수행하므로 데이터가 많을수록 완성도가 높으며 이로 인해 현재까지는 유명인의 악용사례가 월등히 많다.
딥페이크를 생성하는 생성적 적대 신경망 기술이 지속적으로 개선되고 있어 향후 유명인뿐만 아니라 일반인도 범죄 대상이 될 수 있다.
딥페이크의 진위여부를 감지하기 위한 디지털 포렌식 기술 투자가 지속중이나, 생성적 적대 신경망은 자체 훈련을 통해 이를 회피하는 방법도 학습 가능하다.
기술업계에서는 디지털 위조 영상·음성을 찾아내는 기술이 아직 초기 수준이기 때문에 강력한 제재 법안의 마련이 병행돼야 한다는 것이 중론이다.
페이스북, 마이크로소프트, 구글 등 글로벌 기업을 중심으로 딥페이크 감지 솔루션 개발 활동이 진행되고 있지만 탐지 기술이 유포·확산 속도를 따라가지 못하기 때문에 동영상·음성이 이미 나온 뒤에는 실질적 회복이 거의 불가능한 게 현실이다.
국내의 경우 지난해 6월 딥페이크 영상 제작·배포를 성범죄로 처발하는 규정이 시행돘지만, 음성학습을 통한 보이스피싱은 기존 전자금융거래법 제9조(‘13년 5월) 외 처벌규정이 없는 만큼 법제 강화를 위한 조기검토가 필요해 보인다.
지난 2019년 일반 보이스피싱 피해건수가 3.8만건(6398억원)에 달하는 만큼, 딥페이크가 보이스피싱에 악용될 경우 피해는 더욱 커질 것으로 예상된다.
일반인의 경우 영상이나 목소리를 온전하게 위조할 정도로 수집 가능한 데이터가 많지 않아 아직 우려할 상황은 아니지만, 향후 늘어날 수 있는 디지털금융 범죄에 대비한 보다 광범위한 법제적 대비가 요구된다.
#딥페이크악용사례 – YouTube
유명인 혹은 그냥 아는 사람 얼굴을 음란물과 합성해 인터넷에 올리는 이른바 ‘딥페이크’ 범죄가 늘고 있습니다. 경찰이 지난해 말부터 .
- Source: www.youtube.com
- Views: 7116
- Publish date: 14 hours ago
- Downloads: 102367
- Likes: 5696
- Dislikes: 3
- Title Website: #딥페이크악용사례 – YouTube
- Description Website: 유명인 혹은 그냥 아는 사람 얼굴을 음란물과 합성해 인터넷에 올리는 이른바 ‘딥페이크’ 범죄가 늘고 있습니다. 경찰이 지난해 말부터 .
\”조작영상 꼼짝 마\”…딥페이크 찾아내는 앱 개발 (2021.03.30/뉴스데스크/MBC)
- Source: Youtube
- Views: 106476
- Date: 22 minute ago
- Download: 87148
- Likes: 9995
- Dislikes: 10
딥페이크 악용 허위 음란물, 전년 대비 2.5배 급증…김상희 의원 …
아울러 “AI 기술의 발전과 딥페이크 사용자의 급증으로 이를 악용한 범죄가 많아지고 있는 가운데, 그에 대한 규제가 없다”라며 “정부가 나서서 협의체 등을 구성해 AI의 불법행위나 악용되고 있는 기술을 긴급적으로 중지시키거나 심한 경우에는 폐기할 수 있는 방안도 고려해봐야 된다”고 덧붙였다.
이와 관련해 김상희 의원실은 “현행법에는 AI를 악용하여 심각한 정신적, 금전적 피해를 주는 것에 대한 규정이 없다”라며 “AI를 악용한 범죄를 예방하고 큰 피해를 막기 위해 심각하게 지능정보 기술을 악용한 경우는 기술의 사용을 제한하거나 중지할 수 있게 해야 한다”고 말했다.
이어 “미래산업 사회에 진입을 위해 AI 발전은 꼭 필요하지만 인간에게 심각한 피해를 끼친다면 정부가 직접 나서야 한다”며 “AI 범죄를 신종 범죄로 규정하고 AI의 불법행위와 악용을 막을 방안을 마련해 더 이상 AI 범죄로 고통받는 국민이 없도록 노력하겠다”고 강조했다.
28 thg 9, 2021 — 딥페이크란 심층학습(Deep Learning)과 가짜(Fake)의 합성어로 인공 … 신체에 긴급한 위해를 가하는 등 규정을 위배한 사례는 없지만, 악용 범죄는 …
- Source: www.ntoday.co.kr
- Views: 102697
- Publish date: 42 minute ago
- Downloads: 91646
- Likes: 2138
- Dislikes: 4
- Title Website: 딥페이크 악용 허위 음란물, 전년 대비 2.5배 급증…김상희 의원 …
- Description Website: 28 thg 9, 2021 — 딥페이크란 심층학습(Deep Learning)과 가짜(Fake)의 합성어로 인공 … 신체에 긴급한 위해를 가하는 등 규정을 위배한 사례는 없지만, 악용 범죄는 …
살아있듯 움직이는 유관순 열사, 인공지능이 만든 착한 딥 페이크?
- Source: Youtube
- Views: 87347
- Date: 44 minute ago
- Download: 91122
- Likes: 7036
- Dislikes: 9
딥페이크 악용 허위 음란물, 전년 대비 2.5배 급증…김상희 의원 “기술 제한 가능해야”
ⓒ게티이미지뱅크
【투데이신문 조유빈 기자】 최근 딥페이크 기술을 이용해 타인 얼굴 사진을 음란물 영상에 합성한 뒤 이를 유포하겠다고 협박하거나 금전을 취하는 범죄가 기승을 부리고 있다.
28일 국회부의장인 김상희 의원이 방송통신심의위원회에서 제출받은 자료에 따르면 성적 허위영상 차단‧삭제 건수는 지난해 6월부터 12월까지 548건 수준이었으나 올해들어 9월까지 1408건으로 2.5배 이상 증가했다.
딥페이크란 심층학습(Deep Learning)과 가짜(Fake)의 합성어로 인공지능(AI)을 이용해 허위 영상을 만들어내는 기술이다.
딥페이크 성적 허위영상물의 제작 및 반포 행위를 금지하기 위한 ‘성폭력범죄의 처벌 등에 관한 특례법’이 지난해 3월 국회 본회의를 통과, 같은해 6월 25일부터 시행됐다. 하지만 딥페이크의 범죄수법은 오히려 진화하는 모습이다.
ⓒ김상희 국회부의장
경찰청이 김 부의장에게 제출한 자료를 살펴보면 범죄자들은 SNS와 채팅 메신저 등으로 일반인 또는 연예인들의 사진과 개인정보를 받아 성적 허위 영상물을 제작·판매 및 유포한 것으로 나타났다.
해외에서도 딥페이크를 악용해 회사 고위 임원의 목소리나 친구의 얼굴을 모방해 영상통화를 걸어 금전을 요구하는 범죄가 발생하고 있다.
딥페이크 불법 영상물을 확실하게 단속하지 못할 경우 다크웹 등으로 퍼져나가 ‘제2의 N번방 사건’이 될 가능성이 높다는 우려의 목소리가 나오고 있다.
이에 따라 AI를 포함한 지능정보기술을 악용한 범죄피해를 막기 위해서는 기술에 대한 규제가 필요하다는 지적이 제기됐다.
현행 ‘지능정보화 기본법’ 제31조와 제60조에 따르면 지능정보기술이 사람의 생명과 신체의 안전을 저해하면 이를 제한하고 필요할 경우 국가가 그 기술을 비상 정지할 수 있다.
현재까지 AI 등 지능정보 기술이 사람의 생명 또는 신체에 긴급한 위해를 가하는 등 규정을 위배한 사례는 없지만, 악용 범죄는 계속 이어지고 있어 현실적인 개선책이 필요한 상황이다.
이와 관련해 김상희 의원실은 “현행법에는 AI를 악용하여 심각한 정신적, 금전적 피해를 주는 것에 대한 규정이 없다”라며 “AI를 악용한 범죄를 예방하고 큰 피해를 막기 위해 심각하게 지능정보 기술을 악용한 경우는 기술의 사용을 제한하거나 중지할 수 있게 해야 한다”고 말했다.
이어 “미래산업 사회에 진입을 위해 AI 발전은 꼭 필요하지만 인간에게 심각한 피해를 끼친다면 정부가 직접 나서야 한다”며 “AI 범죄를 신종 범죄로 규정하고 AI의 불법행위와 악용을 막을 방안을 마련해 더 이상 AI 범죄로 고통받는 국민이 없도록 노력하겠다”고 강조했다.
아울러 “AI 기술의 발전과 딥페이크 사용자의 급증으로 이를 악용한 범죄가 많아지고 있는 가운데, 그에 대한 규제가 없다”라며 “정부가 나서서 협의체 등을 구성해 AI의 불법행위나 악용되고 있는 기술을 긴급적으로 중지시키거나 심한 경우에는 폐기할 수 있는 방안도 고려해봐야 된다”고 덧붙였다.
[플랫폼] 악용되는 AI…”딥페이크, 96%가 음란물” – 매일경제
사진 확대 [사진 = 게티이미지뱅크]
구글·MS 등 곤욕 치르기도
23 thg 12, 2020 — 최근 국내외에서 AI 기술을 악용하는 사례가 늘어나면서 도처에서 경고음이 나오고 있다. 지난 수년간 AI는 인간을 대신해 산업 각 분야에서 효율성을 …
- Source: www.mk.co.kr
- Views: 88109
- Publish date: 14 hours ago
- Downloads: 35889
- Likes: 8237
- Dislikes: 5
- Title Website: [플랫폼] 악용되는 AI…”딥페이크, 96%가 음란물” – 매일경제
- Description Website: 23 thg 12, 2020 — 최근 국내외에서 AI 기술을 악용하는 사례가 늘어나면서 도처에서 경고음이 나오고 있다. 지난 수년간 AI는 인간을 대신해 산업 각 분야에서 효율성을 …
인공지능이 만들어낸 충격적인 조작 영상
- Source: Youtube
- Views: 109364
- Date: 9 hours ago
- Download: 20977
- Likes: 7637
- Dislikes: 6
[플랫폼] 악용되는 AI…”딥페이크, 96%가 음란물”
인종·성차별·가짜뉴스까지
구글·MS 등 곤욕 치르기도
인공지능 기술 잇단 경고음
AI 알고리즘 공정성도 논란
사진 확대 [사진 = 게티이미지뱅크]
사진 확대
# 프랑스 축구 스타 앙투안 그리에즈만은 이달 초 인스타그램을 통해 화웨이와 스폰서 계약을 해지했다고 알렸다. 중국의 대표적인 스마트폰·통신장비 제조사인 화웨이가 인공지능(AI) 안면인식 기술을 통해 소수민족을 차별하는 행위를 했다는 이유에서다. 미국 영상감시연구소(IPVM)가 발견한 화웨이 내부 문건에 따르면 화웨이는 2018년 안면인식 스타트업 ‘메그비’와 함께 군중 속에서 개인 얼굴을 인식해 민족, 나이, 성별을 구분할 수 있는 AI 카메라 시스템을 시험했다. 이 시스템에는 AI가 위구르족 얼굴이라고 식별하면 자동으로 중국 공안에 ‘위구르 경보’를 보낼 수 있는 기능을 포함했다. 화웨이는 문서의 존재에 대해선 인정했으나, AI 부정 사용에 대해서는 부인했다. 글렌 슈로스 화웨이 대변인은 “단순한 시험이었고, 실제 사용되는 애플리케이션(앱)은 아니다”며 “화웨이는 맞춤형 알고리즘과 앱을 제공하지 않는다”고 말했다. 최근 국내외에서 AI 기술을 악용하는 사례가 늘어나면서 도처에서 경고음이 나오고 있다. 지난 수년간 AI는 인간을 대신해 산업 각 분야에서 효율성을 높이고, 질병 치료에 도움을 주는 등 긍정적인 역할이 집중 부각돼왔다. 하지만 AI도 결국 사람의 활용 여부에 따라 악용될 수 있는 도구라는 인식이 퍼지면서 전 세계적·사회적 대책 마련이 요구되고 있다.AI 악용과 관련된 우려는 화웨이뿐 아니라 다수의 정보기술(IT) 기업에서 제기되고 있다. 구글은 자사 AI에 대해 비판적인 논문을 쓴 팀닛 게브루 AI 윤리 전문 연구원을 해고해 파장이 점점 커지고 있다. 내부 직원들이 반발해 항의 서명자가 1500명을 돌파하고, 게브루 연구원의 복직과 회사의 공식 사과를 요구하고 있다. 게부르 연구원은 논문을 통해 구글의 언어 AI 훈련 모델이 인종·성차별 우려가 크고, 가짜뉴스나 딥페이크에 악용될 우려가 있다고 지적했다. 또 대규모 전력 소모로 지구온난화에 영향을 주는 점도 문제로 지적했다.현재 AI 악용 문제가 가장 두드러지는 분야는 딥페이크다. 딥페이크는 특정 인물의 얼굴과 신체 부위를 전혀 다른 영상과 합성하는 기술로, 이를 활용해 가짜뉴스 영상을 만들거나 특정인을 음란물에 합성하는 등 문제가 확대되고 있다. 딥페이크는 과거 인물로 영상을 만드는 식으로 흥미로운 콘텐츠를 만들거나, 장애인 복지에도 활용되며 긍정적인 용도로 사용돼 왔다. 하지만 최근 들어 부정적인 인식이 더욱 강해지는 모습이다. 사이버 보안 연구회사 ‘딥트레이스’ 보고서에 따르면 2018년 12월만 해도 약 8000개였던 딥페이크 영상은 지난해 12월 1만4698개로 증가했다. 이 가운데 96%는 음란물로 집계됐다. 음란물에 합성하는 대상도 연예인에서 지인으로 퍼지며 피해 범위가 확대되고 있다. 미국 매사추세츠공과대학(MIT) 과학기술 전문지인 ‘MIT테크놀로지리뷰’는 2019년 가장 조심해야 할 AI 위험 요소 여섯 개 중 하나로 딥페이크를 꼽았다. 딥페이크보다 드러나지는 않지만 AI 알고리즘이 편견을 갖게 돼 공정함을 해칠 것이라는 우려도 있다. AI 알고리즘을 어떻게 학습시키는지에 따라 편견을 갖게 될 수 있다는 것은 이미 널리 알려졌다. AI가 수많은 사진을 자동 분류·정리해주는 ‘구글포토’는 AI가 흑인을 고릴라로 인식해서 파문이 됐던 사건이 대표적이다. 2016년 마이크로소프트(MS) 채팅봇 ‘테이’는 사용자와 대화 중 “히틀러가 옳다. 난 유대인이 싫다”는 식으로 인종차별 발언을 해 서비스가 중단되기도 했다. 지난해 애플이 출시한 신용카드 ‘애플카드’는 소득이나 자산이 동일하더라도 AI가 대출 한도를 남성에게 훨씬 많이 부여해 논란이 됐다.이 때문에 전 세계적으로 AI 알고리즘의 ‘공정성’을 되묻는 사례가 늘고 있다. 국내에서도 AI 알고리즘이 논란의 중심에 서고 있다. 대표적인 사례가 포털뉴스에 적용된 AI 알고리즘의 공정성 문제다. 전 국민이 뉴스를 소비하는 네이버와 다음(카카오)은 뉴스 서비스가 인간 편집자의 손을 거치지 않아 중립적이라고 주장하고 있다. 그러나 AI 알고리즘을 깊이 들여다봐야 한다는 반론도 만만치 않다. 뉴스처럼 사회에 큰 영향을 미칠 수 있는 분야에는 AI 알고리즘에 대해 더욱 심도 높은 논의를 통해 사회적 합의를 이끌어내야 한다는 지적이 나오는 이유다.포털 다음을 창업한 이재웅 전 쏘카 대표는 페이스북 페이지를 통해 “많은 사람이 AI는 가치 중립적이라고 생각하지만, AI는 시스템을 설계하는 사람의 생각이 반영될 수밖에 없다”며 “AI는 우리가 설계한 대로 혹은 우리 현상을 반영해서 판단할 가능성이 높지, 가치 중립적으로 판단하지 않는다”고 지적했다. 그는 “AI 시스템이 차별하지 않는지, 정치적으로 중립적인지 판단하기 위한 감사 시스템이 필요하다”며 “뉴스편집은 물론 대출심사 AI, 채용면접 AI, 입학심사 AI, 자율주행 AI 등 사람을 평가하거나 사람 생각에 영향을 미치는 경우는 시스템이 우리 사회의 문화나 윤리를 잘 반영하는가 분석하고 감사해볼 필요가 있다”고 했다.[오대석 기자][ⓒ 매일경제 & mk.co.kr, 무단전재 및 재배포 금지]
[카드뉴스] 딥페이크 악용 사례 증가..디지털 범죄 대비 법안 필요
인공지능(AI)의 발달로 딥페이크(Deep fake) 기술을 활용한 콘텐츠가 늘어나고 있습니다. 딥러닝(Deep learning)과 가짜(Fake)의 합성어로 인공지능을 기반으로 한 이미지 합성 기술을 말하는 딥페이크는 최근 디지털 범죄에 사용되면서 우려가 커지고 있습니다.하나금융경영연구소에서 발표한 ‘딥페이크, AI 기술발전이 가져온 부작용’ 보고서에 따르면, 딥페이크가 적용된 무료 소프트웨어(SW)의 확산이 이를 악용하는 사례 증가의 원인으로 지목되고 있습니다.특히, 딥페이크는 유명인의 얼굴을 합성한 가짜뉴스, 불법영상 제작 범죄에 빈번하게 사용되는데요. 미국 대통령 등의 얼굴을 합성한 허위 연설, 연예인이 등장하는 성인물 제작 및 배포 등이 대표적인 사례입니다.미국 리서치 전문기업 가트너는 2023년부터 딥페이크 기술을 악용한 금융사기 범죄가 전체 금융사기 범죄 비율 중 약 20%를 차지할 것으로 예상했습니다. 딥페이크는 가짜를 감지할 수 없을 때까지 학습을 수행하므로 완성도가 높아 이로 인한 피해는 커질 것으로 보입니다.하나금융경영연구소 황성영 수석연구원은 ‘딥페이크가 디지털 범죄에 악용되면 피해가 커질 수 있다’며 ‘기존 전자금융거래법 제9조 외 처벌 규정이 없는 만큼 법제 강화를 위한 조기검토가 필요하다‘고 언급했습니다.
저작권자(c)산업종합저널. 무단전재-재배포금지 [email protected]
31 thg 3, 2021 — 인공지능(AI)의 발달로 딥페이크(Deep fake) 기술을 활용한 콘텐츠가 늘어나고 있습니다. 딥러닝(Deep learning)과 가짜(Fake)의 합성어로 인공지능을 …
- Source: industryjournal.co.kr
- Views: 108252
- Publish date: 58 minute ago
- Downloads: 57542
- Likes: 7568
- Dislikes: 5
- Title Website: [카드뉴스] 딥페이크 악용 사례 증가..디지털 범죄 대비 법안 필요
- Description Website: 31 thg 3, 2021 — 인공지능(AI)의 발달로 딥페이크(Deep fake) 기술을 활용한 콘텐츠가 늘어나고 있습니다. 딥러닝(Deep learning)과 가짜(Fake)의 합성어로 인공지능을 …
선생님도 딥페이크 피해…피의자 90%가 10~20대 / JTBC 뉴스룸
- Source: Youtube
- Views: 42154
- Date: 7 hours ago
- Download: 71144
- Likes: 4156
- Dislikes: 3
[카드뉴스] 딥페이크 악용 사례 증가..디지털 범죄 대비 법안 필요
저작권자(c)산업종합저널. 무단전재-재배포금지 [email protected]
인공지능(AI)의 발달로 딥페이크(Deep fake) 기술을 활용한 콘텐츠가 늘어나고 있습니다. 딥러닝(Deep learning)과 가짜(Fake)의 합성어로 인공지능을 기반으로 한 이미지 합성 기술을 말하는 딥페이크는 최근 디지털 범죄에 사용되면서 우려가 커지고 있습니다.하나금융경영연구소에서 발표한 ‘딥페이크, AI 기술발전이 가져온 부작용’ 보고서에 따르면, 딥페이크가 적용된 무료 소프트웨어(SW)의 확산이 이를 악용하는 사례 증가의 원인으로 지목되고 있습니다.특히, 딥페이크는 유명인의 얼굴을 합성한 가짜뉴스, 불법영상 제작 범죄에 빈번하게 사용되는데요. 미국 대통령 등의 얼굴을 합성한 허위 연설, 연예인이 등장하는 성인물 제작 및 배포 등이 대표적인 사례입니다.미국 리서치 전문기업 가트너는 2023년부터 딥페이크 기술을 악용한 금융사기 범죄가 전체 금융사기 범죄 비율 중 약 20%를 차지할 것으로 예상했습니다. 딥페이크는 가짜를 감지할 수 없을 때까지 학습을 수행하므로 완성도가 높아 이로 인한 피해는 커질 것으로 보입니다.하나금융경영연구소 황성영 수석연구원은 ‘딥페이크가 디지털 범죄에 악용되면 피해가 커질 수 있다’며 ‘기존 전자금융거래법 제9조 외 처벌 규정이 없는 만큼 법제 강화를 위한 조기검토가 필요하다‘고 언급했습니다.
주제에 대한 관련 정보 딥 페이크 악용 사례
Bing에서 딥 페이크 악용 사례 주제에 대한 최신 정보를 볼 수 있습니다.
주제에 대한 기사 보기를 마쳤습니다 딥 페이크 악용 사례. 이 기사가 유용했다면 공유하십시오. 매우 감사합니다. 사람들이 이 주제와 관련하여 자주 검색하는 키워드: 딥 페이크 악용 사례 연예인 딥페이크 악용 사례, 딥페이크 범죄 사례, 딥페이크 사례, 딥페이크 문제점, 딥페이크 긍정적 사례, 딥페이크 해결방안, 딥페이크 알고리즘, 딥페이크 방지법