제목 | [산업동향] 딥페이크를 중심으로 본 생성형 AI 악용 현황과 대응 과제 |
---|
분류 | 성장동력산업 | 판매자 | 노민우 | 조회수 | 31 | |
---|---|---|---|---|---|---|
용량 | 372.59KB | 필요한 K-데이터 | 7도토리 |
파일 이름 | 용량 | 잔여일 | 잔여횟수 | 상태 | 다운로드 |
---|---|---|---|---|---|
[산업동향] 딥페이크를 중심으로 본 생성형 AI 악용 현황과 대응 과제.pdf | 372.59KB | - | - | - | 다운로드 |
데이터날짜 : | 2024-04-25 |
---|---|
출처 : | 국책연구원 |
페이지 수 : | 36 |
1. 배경
생성형 AI 기술 발전의 속도가 기하급수적으로 빨라지면서 AI를 기반으로 만들어진 콘텐츠도 놀라울 정도로
정교해지고 있다. 안타깝게도, 유용하다고 인식된 기술은 반드시 악용되고 말기에 생성형 AI 또한 부정적인
활용 사례가 속출하고 있다. 가장 논란의 선두에 있는 것은 딥페이크(Deepfake)이다. 딥페이크는 AI를
기반으로 만들어진 콘텐츠 중에서 실제 인물을 정교하게 모사하는 콘텐츠를 지칭한다. 대상 인물의 명예를
훼손하기 위해 영상을 위조하는 것부터 시작해 사칭, 음란물 제작에 이르기까지 악용의 방식에는 한계가 없다.
하지만, 모든 딥페이크가 반드시 부정적인 활용 사례로 분류되지는 않는다. 대상자의 허가를 받고 만들어진
가상 인간(Virtual Human)이 대표적인 긍정적 활용 사례다. 딥페이크는 기술이 아니라 기술 활용의 결과물이며
생성형 AI 기술의 특정한 “이용방식”으로 이해하는 것이 필요하다. 칼 자체가 좋은 도구인지, 나쁜 도구인지
논의하는 것은 무의미하듯이, 딥페이크와 관련된 기술이나 생성형 AI 기술에 대한 논의도 마찬가지다.
생성형 AI 기술의 발전은 장려하되 악용 사례를 막거나 최소화하는 기술적 장치와 사회적 기준을 마련하는
것이 이상적인 해결 방안으로 보인다. 가령, 딥페이크의 경우 모사되는 대상자의 동의를 받아야 한다는 것을
원칙으로 삼는다면 비교적 명확하게 그 준수 여부를 판단할 수 있다. 이외 AI 기반으로 제작된 콘텐츠의 경우
반드시 AI가 생성했다는 표지, 워터마크를 삽입하는 것도 비슷한 예가 될 수 있다. 최근 늘어나고 있는 각국의
생성형 AI 규제도 세부적인 방향성은 다르지만, 이러한 원칙을 준수하는 것을 먼저 요구하는 것은 공통된
경향이다.
----------------------------------------------------------------------------------------------------------------------------------------------------
※ 본 서비스에서 제공되는 각 저작물의 저작권은 자료제공사에 있으며 각 저작물의 견해와 DATA 365와는 견해가 다를 수 있습니다.