등록 : 2020.01.06 18:02
수정 : 2020.01.06 18:20
|
한국인공지능윤리협회 제공
|
가짜 영상·음성 악용 방지 캠페인 전개
AI 사용자·소비자 대상 서명운동 시작
악용 위험성 전파·방지 기술개발 지원도
“불신의 사회 조장…선거로 기승 부릴 듯”
|
한국인공지능윤리협회 제공
|
인공지능(AI) 기술의 ‘딥페이크’ 악용 방지 캠페인이 시작됐다. 딥페이크란 인공지능 기술로 영상과 음성을 조작해 가짜 영상·음성을 만들어 내는 행위를 말한다.
한국인공지능윤리협회는 6일 성명을 내어 “전세계적으로 인공지능 기술을 악용한 가짜 영상·음성 문제가 심각한 수준에 달하고 있다”며, 인공지능 기술 사용자·소비자들과 함께 악의적 목적의 딥페이크 추방운동을 전개할 예정이라고 밝혔다. 인공지능 사용자와 소비자들을 대상으로 딥페이크 기술을 이용해 악의적 콘텐츠를 만들거나 배포하지 않겠다는 서명운동을 시작하고, 딥페이크 기술을 잘못 이용할 때의 위험성을 알리고 전파하는 교육 활동과 악의적 딥페이크 콘텐츠를 막아내고 걸러낼 수 있는 원천 기술 개발 지원 등에도 나설 계획이다.
협회는 “성인 동영상에 일반인과 연예인의 얼굴을 합성하는 문제부터 가짜 영상을 제작해 언론사에 제보하거나 인터넷에 공유하는 가짜 뉴스 문제, 최근에는 실제 인물의 목소리를 흉내내어 보이스피싱 등 사기 행위에 악용하는 사례들까지 증가하고 있다. 사회를 혼란시키고, 왜곡된 여론을 형성하며, 무고한 사람을 모함하고, 나아가 지구촌을 더이상 신뢰할 수 없는 불신의 사회로 조장하는 심각한 문제를 야기할 수 있다. 특히 한국과 미국에 선거철이 다가오면서 가짜 영상을 이용한 정치적 목적의 악의적 행위들이 급증할 것으로 예상된다”며 동참을 호소했다.
김재섭 선임기자
jskim@hani.co.kr광고
기사공유하기