뉴스 바로가기

기사 상세

IT·과학

[플랫폼] 악용되는 AI…"딥페이크, 96%가 음란물"

오대석 기자
입력 : 
2020-12-23 04:05:04

글자크기 설정

인종·성차별·가짜뉴스까지
구글·MS 등 곤욕 치르기도

인공지능 기술 잇단 경고음
AI 알고리즘 공정성도 논란
사진설명
[사진 = 게티이미지뱅크]
# 프랑스 축구 스타 앙투안 그리에즈만은 이달 초 인스타그램을 통해 화웨이와 스폰서 계약을 해지했다고 알렸다. 중국의 대표적인 스마트폰·통신장비 제조사인 화웨이가 인공지능(AI) 안면인식 기술을 통해 소수민족을 차별하는 행위를 했다는 이유에서다. 미국 영상감시연구소(IPVM)가 발견한 화웨이 내부 문건에 따르면 화웨이는 2018년 안면인식 스타트업 '메그비'와 함께 군중 속에서 개인 얼굴을 인식해 민족, 나이, 성별을 구분할 수 있는 AI 카메라 시스템을 시험했다. 이 시스템에는 AI가 위구르족 얼굴이라고 식별하면 자동으로 중국 공안에 '위구르 경보'를 보낼 수 있는 기능을 포함했다. 화웨이는 문서의 존재에 대해선 인정했으나, AI 부정 사용에 대해서는 부인했다. 글렌 슈로스 화웨이 대변인은 "단순한 시험이었고, 실제 사용되는 애플리케이션(앱)은 아니다"며 "화웨이는 맞춤형 알고리즘과 앱을 제공하지 않는다"고 말했다. 최근 국내외에서 AI 기술을 악용하는 사례가 늘어나면서 도처에서 경고음이 나오고 있다. 지난 수년간 AI는 인간을 대신해 산업 각 분야에서 효율성을 높이고, 질병 치료에 도움을 주는 등 긍정적인 역할이 집중 부각돼왔다. 하지만 AI도 결국 사람의 활용 여부에 따라 악용될 수 있는 도구라는 인식이 퍼지면서 전 세계적·사회적 대책 마련이 요구되고 있다.

AI 악용과 관련된 우려는 화웨이뿐 아니라 다수의 정보기술(IT) 기업에서 제기되고 있다. 구글은 자사 AI에 대해 비판적인 논문을 쓴 팀닛 게브루 AI 윤리 전문 연구원을 해고해 파장이 점점 커지고 있다. 내부 직원들이 반발해 항의 서명자가 1500명을 돌파하고, 게브루 연구원의 복직과 회사의 공식 사과를 요구하고 있다. 게부르 연구원은 논문을 통해 구글의 언어 AI 훈련 모델이 인종·성차별 우려가 크고, 가짜뉴스나 딥페이크에 악용될 우려가 있다고 지적했다. 또 대규모 전력 소모로 지구온난화에 영향을 주는 점도 문제로 지적했다.

사진설명
현재 AI 악용 문제가 가장 두드러지는 분야는 딥페이크다. 딥페이크는 특정 인물의 얼굴과 신체 부위를 전혀 다른 영상과 합성하는 기술로, 이를 활용해 가짜뉴스 영상을 만들거나 특정인을 음란물에 합성하는 등 문제가 확대되고 있다. 딥페이크는 과거 인물로 영상을 만드는 식으로 흥미로운 콘텐츠를 만들거나, 장애인 복지에도 활용되며 긍정적인 용도로 사용돼 왔다. 하지만 최근 들어 부정적인 인식이 더욱 강해지는 모습이다. 사이버 보안 연구회사 '딥트레이스' 보고서에 따르면 2018년 12월만 해도 약 8000개였던 딥페이크 영상은 지난해 12월 1만4698개로 증가했다. 이 가운데 96%는 음란물로 집계됐다. 음란물에 합성하는 대상도 연예인에서 지인으로 퍼지며 피해 범위가 확대되고 있다. 미국 매사추세츠공과대학(MIT) 과학기술 전문지인 'MIT테크놀로지리뷰'는 2019년 가장 조심해야 할 AI 위험 요소 여섯 개 중 하나로 딥페이크를 꼽았다. 딥페이크보다 드러나지는 않지만 AI 알고리즘이 편견을 갖게 돼 공정함을 해칠 것이라는 우려도 있다. AI 알고리즘을 어떻게 학습시키는지에 따라 편견을 갖게 될 수 있다는 것은 이미 널리 알려졌다. AI가 수많은 사진을 자동 분류·정리해주는 '구글포토'는 AI가 흑인을 고릴라로 인식해서 파문이 됐던 사건이 대표적이다. 2016년 마이크로소프트(MS) 채팅봇 '테이'는 사용자와 대화 중 "히틀러가 옳다. 난 유대인이 싫다"는 식으로 인종차별 발언을 해 서비스가 중단되기도 했다. 지난해 애플이 출시한 신용카드 '애플카드'는 소득이나 자산이 동일하더라도 AI가 대출 한도를 남성에게 훨씬 많이 부여해 논란이 됐다.

이 때문에 전 세계적으로 AI 알고리즘의 '공정성'을 되묻는 사례가 늘고 있다. 국내에서도 AI 알고리즘이 논란의 중심에 서고 있다. 대표적인 사례가 포털뉴스에 적용된 AI 알고리즘의 공정성 문제다. 전 국민이 뉴스를 소비하는 네이버와 다음(카카오)은 뉴스 서비스가 인간 편집자의 손을 거치지 않아 중립적이라고 주장하고 있다. 그러나 AI 알고리즘을 깊이 들여다봐야 한다는 반론도 만만치 않다. 뉴스처럼 사회에 큰 영향을 미칠 수 있는 분야에는 AI 알고리즘에 대해 더욱 심도 높은 논의를 통해 사회적 합의를 이끌어내야 한다는 지적이 나오는 이유다.

포털 다음을 창업한 이재웅 전 쏘카 대표는 페이스북 페이지를 통해 "많은 사람이 AI는 가치 중립적이라고 생각하지만, AI는 시스템을 설계하는 사람의 생각이 반영될 수밖에 없다"며 "AI는 우리가 설계한 대로 혹은 우리 현상을 반영해서 판단할 가능성이 높지, 가치 중립적으로 판단하지 않는다"고 지적했다. 그는 "AI 시스템이 차별하지 않는지, 정치적으로 중립적인지 판단하기 위한 감사 시스템이 필요하다"며 "뉴스편집은 물론 대출심사 AI, 채용면접 AI, 입학심사 AI, 자율주행 AI 등 사람을 평가하거나 사람 생각에 영향을 미치는 경우는 시스템이 우리 사회의 문화나 윤리를 잘 반영하는가 분석하고 감사해볼 필요가 있다"고 했다.

[오대석 기자]
[ⓒ 매일경제 & mk.co.kr, 무단전재 및 재배포 금지]
#

이 기사가 마음에 들었다면, 좋아요를 눌러주세요.