파파고는 집단지성의 산물… 번역가는 사라지지 않는다 [이슈&탐사]

국민일보

파파고는 집단지성의 산물… 번역가는 사라지지 않는다 [이슈&탐사]

[AI를 위해 일한다, 데이터 노동의 등장] <3회> 전문 영역으로 확장 중

입력 2020-10-16 04:03

유엔은 2016년 ‘미래 보고서 2045’에서 2045년 이후 사라질 직업으로 번역가를 지목했다. 한국고용정보원의 2018년 ‘4차 산업혁명 시대의 신 직업연구’ 보고서는 “인공지능(AI) 번역 기술이 정교해져 번역 일자리가 위험할 수 있다”고 주장했다.

일본어 전문번역가 박모(31)씨가 일하는 모습을 보면 이런 전망은 들어맞지 않을 가능성이 크다. 8년 번역 경력의 박씨는 요즘 하루 3~4시간씩 ‘플리토’ 서버에 접속한다. 플리토는 언어 데이터로 AI를 학습시켜 전문 번역기를 개발하는 업체다. 박씨는 이곳에서 다른 사람들이 번역한 문장을 마지막으로 검수하는 일을 한다. 플리토의 회원 등급은 4단계로 구성된다. 박씨는 4단계 중 가장 높은 ‘유창’ 등급이다. 그 아래 단계 회원들이 번역한 문장을 박씨가 최종 검토하는 것이다.

박씨는 지난달 29일에도 검수 작업을 했다. 번역된 문장에 오류가 있는지, 더 세련된 표현으로 대체할 수 있는지를 살폈다. 번역 수준이 높을수록 일본어 지명이나 인물명 같은 고유명사를 정확하게 바꾸는 것이 중요하다. 박씨는 이런 부분을 중점적으로 보고 ‘괜찮은 문장’임을 표시하는 이모티콘을 체크한 뒤 ‘제출’ 버튼을 눌렀다. 이렇게 검수를 하면 문장당 책정된 금액의 포인트를 받게 되는데 시급으로 환산하면 박씨는 1만~1만5000원을 받는다. 정부에서 수주한 사업의 데이터 검수여서 일반 번역보다는 금액이 높게 책정되는 편이다. 일반 번역의 경우 초급 문장당 단가는 최소 30포인트(30원)다. 박씨는 “기존 번역 일은 문서 하나를 계속 들여다봐야 해서 소요되는 시간이 길었는데 번역 데이터 업무는 원하는 시간·장소에서 간편하게 할 수 있는 것이 매력적”이라고 말했다.

사람이 번역한 말뭉치가 필수

박씨 같은 번역가가 살아남을 수 있는 이유는 지금의 AI 번역 모델이 인간의 능력을 반드시 필요로 하기 때문이다. 과거 기계 번역은 ‘나는 학교에 갑니다’라는 문장을 단어로 쪼개 데이터를 입력했다. 나는(I), 학교에(to school), 갑니다(go) 단어를 한글과 영어로 짝지어 입력하는 방식이었다. 한국어-일본어처럼 문장 구조가 비슷한 언어의 번역은 비교적 수월했지만 주어와 서술어(동사) 위치가 다른 한국어-영어로의 번역은 정확도가 떨어졌다.

지금은 사람이 번역한 ‘말뭉치(corpus)’의 쌍으로 AI를 학습시킨다. 말뭉치는 컴퓨터가 읽을 수 있는 형태로 처리된 언어 자료다. 한국정보화진흥원 AI 말뭉치 데이터 사업의 경우 15어절 정도로 구성된 한 문장을 한 개의 말뭉치로 계산한다. 현재 기계 번역은 한글 말뭉치와 이를 번역한 영어 말뭉치를 ‘문제’와 ‘정답’으로 묶어 AI에 투입한다. 기계는 수많은 번역 말뭉치 데이터를 통해 번역 규칙과 경향을 스스로 학습하게 된다. 사람이 번역 경력이 쌓이면 능숙해지는 것처럼 AI도 말뭉치 데이터가 많을수록 번역이 자연스러워진다.

번역기의 품질을 좌우하는 건 정확히 번역된 말뭉치다. AI 데이터 업체들은 ‘정확한 번역’ 업무를 사람에게 맡긴다. 이른바 ‘크라우드소싱’(대중 참여·crowd sourcing) 방식으로 번역 말뭉치 데이터를 모은다. 크라우드소싱 번역에는 많은 사람이 참여한다. 업체가 서버에 일감을 띄워놓으면 원하는 사람 누구나 일을 할 수 있다. 한 문장만 번역해도 되고 여러 문장을 해도 된다. 서버에 접속할 수만 있으면 집, 카페, 버스정류장 어디서나 일할 수 있다. 업무시간도 자유롭다. 작업에 참여하는 사람들은 함께 일하는 사람이 누구인지, 다른 사람의 작업량이 어떤지 알 수 없다.

문장 한 개의 번역을 한 사람이 완성하는 것은 아니다. 누군가 첫 번역을 하면 그 다음 사람이 수정하고, 또 다른 사람이 보완한다. 마지막 검수 단계에서 박씨처럼 등급이 가장 높은 사람이 자연스러운 번역 말뭉치를 채택한다. 즉 지금 우리가 이용하는 번역기 서비스는 ‘집단지성’의 산물이다. 이정수 플리토 대표는 “집단지성 방식으로 데이터를 수집, 가공하면 빠른 시간 내에 훨씬 더 정확하고 많은 양의 말뭉치를 얻을 수 있다”고 말했다.


집단지성을 이용한 번역은 일상 분야에서 전문 분야로 옮겨가고 있다. 정부는 올해 AI 학습용 데이터 구축 과제로 ‘전문분야 한영 말뭉치’를 지정했다. 제시한 전문 분야는 의료·보건, 금융·증시, 가정통신문, 대법원 판례 등이다. 영어 ‘client’는 일상에서는 ‘손님’으로 번역되지만 법률 분야에서는 ‘의뢰인’으로 주로 번역된다. 의학 분야에서는 ‘환자’로 해석돼야 자연스럽다. 이런 차이를 기계는 처음부터 구분하지 못한다. 사람이 집단지성으로 해당 분야에 맞는 말뭉치를 구축해야 자연스러운 번역이 가능하다.

가공 단계마다 사람이 있다

AI 학습용 데이터는 수집과 라벨링, 검수 단계를 거친다. ‘수집’은 데이터 노동의 가장 첫 단계로 프로젝트 성격에 맞는 데이터를 생산해내는 걸 말한다. 예를 들어 이미지에서 글씨를 추출해 입력하는 작업을 하려면 우선 이미지 자체가 필요하다. 번역 역시 원문이 필요하다. 저작권 시비가 없어야 하고 데이터 자체의 오류가 없어야 한다.

AI 데이터 업체들은 음식 사진을 찍어 올리거나 부모, 자식 간 대화를 녹음해 올리는 것만으로도 보수를 지급한다. 올해 정부의 ‘데이터 댐’ 사업 가운데는 ‘한국인 방언 발화 데이터(강원·경상·전라·제주·충청도)’가 있다. 사투리로 말한 것만을 녹음해 올려도 일로 인정받고 보수를 받을 수 있다는 얘기다. 지역별로 ‘조용한 환경에서 2000명 이상의 화자가 말한 3000시간 이상의 음성 데이터셋’을 모을 예정이다.

‘라벨링’은 수집, 생산한 데이터를 기계가 읽을 수 있도록 가공하는 작업이다. 데이터는 날것 그대로의 상태이기 때문에 AI가 어떤 것을 학습해야 하는지 일러주는 일종의 ‘가이드 작업’이 필요하다. 여기에 투입되는 사람들이 바로 ‘라벨러(labeler)’다. 사람 얼굴 사진에서 AI가 학습할 수 있게 ‘눈’ ‘코’ ‘입’을 정해주고 문장을 번역한 말뭉치를 만들어낸다.

라벨링 작업 이후에는 ‘검수’ 단계를 거친다. 오타가 있는지, 누락된 데이터가 있는지 체크한다. 마지막 검수 단계는 전문성이 있고 숙련도가 높은 사람들이 필요하다. 윤화묵 한국과학기술정보연구원(KISTI) 책임연구원은 “AI 연구는 ‘정제된 데이터의 싸움’이라고 이야기한다”며 “정제된 데이터를 ‘누가 더 많이 갖고 있는가’가 ‘어떻게 기술로 잘 만들 것인가’만큼이나 중요한 부분”이라고 말했다.

주목할 점은 라벨링 작업에 사람의 판단이 개입한다는 것이다. 화질이 선명하지 않은 이미지 데이터 라벨링을 할 경우에는 희미한 물체를 어디까지 식별해야 하는지 기준을 세우기 어렵다. 알쏭달쏭한 상황들이 생길 때마다 라벨러는 스스로 고민해 결론을 내리거나 상급자와 협의하는 과정을 거친다. 노형주 한국자동차연구원 책임연구원은 “일정 부분은 주관적인 판단을 해야 하는 경우가 많다”며 “이 판단이 잘못되면 열심히 작업해도 AI에 학습시킬 수 없는, 써먹지 못하는 데이터가 되기 때문에 이해도와 숙련도가 중요한 작업”이라고 설명했다.

업체들은 데이터의 정확도를 올리기 위해 검수 시스템을 정교하게 짜 놓는다. 검수를 통과하지 못한 데이터에는 보수를 지급하지 않는다. 과거 실수가 많았던 작업자의 작업물은 한 번 더 검수한다. 업체 내부에는 전문 검수 인력을 둔다.

신진섭 KISTI 선임연구원은 “(논문 데이터를 입력하는 과학기술 기계학습 데이터 구축 사업의 경우) 한 사람의 작업이 끝날 때마다 다음 사람이 검토를 하는데 이때 ‘반려’를 누르게 되면 처음 단계의 사람에게 (재작업 요청이) 가는 게 아니라 바로 전 단계 검토자가 책임지고 재작업을 해야 한다”며 “마치 거미줄처럼 서로 검토하고 책임지도록 설계해 여러 단계 검수를 거치면 (정확도가) 좋아질 수밖에 없다”고 말했다.

전문가 필요한 영역 증가 중

AI가 여러 분야로 확산되면서 데이터 노동은 단순·반복 작업의 영역을 넘어서고 있다. 의료나 법률 분야에서 데이터 식별 업무는 해당 분야 전문 지식이 있는 사람만 가능한 경우가 많다. 현재 정부 예산으로 진행 중인 ‘K패션 이미지 데이터 구축 사업’이 그런 사례다.

이 사업은 실시간 패션 트렌드를 파악하거나 단기 패션 트렌드를 예측하기 위해 120만건 분량의 패션 이미지 데이터 세트를 구축하고 있다. 모두 두 차례 라벨링 작업을 거치는데 1차 라벨링은 수도권 지역 마이스터고 학생과 경력단절 여성 등 200여명이 수행했다. 이들은 사진 속 이미지를 보고 해당 옷의 카테고리를 ‘상의’ ‘하의’ ‘외투’ 등으로 구분하고 색상을 입력했다. 대표 수행 기관인 오피니언라이브 조인호 대표는 “이미지를 데이터화하는 기초 작업은 숙련도가 크게 필요하지 않아 사회적 약자로 인식되는 이들을 우선 고용했다”고 말했다.

2차 라벨링은 ‘전문가’들이 맡았다. 이화여대 신산업융합대학원 교수진과 대학원생 50여명은 ‘상의’ ‘하의’ 등 라벨이 붙은 의류 사진을 토대로 스타일을 분석하고 있다. 이들은 셔츠의 색상이나 소재, 패턴 등 디자인 정보를 토대로 ‘로맨틱’ ‘젠더리스’ 등 22개 스타일로 분류한다.

홍콩중문대가 지난해 의류 이미지 80만장을 담아 공개한 데이터셋(Data set) ‘딥패션’의 일부. 상의나 하의, 원피스 등 의류 형태에 맞게 이미지 영역을 세밀하게 지정하고 촬영 각도에 따라 다양한 이미지 데이터를 구축한 것이 특징이다. 이 데이터셋은 개인에게 어울리는 의상을 추천해주는 AI 기술 개발 등에 활용될 수 있다. 한국정보화진흥원 AI Hub 사이트

올해 정부의 ‘데이터 댐’ 사업 과제 중 헬스케어 분야의 데이터 상당수는 전문의의 참여를 필요로 한다. ‘뇌혈관 질환 진단을 위한 의료영상 데이터’ 구축 과제는 전문의가 판독한 영상 데이터 2만건 이상에 대한 라벨을 생성할 예정이다. ‘수면장애 진단을 위한 데이터’와 ‘구강 질환 영상 데이터’도 전문의의 판독을 요구한다. 박정은 한국정보화진흥원 AI데이터추진단장은 “데이터 가공·검수하는 작업에서 전문 지식을 보유한 이들이 작업을 해야 하는 경우도 있으므로 ‘인형 눈알 붙이기’ 업무가 전부는 아니다”고 말했다.

얼굴 공개하고 하루 100만원도

데이터 노동의 보상은 작업 성격에 따라 격차가 크다. 보통 이미지 속 글씨를 입력하는 단순 작업은 한 장당 40원, 많게는 80원이 지급된다. 정부가 ‘데이터 댐’ 구축을 목표로 현재 진행하는 170개 과제에서는 시간당 최저임금 수준의 보상이 주어진다. 일반 기업의 라벨링 업무보다 높게 책정됐다.

까다로운 데이터는 수집 자체가 ‘돈’이 된다. 자신의 얼굴을 노출하는 조건으로 영상을 촬영하는 경우에는 단가가 비싸다. 딥페이크 영상을 탐지하는 AI 기술 개발을 위해서는 얼굴이 들어간 영상이 필수적이다. 한 참여자는 취재팀과의 인터뷰에서 “12시간 가까이 75개 스크립트를 읽고 질문에 대답하는 모습을 영상으로 찍고 하루 100만원을 받았다”고 말했다. 이 참여자는 얼굴과 목소리가 모두 노출되고 이를 AI 학습용 데이터로 활용한다는 조건을 받아들였다. AI 데이터 업체 테스트웍스에서 진행하는 ‘아기 피부 사진’ 수집 업무의 경우 1장당 1500원을 지급한다. 실제 아기를 촬영해야 하고 다른 조건도 까다로워 보상이 비교적 높은 편이다.

말뭉치 번역의 경우에도 언어 능력에 따라, 기존 작업량에 따라 단가가 다르게 지급된다. 정보화진흥원 박정은 단장은 “AI 기술이 발전할수록 요구하는 데이터 라벨링 수준도 함께 높아진다”며 “전문성을 활용할 수 있는 작업도 있으므로 숙련성과 전문성이 함께 가는 일자리가 될 것으로 기대한다”고 말했다.

이슈&탐사2팀 권기석 김유나 권중혁 방극렬 기자 keys@kmib.co.kr

[AI를 위해 일한다. 데이터 노동의 등장]
▶①“내가 로봇의 비서라니…” 인간 노동이 일구는 AI [이슈&탐사]
▶②딥페이크 범죄 막을 400인의 얼굴… 새로운 노동이 온다 [이슈&탐사]
▶④“아기 잠들면 일해요” 자투리 노동에 돈이 쌓인다 [이슈&탐사]
▶⑤디지털 뉴딜 핵심 데이터 댐, ‘알바 댐’ 될라… 새 안전망 필요 [이슈&탐사]

많이 본 기사

아직 살만한 세상