[경제시평] 가치중립적 알고리즘

국민일보

[경제시평] 가치중립적 알고리즘

고학수 서울대 교수 (한국인공지능법학회 회장)

입력 2020-10-06 04:03

인공지능(AI) 기술의 활용도가 늘어나면서 그 근간을 이루는 알고리즘에 대한 관심도 높아지고 있다. 알고리즘은 매우 다양한 맥락에서 활용될 수 있지만 실생활에서 흔히 접하게 되는 유형 하나는 순위를 정해주거나 추천 서비스를 제공해주는 알고리즘이다. 예를 들어 인터넷 검색 서비스에서 이용자가 찾는 검색 결과에 대해 순서를 정해 알려준다든가, 전자상거래 업체에서 특정 유형의 상품 순위를 정해 추천해주는 알고리즘을 생각해 볼 수 있다.

사람이 개입해 순위를 정하거나 추천하는 것과 알고리즘을 이용해 결과를 제시하는 것 사이에는 어떤 차이가 있는가. 사람이 개입하는 경우에 비해 AI 알고리즘은 더 공정한가. 최근에는 포털에서 제공하는 뉴스 서비스를 둘러싸고 알고리즘의 ‘가치중립성’에 관한 논란이 벌어지기도 했다.

알고리즘과 관련해 공정성 논란이 발생할 수 있는 배경에는 다양한 가능성이 있다. 이 중 데이터에 관해서 보면 AI 학습용 데이터에 통계적 편향이 있는 경우를 들 수 있다. 예를 들어 안면인식 알고리즘 개발 과정에 이용된 학습용 데이터에 여성 이미지가 충분히 포함돼 있지 않다면 여성에 대해선 인식률이 현저히 떨어지는 알고리즘이 개발될 가능성이 높다. 통계적 편향이 존재하지 않더라도 학습용 데이터가 현재에는 적절한 것으로 여겨지지 않는 과거의 사회적 관행을 반영하는 경우에 문제가 발생할 수 있다. 과거 여성의 경제활동이 활발하지 않던 시절의 데이터를 활용해 대출 알고리즘을 구축한다면 여성에게 불리한 조건의 대출 의사결정이 이뤄지게 될 것이다.

그렇다면 어떻게 공정한 알고리즘을 구축할 것인가. 이에 관해 확립된 기준은 없다. 오히려 매우 다양한 기준이 제시되고 있는 중이다. 지금까지의 논의는 넓게 세 가지 유형으로 나눠 볼 수 있다. 첫째는 입력값을 통제하는 방식이다. 남녀차별적 알고리즘이 문제라면 입력값에 성별에 관한 사항이 아예 포함되지 않도록 하는 것이다. 알고리즘을 통해 남녀를 구분해 판단하는 것 자체가 불가능하도록 만드는 것이다. 이 방식의 한계는 대체변수(프록시)를 통제하는 것에 어려움이 있을 수 있다는 점이다. 입력값에 성별을 포함하지 않더라도 예를 들어 여학교에 다닌 이력이 대체변수로 이용될 수 있을 텐데 이런 대체변수를 모두 통제하기는 어려울 수 있다.

둘째 방식은 입력값이 아니라 결과값을 통제하는 방식이다. 대출 의사결정의 예를 들면 성별에 따라 대출 조건에 현저한 차이가 나타날 경우 이를 공정하지 않은 것으로 보고 알고리즘의 수정을 모색하는 것이다. 이 방식은 불공정한 상황을 판단하는 기준을 정하는 것 자체에 논란이 있을 수 있다는 한계가 있다. 성별에 따라 대출 조건이 동일하지 않은 것 자체는 자연스러운 것일 수 있는데, 남녀에 따른 차이가 어느 정도가 될 때 이를 공정하지 않은 것으로 볼 것인지에 관한 기준을 정하는 데에 논란이 따를 수 있는 것이다.

셋째 방식은 예측값과 결과값을 비교해 판단하는 방식이다. 대출의 예에서 성별에 따른 차이가 어떻게 나타날지 예측한 값과 실제 결과값 사이의 차이를 비교·판단하는 것이다. 다양한 세부적 방법이 있을 수 있는데 이 경우에도 공정성을 훼손한 것으로 판단하게 될 기준을 정하는 것이 간단하지 않을 수 있다는 한계가 있다.

알고리즘을 둘러싼 중립성이나 공정성의 문제는 근래에 관심이 크게 늘어난 영역이다. 이를 판단하기 위한 다양한 기준과 방법론이 제시되고 있지만 아직은 초기 단계에 머물고 있다. 우리 사회가 접하게 될 개별 상황과 맥락에 따라 적절한 게 어떤 것일지에 대해 훨씬 더 많은 논의가 필요하다.

고학수 서울대 교수 (한국인공지능법학회 회장)

아직 살만한 세상