[경제시평] 윤리적 인공지능의 유용성

국민일보

[경제시평] 윤리적 인공지능의 유용성

고학수 서울대 교수·한국인공지능법학회장

입력 2021-01-26 04:05

새해부터 인공지능(AI)에 대한 사회적 관심이 새로이 나타났다. 이루다 서비스와 관련된 AI 윤리 논란이 불거지면서 AI는 이제 기술의 영역을 넘어 사회적 규범의 영역으로 확대돼 주목받게 됐다. AI 윤리에 관해 규율하는 강력한 법제도가 필요한 것 아닌가 하는 주장이 제기되기도 한다. 한편으론 법제도에 관한 강조는 자칫하면 새로운 기술 발전을 불필요하게 저해하는 것 아닌가 하는 우려의 시각도 있다. 어떤 입장이건 이제는 AI 기술이 사회 전반에 도입되는 것에 관해 어떠한 시각을 가지고 바라볼 것인지를 둘러싸고 더욱 깊이 있는 고민이 필요한 시점인 것은 분명해 보인다.

논란이 촉발된 것은 대화형 챗봇인 이루다 서비스의 제공 과정에서 제시된 응답 내용과 관련된 것이었다. 성희롱적 응답이나 장애인, 성소수자에 대한 혐오의 시각이 담긴 응답 등 문제 사례들이 계속 나타나면서 해당 챗봇 서비스 전반에 대한 의혹이 순식간에 폭발적으로 나타나게 됐다. 서비스를 제공한 기업의 의도와 상관없이, 이용자들은 이루다에게 사회적 가치 판단이나 규범적 함의가 담긴 질문들을 쏟아냈고 이를 계기로 AI 윤리 영역에 대한 광범위한 관심이 촉발된 것이다.

과연 AI는 윤리적인가? 윤리적이어야 하는가? 더 나아가 AI는 얼마나 유용한 것인가? 이러한 질문은 결국 AI 판단이 인간에 의한 판단과 비교할 때 어떤 차이가 있는지 그리고 인간의 판단 과정을 개선하는 데에 어떤 도움을 줄 수 있을지의 문제로 귀결된다. 유수의 학술지에 보고된 미국에서의 한 실험 결과가 유용한 시사점을 준다.

이 실험은 취업을 준비하는 후보자의 이력서를 여러 개 만들어 기업들에 제출해 반응을 살펴보는 방식으로 진행됐다. 이를 통해 확인된 가장 두드러진 결과는, 백인 이름을 가진 후보자는 유색인종 후보자보다 훨씬 더 높은 비율로 회사의 관심을 받고 연락이 이뤄졌다는 것이다. 이런 결과는 고용시장에서 상당한 수준의 인종차별이 있음을 보여주는 것이라 할 수 있다. 하지만 실제 현실에서의 문제는 개별 사안에서 인종차별을 증빙하는 것에 있는 것이 보통이다. 어느 고용주가 스스로 자신이 인종차별을 한다고 인정하겠는가. 차별에 관한 명확한 분석 결과를 제시하더라도, 이는 통계적 추론일 뿐이라고 주장하면서 차별을 인정하지 않는 것이 흔한 반응일 것이다.

인간은 이러한 맥락에서 매우 불투명하다. 의사 결정에 대한 표면적 명분과 실제 마음속의 이유가 다른 경우가 많을뿐더러, 차별에 대해 밝혀낸다고 해도 생각 자체는 바꾸지 않는 경우가 많을 것이다. AI는 이런 점에서 인간과 크게 다르다. 대부분의 AI는 일정 수준의 투명성 확보가 가능하다. 고용 의사 결정의 과정에서 AI 도움을 받는다고 할 때, 차별이 있는지 그리고 차별의 원인은 무엇인지에 관해 파악 가능한 것이 일반적이다.

실제로 미국 기업 아마존에서는 이력서를 검증해 고용 추천을 하는 AI를 개발하는 사업을 준비하다가 멈춘 바 있다. 개발 과정에서 AI가 지속적으로 여성에게 불리한 평가를 하는 것을 발견했고, 그 기본적 원인이 회사가 AI 개발을 위해 이용한 학습 데이터에 있음이 밝혀졌기 때문이다. 과거 이 회사에 지원했던 이들의 이력서를 학습 데이터로 이용했는데 지원자 중 여성의 비율 자체가 상당히 낮았던 데에 문제의 출발점이 있었던 것이다. AI는 이처럼 사회에 존재하는 편향과 차별을 구체화해 파악하게 해주는 유용한 도구로 기능할 수 있다. 물론 편향과 차별을 파악한 후 불편함을 느끼는 것은 인간의 몫이다. 개선 방법을 개발하는 것 또한 인간의 몫이다.

고학수 서울대 교수·한국인공지능법학회장

아직 살만한 세상