[태원준 칼럼] AI, 고삐가 풀렸다

국민일보

[태원준 칼럼] AI, 고삐가 풀렸다

입력 2023-02-17 04:20 수정 2023-02-19 12:51

‘깜깜이’ 정보처리 과정 탓에 블랙박스라 불리는 신경망 AI
챗GPT가 폭발적 관심 끌자 빅테크 기업들 AI 상품화 경쟁
인류 문명의 게임체인저 기술 아직 그 통제력 확보 못했는데
신뢰성 안전성은 뒷전 밀린 채 시장에 쏟아져 나오려 한다
인간사회 내재된 자본의 속성 그 기저에 깔린 인간의 욕망이 그렇게 만들었다

1990년 즈음 인공지능(AI) 업계에 겨울이 찾아왔다. 사람처럼 말하고 생각하는 기계를 만들려는 이들이 30년 넘게 따랐던 방법론의 한계가 명확해졌다. 그들은 컴퓨터를 가르칠 수 있다고 믿었다. 정교한 프로그래밍을 통해 지능을 심으려 했는데, 사람처럼 굴게 하려면 입력해야 할 규칙과 변수가 너무 많았다. ‘프로그래밍 AI’의 구현 범위가 특정 영역에 국한되자 실망한 투자자들이 하나둘 떠나면서 돈줄이 말랐다. 이후 20년간 계속된 자금난의 시기를 그 바닥 사람들은 ‘AI 윈터’라고 부른다.

다시 봄이 온 것은 2010년대 들어서였다. 줄곧 변방에 머물던 다른 방법론, 기계도 사람처럼 경험하고 학습하게 해보자는 아이디어가 대안으로 떠올랐다. 프로그래밍이 주입식 교육이라면 이는 창의성 교육인 셈인데, 빅데이터의 출현으로 컴퓨터가 경험하고 학습할 환경이 조성됐다. 스스로 공부하게 만들 방법은 뇌과학이 힌트를 줬다. 인간의 뇌는 수많은 뉴런(신경세포)과 그것을 이어주는 시냅스가 그물망을 이루고 있다. 이를 본떠 인공 신경망을 만들고 빅데이터 환경에 풀어놓아 자율학습(딥 러닝)을 시키자 알파고는 바둑을 배웠고 챗GPT는 사람처럼 말하게 됐다.

그런데 ‘신경망 AI’가 진화할수록 프로그래밍 AI에 향수를 느끼는 연구자가 많아졌다. 그들은 프로그래밍 AI를 GOFAI(Good Old-Fashioned AI)라고 불렀다. ‘멋진’ 구식 인공지능. 구식인데 멋지다고 한 까닭은 인공지능이 틀린 답을 내놓을 때 적어도 왜 틀렸는지 확인할 순 있었기 때문이다. 사람이 해준 프로그램에 따라 작동하니 프로그램을 점검하면 오류 원인을 찾을 수 있었는데, 신경망 AI는 그게 되지 않는다.

우리가 우리의 뇌를 너무 모른다는 게 문제였다. 뇌에는 1000억개 뉴런과 100조개 시냅스가 있다. 사람의 생각이 이뤄지는 뇌에서 저 많은 뉴런과 시냅스가 어떻게 정보를 처리하는지 우리는 알지 못한다. 뇌과학이 발달했다지만, 어떤 부위에서 어떤 정보를 처리한다는 정도만 어렴풋이 짐작할 뿐이다. 뇌의 작동원리를 모른 채 뇌를 본떠 만든 탓에 인공 신경망도 신비의 영역이 됐다.

챗GPT의 알고리즘은 의외로 단순하다. 자율학습 시간에 교사가 할 일이 별로 없듯이, 기본적 규칙만 알려주면 돼서 코딩이 몇 줄 되지 않는다. 나머지는 수십억개 인공 뉴런과 1750억개 매개변수(시냅스 역할)가 알아서 하니, 방대한 학습량 중 어떤 정보를 어떻게 활용해 질문에 답하는 건지 확인할 길이 없다. 챗GPT에게 답변 내용의 출처를 물으면 “그런 기능은 없다”고 말하는 것 역시 그래서다. 신경망 AI를 ‘블랙박스 AI’라고도 한다. 그 속을 알 수 없어서.

블랙박스란 특성은 신경망 AI의 치명적 결점으로 꼽혀 왔다. 복잡한 분석과 판단을 맡기려고 AI를 만드는데, 그 과정이 깜깜이로 이뤄지면 검증할 수 없고, 검증하지 못하면 신뢰할 수 없으니까. 더구나 딥 러닝 교실인 인터넷은 편견과 가짜뉴스 같은 유해 정보도 가득하다. 이 한계를 극복해 신경망 AI를 인간의 통제 범위 안에 두려는 여러 시도가 진행 중이다. 판단 결과와 과정을 함께 제시토록 하는 ‘설명 가능 AI’란 개념이 등장했고(메타는 ‘Explainable AI 개발팀’을 두고 있다), 각 분야 전문가를 동원해 AI가 유해 정보를 걸러내도록 보충학습도 시킨다(AI 람다가 의식을 가졌다고 주장했던 구글 직원도 이를 위해 고용된 윤리학자였다).

빅테크 기업들이 오픈AI(챗GPT 개발사)에 일격을 당하며 인공지능 주도권을 빼앗긴 이유가 이것이었다. 그들은 매우 조심스러워했다. 투명성과 안전성이 담보되지 않은, 인간이 100% 통제할 수 없는 AI를 시장에 내놨다가 문제가 터질 경우 잃을 게 너무 많았다(서둘러 공개한 ‘바드’의 말실수로 구글 주가가 폭락한 것처럼). 반면 신생업체 오픈AI는 밑져야 본전이고 잘되면 천문학적 자금을 끌어 모을 수 있으니 미완인 챗GPT의 대중화에 전격 나섰는데, 이것이 AI 개발 판도를 바꿔버렸다.

챗GPT가 폭발적 관심을 끌자 신중했던 빅테크들이 앞 다퉈 AI 상품화에 뛰어들고 있다. 갑자기 달아오른 경쟁은 속도전을 불렀고, 투명성 신뢰성 안전성 같은 키워드를 뒷전에 밀어냈다. 문명의 게임체인저란 기술이 인간의 통제를 벗어난 채 시장에 쏟아지려 한다. 규제는 시작도 안 됐는데, AI의 고삐가 풀렸다. 인간 사회를 규정하는 자본의 속성, 그 기저에 있는 인간의 욕망이 그렇게 만들었다.

태원준 논설위원 wjtae@kmib.co.kr

아직 살만한 세상