매일경제 기고문입니다.
http://www.mk.co.kr/news/business/view/2020/09/959340
통계학에 근원을 둔 `롱테일(longtail)`이란 단어는 발생 가능성이 낮은 다수의 사건들이 통계분포의 한쪽에 길게 분포돼 있는 현상을 말한다. 예를 들어 아이폰의 안면인식 시스템은 사용자의 평상시 얼굴은 잘 인식하지만, 아침에 막 잠이 깨어 부스스한 얼굴(롱테일)을 인식하는 데에는 어려움을 겪기도 한다.
롱테일은 사회 여러 분야에 다양한 함의를 가진다. 일례로 온라인 회사는 일부 소비자만이 찾는 다수의 독특한 품목들을 판매하는 롱테일 소매 전략을 통해 소수의 인기 품목을 대량으로 판매하는 전략보다 더 큰 시장점유율을 얻을 수도 있다. 실제로 아마존 매출의 상당 부분은 오프라인 상점에서 구할 수 없는 독특한 책들로 이뤄져 있는 것으로 알려져 있다.
롱테일은 인공지능(AI) 시스템의 설계와 운영에도 큰 영향을 미친다. 현존 AI 시스템은 롱테일 사건에 특히 취약한데, 이는 그 발생 가능성이 낮아 대량의 데이터를 필요로 하는 AI 학습 데이터에 포함돼 있지 않기 때문이다. 예를 들어 2016년 3월 폭설 예보가 있었던 미국 북동부 지역에서는 사고를 예방하기 위해 고속도로에 다량의 소금을 뿌렸는데 이때 테슬라는 차선과 소금 라인을 혼동해 자율주행에 어려움을 겪었다. 차선과 평행한 모양의 소금 라인은 자율주행차의 학습 데이터에 없었던 롱테일에 속한 사건이었기 때문이다.
롱테일 현상은 `딥러닝(deep learning)`과 같이 복잡한 알고리즘에 기반한AI 시스템의 추론 과정이 인간이 이해할 수 없는 블랙박스 안에 감춰져 있을 경우 특히 중요한 의미를 가진다. 이는 `AI의 어두운 비밀`이라고 불리기도 하는데 이 경우 학습 데이터가 존재하지 않는 롱테일 사건에 대한 AI의 반응을 예측하기 어렵기 때문에 AI에 대한 신뢰는 크게 떨어질 수밖에 없다. 이는 동시에 왜 현존 AI 시스템이 인간의 개입을 필요로 하는지를 보여준다.
1983년 9월에 발생했던 소련 조기경보위성 오류는 이에 대한 생생한 교훈을 던져준다. 소련의 첩보위성은 자국으로 향하는 5개의 미국 대륙간탄도미사일(ICBM)을 탐지했는데, 당시 소련은 상호확증파괴(Mutually Assured Destruction·MAD)로 불리는 게임이론적 군사 전략에 기반해 미국의 미사일이 자국의 대응 시스템을 파괴하기 전 즉각적인 핵 공격을 시작하는 것을 원칙으로 하고 있었다. 스탠리 큐브릭의 영화 `닥터 스트레인지러브` 배경이 되기도 한 이 이론은 한 국가가 공격을 시작할 경우 상대 국가가 전면적 핵공격을 감행할 것이라는 사실을 서로에게 공표해 전쟁을 예방할 수 있다는 논리에 기초한다. 예를 들어 상대방의 공격미사일이 탐지되는 즉시 핵공격을 개시하는 시스템을 갖추고 인간이 이를 변경할 수 없도록 프로그래밍해 둔다면 어느 나라도 공격을 시작할 수 없을 것이다. 다행히도 당시 경보 시스템을 모니터링하던 페트로프 중령은 시스템 에러로 간주해 규정대로 반격을 시작하지 않았다. 이보다 약 3주 전 소련은 항로를 잃고 소련 영공으로 이탈한 대한항공 여객기를 격추시켰는데 이로 인한 사망자 269명 중에는 하원의원 등 여러 미국인도 포함돼 있었다. 이러한 사건들로 인해 당시 미·소 관계는 극도로 악화돼 있었다. 이런 상황에서 인간이 개입할 여지를 남겨두지 않고 컴퓨터 시스템에 결정권을 위임했다면 상상하기 어려운 재앙이 초래됐을 것이다.
1998년 숄스와 머튼이라는 저명한 노벨 경제학 수상자들이 참여해 정교한 수학적 모델로 투자수익을 얻고자 했던 롱텀캐피털매니지먼트의 파산이 남긴 교훈처럼 롱테일 사건은 `검은백조`와 같이 예기치 못한 시기에 찾아와 우리 사회에 큰 영향을 미친다. AI가 가져다줄 혜택을 성공적으로 활용하기 위한 출발점은 AI의 성과와 함께 그 한계를 명확하게 인식하는 일이다.
|