미래에 어떤 일이 일어날지 데이터와 인공지능 알고리즘으로 예측하는 연구를 하고 있다. 복잡한 인공지능 모델의 의사결정 과정을 사람이 이해하기 쉽도록 해석을 제공하는 설명가능 인공지능 연구도 병행하고 있다.
<예언자들>은 각 분야에서 연구 중인 KAIST 교수들이 특정 시점을 전제로 미래를 예측해 쓰는 가상의 에세이입니다. 그저 공상 수준이 아니라 현재 연구 성과와 미래의 실현 가능성을 정교하게 조율하기에, <예언자들>은 스프 구독자들에게 짧게는 10년, 길게는 50년 이상 과학이 내다보는 미래를 미리 살펴볼 수 있게 할 것입니다. 인공지능 기술을 통해서 만들어진 지능적인 시스템은 과거 SF영화 및 드라마의 단골 소재였습니다. 인공지능 기술로 만들어진 스스로 생각하고, 생각하고 말할 수 있는 대상은 로봇, 자동차뿐만 아니라 대규모 시스템을 조정하는 중앙 컴퓨터에 이르기까지 다양합니다. 과거 SF 영화에서는 이런 인공지능 시스템의 등장을 우리 생각보다 조금 더 빠르게 예측한 경우가 종종 있었습니다. 여기서는 사람이 타면 자동으로 운전을 해주는 자율주행 자동차, 사람의 행동을 미리 예측하는 시스템, 자유 의지를 갖고 대형 시스템을 자동으로 운전하는 시스템이 언제 우리 삶에 다가올지 함께 살펴보고자 합니다. '키트'가 현실로... 자율주행 자동차 1980년대 후반 '전격 Z작전'이라는 미국에서 제작된 드라마가 큰 인기를 끈 적이 있습니다. 물론 유명 배우와 흥미진진한 스토리도 한몫을 했지만, 그중에 '키트'는 주인공이 손목에 찬 시계를 통해서 통신이 가능했고, 스스로 상황 판단이 가능한 인공지능 기술을 갖고 있는 자동차였습니다. 고성능 카메라, 적외선 야간 카메라를 갖고 있어서, 주변의 사람과 상황을 인식해서 대응하고, 목표로 하는 사람의 성형 전 얼굴을 추정하는 기능도 함께 갖고 있었습니다. 다국어 통역을 하는 것은 물론이고, 주인공과 농담 섞인 자연스러운 대화를 하는 것도 가능하고 시간이 지나면서 주인공의 성향을 파악해서 주인공과 비슷한 말을 갖는 등 가치관을 배우기도 합니다. 물론 키트는 점프를 하거나 짧은 시간이지만 하늘을 나르고, 수상 주행을 하고, 한쪽 바퀴를 세워서 주행하거나 기름을 뿌려서 악당을 물리치기도 했습니다. 앞으로 인공지능 기술이 10년 정도 발전을 하면, 위 '키트'의 기능 중 몇 가지는 우리가 실제 자동차에서 더 많이 쓰게 될 것 같습니다. 모든 도로와 주행 상황에서 완전 자율주행을 하는 레벨5(완전 자율주행)는 아직 달성하지 못했지만 현재도 사람이 운전을 책임지는 한에서 차량의 조향과 가감속을 자동화하는 레벨2(부분 자동화) 기능을 갖고 있는 상용차가 많이 있습니다. 앞으로 10년 정도 지나면, 고속도로와 같은 특정 조건의 구간에서 자동차가 운전을 책임지는 레벨3(자동화)를 달성하는 것은 어렵지 않을 것으로 보입니다. 또한, 시내 도로에서 자율주행 자동차가 잘 주행할 수 있도록 교통신호나 주차 시스템 등과 연계되어 운전자의 개입 없이도 자동으로 운전하는 레벨4(고등 자율주행)로 운전하는 자동차가 많아질 것으로 생각합니다. 더불어 사람의 언어를 배우고 처리하는 인공지능 기술이 급격하게 발전하면서 사람과 농담을 섞어서 이야기하고, 운전자의 선호를 점차 배워가면서 운전자가 좋아하는 가치관이나 주제에 대해서 이야기하는 기능도 자동차에 탑재될 것으로 조심스럽게 예상합니다. 그러나 그 과정 중에 사람들이 자율주행 자동차의 기능을 너무 믿고 운전하다가 갑자기 변화한 자연 상황-우박, 폭우 등에서 사고가 나거나, 통신장애나 자기장의 간섭 등으로 자율차의 기능이 부분적으로 손상되어 이용자들이 크게 불편을 겪는 경우도 있을 것으로 생각합니다. 그 과정 중에서 복잡한 자율주행 자동차가 어떤 원리로 작동하는지 분석하고 그 근거를 제공해 줄 수 있는 설명 가능한 인공지능 기술이 안전한 자율주행 자동차를 만드는데 크게 기여할 것으로 생각합니다. '마이너리티 리포트'처럼... 미래 행동을 평가하는 인공지능 2002년에 개봉한 '마이너리티 리포트'라는 영화에서는 앞으로 30년 후인 2054년에는 범죄가 일어날 미래의 일을 예측하는 시스템이 개발되어 살인과 같은 특수 범죄가 일어나기 전에 미리 경고를 주어, 특수 경찰이 범죄 발생을 막는 미래의 모습을 보여줬습니다. 영화에서는 미래를 예측하는 것이 인공지능의 역할은 아니었지만, 살인과 같은 범죄가 일어날 것을 미리 예측하고 잘 막을 수 있다면, 일반 시민의 안전을 지키고 안전한 사회를 만드는데 기여할 것으로 보입니다. 영화는 예측 시스템이 틀린 경우에 선량한 사람이 범죄자로 몰릴 수도 있고 이 예측 시스템에 의해서 개인의 삶이 제약을 받을 수 있는 것을 보여주기도 했습니다. 현재에도 인공지능은 사람의 미래를 평가하는 데 사용되고 있습니다. 미국의 법원은 수감자의 가석방을 결정할 때, 수감자의 재범 확률을 예측하는 인공지능 기술이 들어간 컴파스(COMPAS) 시스템을 사용한다고 알려져 있습니다. 즉, 수감자가 미래에도 또 범죄를 저지를지 인공지능 시스템이 예측을 하고, 가석방의 여부에 영향을 주는 것이죠. 그럼, 이런 시스템이 완벽하지 않으면 어떻게 될까요? 실제로 컴파스 시스템이 인종별로 다른 편향된 예측을 한다는 것이 밝혀져 수정이 필요하다는 것이 큰 사회적 이슈가 된 적이 있습니다. 이는 사람의 행동을 예측해서 활동에 제약을 줄 수 있는 인공지능 시스템의 경우에는 내부 의사결정을 분석하고 사람의 입장에서 불공정한 것이 없는지 확인하는 것이 중요한 것으로 밝혀진 사례라고 볼 수 있습니다. 미국의 아마존은 채용 과정에서 인공지능 시스템을 활용해서 신규 직원의 이력서를 기존에 성과를 잘 내고 있는 직원들의 이력서와 비교해서 회사에 더 적합한 직원을 선발한다고 알려져 있습니다. 일본의 셉테니 홀딩스는 각 직원의 업무 성과를 모두 수치화하니 직원 1인당 데이터의 양은 신입이 약 180건, 입사 10년 차는 800에서 1,000건을 넘는다고 보고했습니다. 이런 빅데이터를 인공지능 인사 평가 시스템의 학습에 활용해서 직원의 성과를 특정하여 인사 평가에 참고하고, 퇴사율을 예측하여 보다 적합한 업무나 부서에 미리 배치하여 퇴사율을 낮출 수 있다는 결과를 보고하였습니다. 결과적으로 보면 회사와 적합도가 좋은 직원을 선발하고 퇴사할 직원을 미리 예측하여 부서를 배치한다고 하면 긍정적으로 보입니다. 그러나 만약 내가 다니고 있는 회사가 이런 인사평가 시스템을 사용한다면, 그리고 그 결과가 그대로 받아들이기 어려운 것(예- 나는 그런 생각을 한 적이 없는데, 곧 퇴사할 직원이라고 예측)이라면 이런 억울함을 어떻게 해결할 수 있을까요? 그런데, 앞으로 20년 내에는 많은 기업들이 직원들의 업무 성과를 디지털화하고 이런 빅데이터 시스템을 인공지능 시스템으로 분석해서 인사 평가의 보조 자료로 참고하게 될 가능성이 있어 보입니다. 현재도, 해외 유수의 프로축구 리그에서는 온라인 인공지능 시스템이 실시간으로 각 선수들의 활동과 기록을 분석해서 경기 전에도 선수들의 컨디션과 결과를 예측하는 경우도 많으니 이런 것이 일반 회사원에 적용되는 것도 시간의 문제가 아닐까 생각합니다. 다만, 이 경우에도 인공지능 시스템이 혹시 틀리지는 않았을지 사람이 결정하는 기존 인사 시스템에서 배려할 수 있는 개인적인 상황을 고려하지 못하고 있을 수 있습니다. 그래서 여기에서도 인공지능 시스템의 의사 결정을 투명하게 분석할 수 있고 투명하게 공개하는 것이 중요합니다. '할9000'의 실현? 대규모 시스템을 조정하며 사람에 대항하는 인공지능 1968년에 개봉한 스탠리 큐브릭 감독의 '스페이스 오디세이 2001'이라는 영화를 보면 'HAL 9000'이라는 스스로 생각하고 시스템을 제어하면서 사람과 대화하는 컴퓨터가 나옵니다. 영화에서는 1992년에 일리노이 대학교 어바나 샴페인에서 운영에 들어갔다고 나옵니다. 제가 2005년에 일리노이대학교 컴퓨터학과에 입학해서 2012년에 박사 학위를 받으면서 졸업을 했는데요, 안타깝게도 그런 컴퓨터를 본 적이 없습니다. 대신, 2006년 동갑내기 일리노이대 동문이 한화 2조 원 정도의 가치로 Youtube를 구글에 판 것을 볼 수는 있었습니다. 물론 지금 Youtube의 가치는 그보다 몇십 배는 더 클 것으로 생각되기는 합니다. 영화에서 HAL 9000은 우주 비행사들과 함께 목성으로 여행하는 중앙 컴퓨터입니다. 우주선 전체를 모니터링하면서 관리하고 이상이 있을 경우 우주 비행사들에게 보고하는 역할을 합니다. 사건의 발단은 HAL 9000이 실수를 하면서 시작합니다. HAL이 우주선의 정상적으로 작동하는 안테나가 고장났다고 보고하는 실수를 합니다. 우주 비행사들은 HAL을 정지하는 것이 좋겠다고 이야기합니다. HAL은 그 이야기를 듣지는 못했지만 우주 조종사들의 입 모양을 통해 알아서 우주 비행사들을 궁지에 몰아서 죽이기 시작합니다. 이 영화에서 보는 것처럼 언젠가는 인공지능 기술이 스스로의 생존을 위해서 때로는 관리하는 사람의 생명을 위협할 수도 있습니다. 그러나, 여기서도 확인할 수 있는 것은 왜 HAL 9000이 실수를 했는지, 어떤 이야기를 했는지, 어떤 대응을 했는지에 대해서 그 이유를 알 수도 없고 안전하게 제어하는 장치가 마련되지 않은 것이 큰 문제라는 것을 알 수 있습니다. 즉, 앞으로도 큰 시스템을 제어하는 인공지능 시스템은 등장할 수 있으나 사실 더 중요한 점은 이런 인공지능 시스템을 사용하는 사람들이 인공지능의 편리성에 기대어 이런 시스템이 갖고 있는 취약점을 다 확인하지 않고 사용하게 될 수도 있다는 점입니다. 적어도 HAL 9000이 실수를 했을 때 HAL 시스템에게 직접 물어보지 않고도 사람이 어떤 문제가 있는지 분석하고 해석할 수 있었다면 HAL과 우주비행사들이 서로 얼굴을 붉히면서 목숨을 걸고 싸우지 않고 서로 화해하면서 살아갈 수도 있었을 것 같습니다. 디자인 : 박수민 더 궁금한 독자들을 위해 준비했어요! ▶ 함께 보면 좋은 주요 키워드 설명가능 인공지능(Explainable Artificial Intelligence) 복잡한 인공지능 모델 내부의 의사결정을 사람이 이해할 수 있는 수준으로 설명하는 기술. 특히 최근 많은 응용(이미지 인식, 음성 인식, 언어 이해) 분야에서 사람 수준의 성능을 보여주고 있는 심층신경망(딥러닝)과 같은 모델은 내부의 매개변수가 많고 의사결정이 복잡해서 블랙박스라고 불리는 경우가 많음. 설명 가능 인공지능은 이런 복잡한 인공지능의 의사결정을 사람이 알기 쉬운 형태로 표현하는 기술. 자율주행 레벨 미국 자동차 공학회 SAE(Society of Automotive Engineers)가 정의한 자율주행 자동차의 수준으로 0단계에서 5단계까지 6단계가 있음. 사람이 모든 것을 하는 레벨0부터, 시스템이 차간거리 조향 등을 보조하는 레빌 1, 특정 조건 내에서는 차량의 조향과 가감속을 차량과 인간이 함께 하는 부분 자동화의 레벨 2, 고속도로 같은 구간에서는 시스템이 주행을 담당하며, 위험시에만 운전자가 개입하는 레벨 3가 있습니다. 레벨3까지는 운전의 책임이 자율차가 아니라 사람에게 있습니다. 레벨4 이상은 운전의 책임이 사람이 아니라 자율차에 있고, 이런 시스템의 안정성을 확보한 것을 말합니다. 인공지능의 편향성 인공지능 모델은 학습 데이터, 학습 알고리즘, 인공지능 모델의 편향성으로 크게 나눌 수 있습니다. 편향성이란 공정하게 학습하여 모델을 배포하고 싶어도, 주어진 편향성의 한계 때문에, 공정한 예측 등을 수행하기 어려운 것을 말합니다. ▶ 함께 보면 좋은 참고자료들 전격Z작전 마이너리티리포트 스페이스오디세이 2001