2018년 2월호

4차 산업혁명과 미래

AI에 윤리를 요구할 수 있을까

  • | 유성민 IT칼럼니스트

    입력2018-02-11 09:00:01

  • 글자크기 설정 닫기
    • 자율주행 자동차가 고장 나 소유주와 길 가는 행인 3명 중 한쪽을 희생시켜야 하는 상황일 때 AI는 어떻게 판단해야 하나. 인간도 이룰 수 없는 ‘윤리적 완전성’을 과연 AI에 바랄 수 있나.
    IBM 인공지능 ‘왓슨’을 적용한 보안관제센터. [Pixabay]

    IBM 인공지능 ‘왓슨’을 적용한 보안관제센터. [Pixabay]

    인공지능(AI) 시대가 온다. 2016년 3월 알파고가 AI의 한계를 넘어섰다. 직관을 요구하는 바둑에서 고수 이세돌을 4대 1로 이겼다. 이로부터 2년이 채 지나지 않아 구글은 ‘알파고 제로’를 전문 학술지 네이처에 기재했다. 기존 알파고가 사람이 둔 바둑 기보를 익혔다면 알파고 제로는 독학으로 40일간 바둑을 배웠다. 

    놀라운 것은 알파고 제로가 기존 알파고보다 바둑을 더 잘 둔다는 것이다. 이세돌을 이긴 알파고 리에는 100전 100승으로 이겼고, 커제를 이긴 알파고 마스터에는 100전 89승을 거뒀다. AI의 발전 무한성을 보여주는 대목이다. 영국 일간지 더 데일리 텔레그래프(The Daily Telegraph)는 알파고 제로가 40일 만에 사람의 3000년 역사를 익혔다고 보도했다. 

    AI를 일상에 적용하는 사례도 빠르게 증가한다. 사이버 보안, 의료, 증권 등 여러 분야에 AI가 활용된다. IBM이 개발한 왓슨은 2012년 의료계 진출을 시작으로 다양한 분야에 적용되고 있다.

    40일간 3000년 역사 익혀

    AI 적용이 확장되다 보니 사회에 미칠 영향과 관련한 연구도 한창이다. 특히 AI 관련 윤리 연구가 큰 주목을 받는다. 2016년 12월 미국 과학기술 비영리단체 국제전기·전자기술자협회(IEEE)는 AI가 가져올 부작용을 막고자 개발자를 대상으로 ‘윤리를 고려한 설계(Ethically Aligned Design)’를 배포했다. AI 개발 시 고려할 윤리적 내용이 담겼다. 2017년 1월 유럽연합(EU)은 ‘전자인간법’을 제정했다. 핵심 요지는 AI에 법적인 지위를 보장하는 동시에 AI로부터 빚어질 위협을 방지하자는 것이다. 

    AI 윤리 연구가 활발해진 까닭은 무엇일까. 엄밀히 말해 AI는 수십 년 전부터 구현됐다. AI는 주어진 문제를 처리하는 시스템으로 정의할 수 있다. 이러한 정의에 따르면 우리 주변에 수많은 AI가 있다. 2000년대 바둑 게임에도 AI가 적용돼 있다고 하겠다. 

    그러므로 AI 윤리 논쟁은 오래전부터 진행해야 했다. 그런데 사실은 그렇지 않다. 무슨 이유에서일까. 이는 ‘자유의지’와 관련이 있다. 좀 더 구체적으로 살펴보자. 

    윤리 논쟁을 던지기 전에 AI의 문제 해결 원리에 대해 살펴보자. AI는 두 가지 방법으로 문제 해결 능력을 얻을 수 있다. ‘지식공학’과 ‘기계학습’이 그것이다. 

    지식공학은 사람이 AI에 공식을 제공해 문제를 해결하게끔 하는 방식이다. 특정 상황을 주면 지식공학 기반 AI는 공식에 따라 답을 산출한다. 지식공학의 장점은 명확하다. 공식에 맞는 상황이 주어지면 답을 정확하게 산출한다. 또한 구현이 쉽다. 공식만 시스템에 입력하면 되기 때문이다. 단점은 복잡한 상황에 적용하기 어렵다는 것이다. 공식 입력은 사람 몫이다. 따라서 사람이 유추해내기 어려운 상황에 지식공학 기반 AI를 적용하기는 어렵다. 아울러 고정적이다. 사람이 직접 입력한 공식을 바꾸지 않는 한 시스템은 공식을 기반으로 계속 동작한다.

    결정론 vs 자유의지

    자유의지 논쟁은 책임성 외에 또 다른 윤리 논쟁을 발생시킨다. 민간인을 실수로 사살한 킬러로봇을 생각해보자. 킬러로봇의 자유의지를 인정한다면 책임은 킬러로봇에 있다. 그러면 재판을 하고 벌을 내려야 한다. 근데 뭔가 어색하다. 재판과 벌은 사람만을 대상으로 하기 때문이다. 결국 이는 AI 인권과 연관된다. 

    총을 소지한 군인은 총을 원하는 방식대로 조작할 수 있다. 본인이 실수하지 않는 이상 갑자기 총이 자기를 쏘는 일은 없다. 통제권 안에 있는 것이다. 킬러로봇은 어떨까. 비록 의사소통으로 명령을 내릴 수 있다고 해도 갑작스러운 돌발 행동으로 자신에게 총을 겨눌 수 있다. 자유의지를 가졌다면 킬러로봇이 무조건 통제권 안에 있다고는 말할 수 없다. 

    그렇다면 AI에 인권을 부여해야 할까. EU는 AI를 대상으로 한 법을 제정한 상태다. 이는 AI가 자유의지와 도덕적 판단력이 있다고 믿는 것을 보여준다. 

    루치아노 플로리디 옥스퍼드대 교수는 윤리 기준을 논할 때 인간 중심에서 탈피할 필요가 있다고 주장한다. 그는 인공물도 도덕적 권리를 가져야 한다고 주장하는데, 이는 매우 급진적인 생각이다. 그의 주장에 따르면 컴퓨터 등 모든 인공물이 도덕적 권리를 가져야 한다. 결정론과 자유의지에 상관없이 말이다. 플로리디의 주장보다는 무어가 정의한 명시적 윤리적 행위자에게만 도덕적 권리를 부여하는 것이 바람직해 보일 수 있다. 

    인간이 AI를 통제할 수 있는지에 대한 윤리 논쟁도 치열하다. AI가 자유의지를 가지고 있다고 믿는다면 통제가 어렵다. 가령 부모는 자녀를 통제하기가 쉽지 않다고 느끼는 경우가 많을 것이다. 반면 결정론을 따른다면 통제가 쉽다. 스마트폰을 손안에서 쉽게 조종할 수 있는 것처럼 말이다. 

    자유의지와 결정론의 차이는 AI가 인류에게 위협을 주는지에 관한 논쟁으로 확장된다. AI가 자유의지를 가지고 예측하지 못한 범위로 발전하면 인류에게 큰 위협이 될 수밖에 없다. 일론 머스크 테슬라 회장, 스티븐 호킹 케임브리지대 교수 등 1000명의 전문가가 AI는 인류에게 큰 위협이 된다고 주장한다. 이는 AI가 통제 범위를 벗어나고 있다고 믿기 때문이다. 반면 마크 저커버그 페이스북 창업자, 래리 페이지 구글 창립자 등은 AI가 인류에게 도움이 된다고 믿는다. AI를 인류에게 도움이 되도록 발전시킬 수 있다고 여겨서다. 이들은 AI를 통제할 수 있다고 생각하는 것으로 해석할 수 있다.

    AI는 신이 아니다

    영화 ‘아이로봇. [Fanpop]

    영화 ‘아이로봇. [Fanpop]

    AI를 두고 일어난 윤리 논쟁이 치열하다 보니 ‘윤리적 완전성’ 논쟁도 함께 벌어진다. 완벽한 해답을 낼 수 없는 상황을 AI에 요구하는 것과 관련한 논쟁이 진행된다. 자율주행 자동차 논쟁이 대표적 사례다. 자동차 고장으로 소유주와 길 가는 행인 3명 중 한쪽을 희생시켜야 하는 상황이다. 이때 AI는 어떤 판단을 내려야 할까. 답을 쉽게 내릴 수 없다. 

    영화 ‘아이로봇’의 주인공은 불의의 사고로 소녀와 함께 물에 빠진다. 이때 로봇은 둘 중 한 명밖에 구할 수 없는 상황에 부닥친다. 그래서 생존 확률이 높은 주인공을 먼저 구하고 소녀는 익사하고 만다. 생존 확률만 고려해 연약한 소녀를 먼저 구하지 않은 것이 윤리적으로 옳은 판단이었을까. 대답하기 어렵다. 

    이 같은 논쟁이 이어지는 것은 인간에게 유익하나 해답은 없다. 그렇다고 AI에 해답을 요구해서는 안 된다. AI는 신이 아니기 때문이다.

    댓글 0
    닫기

    매거진동아

    • youtube
    • youtube
    • youtube

    에디터 추천기사