본문 바로가기

신동아 로고

통합검색 전체메뉴열기

4차 산업혁명과 미래

AI에 윤리를 요구할 수 있을까

  • | 유성민 IT칼럼니스트

AI에 윤리를 요구할 수 있을까

2/3
IBM 인공지능 ‘왓슨’을 적용한 보안관제센터. [Pixabay]

IBM 인공지능 ‘왓슨’을 적용한 보안관제센터. [Pixabay]

인공지능(AI) 시대가 온다. 2016년 3월 알파고가 AI의 한계를 넘어섰다. 직관을 요구하는 바둑에서 고수 이세돌을 4대 1로 이겼다. 이로부터 2년이 채 지나지 않아 구글은 ‘알파고 제로’를 전문 학술지 네이처에 기재했다. 기존 알파고가 사람이 둔 바둑 기보를 익혔다면 알파고 제로는 독학으로 40일간 바둑을 배웠다. 

놀라운 것은 알파고 제로가 기존 알파고보다 바둑을 더 잘 둔다는 것이다. 이세돌을 이긴 알파고 리에는 100전 100승으로 이겼고, 커제를 이긴 알파고 마스터에는 100전 89승을 거뒀다. AI의 발전 무한성을 보여주는 대목이다. 영국 일간지 더 데일리 텔레그래프(The Daily Telegraph)는 알파고 제로가 40일 만에 사람의 3000년 역사를 익혔다고 보도했다. 

AI를 일상에 적용하는 사례도 빠르게 증가한다. 사이버 보안, 의료, 증권 등 여러 분야에 AI가 활용된다. IBM이 개발한 왓슨은 2012년 의료계 진출을 시작으로 다양한 분야에 적용되고 있다.

40일간 3000년 역사 익혀

AI 적용이 확장되다 보니 사회에 미칠 영향과 관련한 연구도 한창이다. 특히 AI 관련 윤리 연구가 큰 주목을 받는다. 2016년 12월 미국 과학기술 비영리단체 국제전기·전자기술자협회(IEEE)는 AI가 가져올 부작용을 막고자 개발자를 대상으로 ‘윤리를 고려한 설계(Ethically Aligned Design)’를 배포했다. AI 개발 시 고려할 윤리적 내용이 담겼다. 2017년 1월 유럽연합(EU)은 ‘전자인간법’을 제정했다. 핵심 요지는 AI에 법적인 지위를 보장하는 동시에 AI로부터 빚어질 위협을 방지하자는 것이다. 

AI 윤리 연구가 활발해진 까닭은 무엇일까. 엄밀히 말해 AI는 수십 년 전부터 구현됐다. AI는 주어진 문제를 처리하는 시스템으로 정의할 수 있다. 이러한 정의에 따르면 우리 주변에 수많은 AI가 있다. 2000년대 바둑 게임에도 AI가 적용돼 있다고 하겠다. 



그러므로 AI 윤리 논쟁은 오래전부터 진행해야 했다. 그런데 사실은 그렇지 않다. 무슨 이유에서일까. 이는 ‘자유의지’와 관련이 있다. 좀 더 구체적으로 살펴보자. 

윤리 논쟁을 던지기 전에 AI의 문제 해결 원리에 대해 살펴보자. AI는 두 가지 방법으로 문제 해결 능력을 얻을 수 있다. ‘지식공학’과 ‘기계학습’이 그것이다. 

지식공학은 사람이 AI에 공식을 제공해 문제를 해결하게끔 하는 방식이다. 특정 상황을 주면 지식공학 기반 AI는 공식에 따라 답을 산출한다. 지식공학의 장점은 명확하다. 공식에 맞는 상황이 주어지면 답을 정확하게 산출한다. 또한 구현이 쉽다. 공식만 시스템에 입력하면 되기 때문이다. 단점은 복잡한 상황에 적용하기 어렵다는 것이다. 공식 입력은 사람 몫이다. 따라서 사람이 유추해내기 어려운 상황에 지식공학 기반 AI를 적용하기는 어렵다. 아울러 고정적이다. 사람이 직접 입력한 공식을 바꾸지 않는 한 시스템은 공식을 기반으로 계속 동작한다.

스스로 생각하는 능력 갖춰

반면 기계학습은 공식을 주지 않는다. 원인과 결과의 데이터만 주어진다. 공식을 찾아내는 과정은 해당 시스템의 몫이다. 한마디로 기계학습 기반 AI는 경험으로 자신만의 판단 기준선을 정하는 것이다. 주관을 가지는 셈이다. 

그렇다면 AI는 기계학습으로 어떻게 판단 기준을 세울까. ‘신경망 알고리즘(혹은 딥러닝)’을 예로 들어보자. 신경망 알고리즘은 학습 원리가 뇌의 신경과 비슷해 붙여진 이름이다. 사람의 기억력은 뇌의 신경 자극에 따라 달라진다고 할 수 있는데 특정 경험을 자주 접하거나 충격이 클수록 기억을 더 잘한다. 더 나아가 경험과 기억의 축적이 사람의 생각과 가치관을 바꾸게 한다. 

신경망 알고리즘도 비슷하다. 신경망 알고리즘은 퍼셉트론(딥러닝의 기원이 되는 알고리즘으로 다수의 신호를 받아 하나의 신호로 출력한다)을 기반으로 한다. 퍼셉트론은 판단에 미치는 요인에 특성을 정의하고 가중치를 선정해 결과 값을 구하는 모형이다. 참고로 신경망 알고리즘은 다중 퍼셉트론을 기반으로 삼는 경우가 많다. 다시 말해 특정 요인의 결과가 되는 값이, 상위 결과에 요인의 역할을 하는 것이다. 한마디로 추론 계층이 여러 단계로 이뤄진 것이다. 수많은 요인을 추출해 분석해야 하므로 수많은 데이터가 필요한 것은 당연한 일이다. 

신경망 알고리즘은 고정적이지 않다. 요인들의 정의가 신규로 유입되는 데이터에 따라 얼마든지 달라질 수 있기 때문이다. 데이터가 유입되면 요인들의 특성이 달라지는 데 알고리즘을 이용해 예측 오차를 줄여나간다. 

정리하면, 지식공학 기반 AI는 사람에 의해 정해진 대로만 동작한다. 반면 기계학습 기반 AI는 경험을 바탕으로 자신의 주관에 따라 동작한다. 다시 말해 AI가 스스로 생각하는 능력을 갖췄음을 의미한다. 이는 ‘자유의지’와도 연관이 있다. 

자유의지는 말 그대로 스스로 결정할 수 있다고 믿는 것이다. 반대 용어는 결정론이다. 결정론은 운명 혹은 환경에 따라 결정된다는 것이다. 기존의 AI는 결정론에 가까웠다. 사람이 정한 방식대로 생각할 수밖에 없었기 때문이다. 반면 기계학습 기반 AI는 그렇지 않다. 경험으로 스스로 생각하는 기준을 만들기 때문이다.

로봇이 사람을 죽인다면?

결정론과 자유의지는 철학에서 오랫동안 논의된 주제다. 인간이 자유의지를 가졌는지가 철학의 관심사였다. 이러한 논쟁이 AI에까지 확장된 셈이다. 

기계학습 알고리즘은 정해져 있으므로 AI는 결정론을 기반에 둬야 한다고 볼 수 있으나 다르게 생각해볼 부분이 많다. 기계학습은 정해져 있어도 학습에 따라 AI의 생각 방식이 달라질 수 있기에 자유의지를 기반으로 해야 하는 것으로 볼 수 있다. 이러한 주장을 보여주는 사례가 레딩대(University of Reading)의 로봇 인격 실험이다. 피터 W 싱어가 저술한 ‘하이테크(Wired for War)’에 실험 내용이 소개돼 있다. 싱어에 따르면 다수 로봇을 밀폐된 공간에 개별로 넣고 보상과 처벌을 다르게 하니 로봇의 행동이 달랐다. 

AI와 관련해 결정론, 자유의지를 나누는 것이 윤리와 상관없는 것처럼 보일 수 있다. 그러나 이는 AI의 책임 범위를 정하는 데 매우 중요한 역할을 한다. 제임스 H 무어 다트머스대 교수는 시스템의 도덕적 판단 가능성에 따라 ‘암묵적 윤리적 행위자(implicit ethical agent)’와 ‘명시적 윤리적 행위자(explicit ethical agent)’를 구분한다. 전자는 개발 단계에서 정해진 AI의 윤리적 행위를 지칭하는 말이다. 반면 후자는 AI가 자율적으로 윤리적 행위를 결정하는 경우다. 전자가 결정론을 뒷받침한다면 후자는 자유의지를 강조한다. 

결정론은 책임 회피가 발생할 수 있는 윤리적 문제점이 있다. 윤리적 행위가 외부에서 정해지기 때문이다. 실제로 그렇기도 하다. 일부 사람들은 책임을 회피하기 위해 “어쩔 수 없었다”거나 “술 때문에 그랬어”라는 식으로 발언한다. 이는 외부로 책임을 넘기는 발언이라고 볼 수 있다. 

AI는 결정론 기반을 원칙으로 한다고 믿는 경우가 많다. 다시 말해 사람들은 AI가 한 행동은 개발자가 그렇게 만들었기 때문에 어쩔 수 없었다는 식으로 생각하는 것이다. 따라서 대부분의 기관은 AI가 문제를 일으켰을 때 어떻게 하느냐는 대응 방안보다는 개발자를 위한 AI 윤리 지침을 논의하는 경우가 많다. 

군인이 실수로 민간인을 쏘는 상황이 일어났다고 가정해보자. 총을 쏜 군인에게 책임을 묻지, 총에 잘못을 따지는 사람은 없을 것이다. 반면 킬러로봇이 실수로 민간인을 총으로 쏘았다고 가정해보자. 누가 책임을 져야 하는 것일까. 총을 쏜 군인의 경우 책임 소재가 명확한 데 반해 후자는 책임을 정하는 것이 애매하다. 기계학습으로 인해 자유의지가 발생한 것일 수 있기 때문이다.

결정론 vs 자유의지

자유의지 논쟁은 책임성 외에 또 다른 윤리 논쟁을 발생시킨다. 민간인을 실수로 사살한 킬러로봇을 생각해보자. 킬러로봇의 자유의지를 인정한다면 책임은 킬러로봇에 있다. 그러면 재판을 하고 벌을 내려야 한다. 근데 뭔가 어색하다. 재판과 벌은 사람만을 대상으로 하기 때문이다. 결국 이는 AI 인권과 연관된다. 

총을 소지한 군인은 총을 원하는 방식대로 조작할 수 있다. 본인이 실수하지 않는 이상 갑자기 총이 자기를 쏘는 일은 없다. 통제권 안에 있는 것이다. 킬러로봇은 어떨까. 비록 의사소통으로 명령을 내릴 수 있다고 해도 갑작스러운 돌발 행동으로 자신에게 총을 겨눌 수 있다. 자유의지를 가졌다면 킬러로봇이 무조건 통제권 안에 있다고는 말할 수 없다. 

그렇다면 AI에 인권을 부여해야 할까. EU는 AI를 대상으로 한 법을 제정한 상태다. 이는 AI가 자유의지와 도덕적 판단력이 있다고 믿는 것을 보여준다. 

루치아노 플로리디 옥스퍼드대 교수는 윤리 기준을 논할 때 인간 중심에서 탈피할 필요가 있다고 주장한다. 그는 인공물도 도덕적 권리를 가져야 한다고 주장하는데, 이는 매우 급진적인 생각이다. 그의 주장에 따르면 컴퓨터 등 모든 인공물이 도덕적 권리를 가져야 한다. 결정론과 자유의지에 상관없이 말이다. 플로리디의 주장보다는 무어가 정의한 명시적 윤리적 행위자에게만 도덕적 권리를 부여하는 것이 바람직해 보일 수 있다. 

인간이 AI를 통제할 수 있는지에 대한 윤리 논쟁도 치열하다. AI가 자유의지를 가지고 있다고 믿는다면 통제가 어렵다. 가령 부모는 자녀를 통제하기가 쉽지 않다고 느끼는 경우가 많을 것이다. 반면 결정론을 따른다면 통제가 쉽다. 스마트폰을 손안에서 쉽게 조종할 수 있는 것처럼 말이다. 

자유의지와 결정론의 차이는 AI가 인류에게 위협을 주는지에 관한 논쟁으로 확장된다. AI가 자유의지를 가지고 예측하지 못한 범위로 발전하면 인류에게 큰 위협이 될 수밖에 없다. 일론 머스크 테슬라 회장, 스티븐 호킹 케임브리지대 교수 등 1000명의 전문가가 AI는 인류에게 큰 위협이 된다고 주장한다. 이는 AI가 통제 범위를 벗어나고 있다고 믿기 때문이다. 반면 마크 저커버그 페이스북 창업자, 래리 페이지 구글 창립자 등은 AI가 인류에게 도움이 된다고 믿는다. AI를 인류에게 도움이 되도록 발전시킬 수 있다고 여겨서다. 이들은 AI를 통제할 수 있다고 생각하는 것으로 해석할 수 있다.

AI는 신이 아니다

영화 ‘아이로봇. [Fanpop]

영화 ‘아이로봇. [Fanpop]

AI를 두고 일어난 윤리 논쟁이 치열하다 보니 ‘윤리적 완전성’ 논쟁도 함께 벌어진다. 완벽한 해답을 낼 수 없는 상황을 AI에 요구하는 것과 관련한 논쟁이 진행된다. 자율주행 자동차 논쟁이 대표적 사례다. 자동차 고장으로 소유주와 길 가는 행인 3명 중 한쪽을 희생시켜야 하는 상황이다. 이때 AI는 어떤 판단을 내려야 할까. 답을 쉽게 내릴 수 없다. 

영화 ‘아이로봇’의 주인공은 불의의 사고로 소녀와 함께 물에 빠진다. 이때 로봇은 둘 중 한 명밖에 구할 수 없는 상황에 부닥친다. 그래서 생존 확률이 높은 주인공을 먼저 구하고 소녀는 익사하고 만다. 생존 확률만 고려해 연약한 소녀를 먼저 구하지 않은 것이 윤리적으로 옳은 판단이었을까. 대답하기 어렵다. 

이 같은 논쟁이 이어지는 것은 인간에게 유익하나 해답은 없다. 그렇다고 AI에 해답을 요구해서는 안 된다. AI는 신이 아니기 때문이다.



2/3
| 유성민 IT칼럼니스트
목록 닫기

AI에 윤리를 요구할 수 있을까

댓글 창 닫기

2021/05Opinion Leader Magazine

오피니언 리더 매거진 표지

오피니언 리더를 위한
시사월간지. 분석, 정보,
교양, 재미의 보물창고

목차보기구독신청이번 호 구입하기

지면보기 서비스는 유료 서비스입니다.