본문 바로가기

신동아 로고

통합검색 전체메뉴열기

4차 산업혁명과 미래

AI에 윤리를 요구할 수 있을까

  • | 유성민 IT칼럼니스트

AI에 윤리를 요구할 수 있을까

2/3

스스로 생각하는 능력 갖춰

반면 기계학습은 공식을 주지 않는다. 원인과 결과의 데이터만 주어진다. 공식을 찾아내는 과정은 해당 시스템의 몫이다. 한마디로 기계학습 기반 AI는 경험으로 자신만의 판단 기준선을 정하는 것이다. 주관을 가지는 셈이다. 

그렇다면 AI는 기계학습으로 어떻게 판단 기준을 세울까. ‘신경망 알고리즘(혹은 딥러닝)’을 예로 들어보자. 신경망 알고리즘은 학습 원리가 뇌의 신경과 비슷해 붙여진 이름이다. 사람의 기억력은 뇌의 신경 자극에 따라 달라진다고 할 수 있는데 특정 경험을 자주 접하거나 충격이 클수록 기억을 더 잘한다. 더 나아가 경험과 기억의 축적이 사람의 생각과 가치관을 바꾸게 한다. 

신경망 알고리즘도 비슷하다. 신경망 알고리즘은 퍼셉트론(딥러닝의 기원이 되는 알고리즘으로 다수의 신호를 받아 하나의 신호로 출력한다)을 기반으로 한다. 퍼셉트론은 판단에 미치는 요인에 특성을 정의하고 가중치를 선정해 결과 값을 구하는 모형이다. 참고로 신경망 알고리즘은 다중 퍼셉트론을 기반으로 삼는 경우가 많다. 다시 말해 특정 요인의 결과가 되는 값이, 상위 결과에 요인의 역할을 하는 것이다. 한마디로 추론 계층이 여러 단계로 이뤄진 것이다. 수많은 요인을 추출해 분석해야 하므로 수많은 데이터가 필요한 것은 당연한 일이다. 

신경망 알고리즘은 고정적이지 않다. 요인들의 정의가 신규로 유입되는 데이터에 따라 얼마든지 달라질 수 있기 때문이다. 데이터가 유입되면 요인들의 특성이 달라지는 데 알고리즘을 이용해 예측 오차를 줄여나간다. 

정리하면, 지식공학 기반 AI는 사람에 의해 정해진 대로만 동작한다. 반면 기계학습 기반 AI는 경험을 바탕으로 자신의 주관에 따라 동작한다. 다시 말해 AI가 스스로 생각하는 능력을 갖췄음을 의미한다. 이는 ‘자유의지’와도 연관이 있다. 

자유의지는 말 그대로 스스로 결정할 수 있다고 믿는 것이다. 반대 용어는 결정론이다. 결정론은 운명 혹은 환경에 따라 결정된다는 것이다. 기존의 AI는 결정론에 가까웠다. 사람이 정한 방식대로 생각할 수밖에 없었기 때문이다. 반면 기계학습 기반 AI는 그렇지 않다. 경험으로 스스로 생각하는 기준을 만들기 때문이다.


로봇이 사람을 죽인다면?

결정론과 자유의지는 철학에서 오랫동안 논의된 주제다. 인간이 자유의지를 가졌는지가 철학의 관심사였다. 이러한 논쟁이 AI에까지 확장된 셈이다. 

기계학습 알고리즘은 정해져 있으므로 AI는 결정론을 기반에 둬야 한다고 볼 수 있으나 다르게 생각해볼 부분이 많다. 기계학습은 정해져 있어도 학습에 따라 AI의 생각 방식이 달라질 수 있기에 자유의지를 기반으로 해야 하는 것으로 볼 수 있다. 이러한 주장을 보여주는 사례가 레딩대(University of Reading)의 로봇 인격 실험이다. 피터 W 싱어가 저술한 ‘하이테크(Wired for War)’에 실험 내용이 소개돼 있다. 싱어에 따르면 다수 로봇을 밀폐된 공간에 개별로 넣고 보상과 처벌을 다르게 하니 로봇의 행동이 달랐다. 

AI와 관련해 결정론, 자유의지를 나누는 것이 윤리와 상관없는 것처럼 보일 수 있다. 그러나 이는 AI의 책임 범위를 정하는 데 매우 중요한 역할을 한다. 제임스 H 무어 다트머스대 교수는 시스템의 도덕적 판단 가능성에 따라 ‘암묵적 윤리적 행위자(implicit ethical agent)’와 ‘명시적 윤리적 행위자(explicit ethical agent)’를 구분한다. 전자는 개발 단계에서 정해진 AI의 윤리적 행위를 지칭하는 말이다. 반면 후자는 AI가 자율적으로 윤리적 행위를 결정하는 경우다. 전자가 결정론을 뒷받침한다면 후자는 자유의지를 강조한다. 

결정론은 책임 회피가 발생할 수 있는 윤리적 문제점이 있다. 윤리적 행위가 외부에서 정해지기 때문이다. 실제로 그렇기도 하다. 일부 사람들은 책임을 회피하기 위해 “어쩔 수 없었다”거나 “술 때문에 그랬어”라는 식으로 발언한다. 이는 외부로 책임을 넘기는 발언이라고 볼 수 있다. 

AI는 결정론 기반을 원칙으로 한다고 믿는 경우가 많다. 다시 말해 사람들은 AI가 한 행동은 개발자가 그렇게 만들었기 때문에 어쩔 수 없었다는 식으로 생각하는 것이다. 따라서 대부분의 기관은 AI가 문제를 일으켰을 때 어떻게 하느냐는 대응 방안보다는 개발자를 위한 AI 윤리 지침을 논의하는 경우가 많다. 

군인이 실수로 민간인을 쏘는 상황이 일어났다고 가정해보자. 총을 쏜 군인에게 책임을 묻지, 총에 잘못을 따지는 사람은 없을 것이다. 반면 킬러로봇이 실수로 민간인을 총으로 쏘았다고 가정해보자. 누가 책임을 져야 하는 것일까. 총을 쏜 군인의 경우 책임 소재가 명확한 데 반해 후자는 책임을 정하는 것이 애매하다. 기계학습으로 인해 자유의지가 발생한 것일 수 있기 때문이다.


2/3
| 유성민 IT칼럼니스트
목록 닫기

AI에 윤리를 요구할 수 있을까

댓글 창 닫기

2018/03Opinion Leader Magazine

오피니언 리더 매거진 표지

오피니언 리더를 위한
시사월간지. 분석, 정보,
교양, 재미의 보물창고

목차보기구독신청이번 호 구입하기

지면보기 서비스는 유료 서비스입니다.