2017년 3월호

4차 산업혁명과 미래

예측 불가능 학습, 오작동·해킹도 위험

킬러로봇의 대재앙

  • 입력2017-02-28 13:32:11

  • 글자크기 설정 닫기
    인공지능(AI) 시대가 도래했다. 영화에서나 볼 수 있던 AI 기술이 현실화하고 있는 것이다. 스케줄 관리, 자동차 운전, 청소도우미 등 우리의 일상생활을 대신해줄 ‘AI 시대’의 편리성은 극대화할 전망이다.

    그런데 편리성의 전제하에 모든 분야에 AI 기술을 적용하는 게 옳은 일일까. 특히 전쟁 시 살생을 위해 개발되는 ‘킬러로봇’을 용납할 수 있을까. 킬러로봇 개발은 인간의 존엄성 문제와 관련될 뿐 아니라, 자칫 잘못하면 인류에 대재앙을 부를 수 있다. 그렇기에 절대 무시할 수 없는 이슈다.



    미래 전쟁에 투입될 로봇전사

    킬러로봇이 주목받는 현 시점과 비교할 때 그 개념은 비교적 오래전에 나왔다. 킬러로봇의 개념은 1942년 ‘런어라운드’라는 단편소설에 처음 등장한다. 소설엔 ‘로봇’이라는 용어가 처음 쓰였고, 사람을 죽이는 로봇 개념을 소개했다. 이때부터 킬러로봇 개념이 사용되기 시작했다.

    그러나 킬러로봇의 정의가 내려진 건 최근의 일이다. 2012년 국제인권감시기구가 ‘킬러로봇은 사람의 의지 없이 공격하는 무기’로 규정하면서 킬러로봇의 개념적 정의가 확립됐다. 그렇다면 킬러로봇 개발은 어떻게 진행되고 있을까.



    지난해 8월 이스라엘 로봇회사 ‘제너럴로보틱스’는 건물 내 테러 진압용 로봇인 ‘도고(DOGO)’를 출시했다. 무게 12kg으로 휴대가 가능해 들고 다니며 필요한 장소에 배치해 적군을 제압할 수 있다. 도고는 9mm 구경 실탄을 사용하는 권총 한 정을 밑바닥 부분에 장착했다. 사살 아닌 생포가 목적일 땐 실탄 외에 최루액 분사기도 장착할 수 있다. 적을 쉽게 발견하기 위해 8대의 소형 카메라를 내장했고, 정확한 조준을 위해 레이저를 이용한다. 적군을 교란하는 섬광탄도 장착 가능하다.

    미국 로봇 전문 회사 ‘보스턴다이내믹스’를 빼곤 킬러로봇을 논할 수 없다. 보스턴다이내믹스는 미국 방위고등연구계획국(DAPRA)으로부터 약 100억 원의 자금을 지원받아 하버드대와 함께 ‘빅도그(Big Dog)’라는 이름의 로봇을 맨 먼저 출시했다. 빅도그는 키 0.76m에 길이가 0.91m인 4족 보행 로봇이다. 무게는 100kg으로 최대 150kg의 짐을 운반하고 시속 6km로 보행할 수 있다. 경사면, 얼음과 같은 미끄러운 지역에서도 균형을 잃지 않고 걸을 수 있는 게 장점이다. 빅도그는 그 특징에서 알 수 있는 것처럼 짐 운반용에 최적화한 로봇이기에 엄밀히 말해 킬러로봇은 아니다. 다만 무기를 장착하면 얼마든지 킬러로봇으로 활용할 수 있다.

    보스턴다이내믹스가 주목받는 이유는 다름 아닌 킬러로봇 ‘아틀라스(Atlas)’ 때문이다. 아틀라스는 2족 보행 로봇으로, 병사를 대체하기 위해 개발됐다. 자유자재로 움직이는 건 물론이고 울퉁불퉁한 지형에서도 관절을 이용해 중심을 바로잡을 수 있다. 손과 발을 이용해 산과 같은 지형을 기어서 올라갈 수도 있다. 영화 ‘터미네이터’에 등장하는 킬러로봇이 현실화할 날도 얼마 남지 않은 셈이다.

    킬러로봇이 해외에서만 개발된다고 생각하면 오산이다. 우리나라에도 킬러로봇 전문 생산업체가 있다. 참고로 국방 전문가에 따르면, 국내 킬러로봇 기술 수준은 전 세계 5위에 들 정도로 매우 높다.

    삼성테크윈은 감시경계 로봇인 SGR-1을 개발했다. SGR-1은 방어용으로 특화해 개발한 로봇이다. 현재 비무장지대(DMZ)에 일부 배치해 활용 중인 것으로 알려져 있다.

    SGR-1은 침입을 감지하기 위해 열감지 장치와 표적 동시추적 기능을 내장했다. 그래서 주야간 모두 침입 감지가 가능하고 여러 명의 표적을 동시에 식별하고 탐지할 수 있다. 야간엔 2km까지도 표적을 식별할 수 있고, 주간엔 이보다 2배인 4km까지 식별 가능하다. 침입자 대응을 위해 5.5mm 구경 기관총과 40mm 수류탄 투척기도 기본으로 장착했다. 표적물을 식별하면 암구호를 요구하는데, 답변을 못하면 실탄을 발포한다.

    그러나 실제로 DMZ에 배치된 SGR-1의 경우 즉시 발포하지는 않는다. 오류 때문에 잘못 발포해 사고가 날 수 있어서다. 대신 중앙명령센터에 침입 사실을 즉각 알려 경계병이 원격통신으로 침입자 여부를 판별하게 한다.

    킬러로봇을 전쟁에 활용하면 국방력을 강화할 수 있다는 사실은 누구도 부인할 수 없다. 사람 대신 로봇을 사용하기에 인명 피해가 줄어들 뿐 아니라 로봇이므로 국방비도 절감할 수 있다. 전쟁용으로 개발하니 신체적으로 사람보다 더 우수하다. 이러한 점을 고려하면 킬러로봇 도입은 당연한 것처럼 보인다.

    그럼에도 킬러로봇에 대한 반대는 적지 않다. 인류를 파멸시킬 수 있는 무기로 인식하는 사람이 많기 때문이다. 킬러로봇 관련 이슈는 크게 3가지다. 이에 대해 각각 살펴보자.


    석학들의 경고

    미국 마이크로소프트가 개발한 AI 채팅로봇 ‘테이(Tay)’가 막말을 서슴지 않고 퍼부어 적지 않은 논란이 된 적이 있다. 테이는 ‘기계학습’을 기반으로 하는데, 이 기술이 막말 생산에 결정적으로 기여한 것이다. 기계학습은 말 그대로 기계가 스스로 정보를 학습해 자신의 시스템을 향상시키는 기술이다. 테이는 인터넷에 떠돌아다니는 용어들을 그대로 학습했기에 그와 같은 일이 발생했다. 알다시피, 인터넷은 익명성이 보장되므로 은어(隱語)가 자유로이 오가는 공간이다.

    거의 모든 AI 기술은 기계학습을 기반으로 한다. 그래서 AI가 무엇을 배우고 행동할지 예측할 수 없다. 물론 AI 학습에 대해선 통제가 가능하지만 테이의 경우처럼 예측할 수는 없는 일이다.



    확률 기반의 의사결정

    이를 가장 잘 표현한 영화가 ‘아이로봇’이다. 아이로봇에 등장하는 ‘중앙통제시스템’은 인류의 평화와 복지를 위해 서비스를 제공하도록 구현됐다. 그런데 중앙통제시스템은 스스로 학습한 후 사람들의 자유를 억압하는 방식으로 인류 평화를 실현하려고 되레 위협하기에 이른다. AI 학습 결과의 예측 불가능성이 AI에 대한 두려움으로 다가오는 것이다. AI 기반의 킬러로봇은 말할 나위도 없다. 영화 ‘터미네이터’가 현실이 될 수도 있는 것이다.

    이에 따라 스티브 호킹을 비롯한 1000명의 석학은 킬러로봇이 인류에 대재앙을 초래할 수 있다는 경고와 함께 개발 제한을 촉구하고 있다. 테슬라 최고경영자(CEO) 엘런 머스크도 킬러로봇에 적극 반대한다. 그는 “킬러로봇 개발은 악마를 소환하는 것과 같다”고 발언한 바 있다.

    기계 오작동으로 피해가 발생한 사건은 많다. 러시아의 경우 중력법칙을 잘못 계산해 화성 탐사에 실패했다. 미국은 이란과의 전쟁 당시 0.000000095초의 오차로 아군 기지로 향하는 적국 미사일을 막지 못해 대규모 인명 피해를 입었다.

    기계 오작동은 주로 ‘기계적 결함’이 있거나 ‘2진수 계산법으로 인한 오차’로 발생한다. 그러나 이러한 오작동은 사람이 중간에서 잘 관리하기만 하면 문제가 없다. 그러나 기계학습 기반인 AI의 경우 이야기가 다르다.

    AI는 사람처럼 스스로 판단케 하는 기능이 주요 특장점이다. 그런데 이러한 의사결정은 매뉴얼처럼 정해져 있지 않다. 모든 상황을 예측해 매뉴얼화하는 건 불가능하기에 AI는 유연하게 대처할 수 있도록 구현돼 있다. 학습 후 스스로 판단할 수 있게 하기 위해 ‘확률’ 기반으로 의사결정을 내리게 돼 있는 것이다. 확률 기반이기에 AI가 의사결정을 잘못 내릴 수 있다는 게 가장 큰 문제점이다. 지난해 7월 미국의 한 쇼핑몰에선 치안을 담당하는 로봇 경찰이 16개월 된 유아를 공격해 다치게 한 사고가 발생했다. 이러한 사고가 알려지면서 이전에도 유사 사고가 많이 발생했다는 사실이 드러났다.

    킬러로봇 오작동은 간과할 수 없는 중요한 이슈다. 킬러로봇이 아군을 적군으로 인지해 발포하거나 아군 기지에 미사일 공격을 할 수도 있다. 2007년 10월 남아프리카공화국에선 로봇 방공포가 갑자기 작동해 수십여 명의 사상자가 발생하기도 했다. 인명 손실을 줄이고자 도입한 로봇이 되레 인명 피해의 주범이 된 것이다.

    ‘터미네이터’의 주인공 로봇은 구식이지만 유일하게 사람을 지키도록 작동한다. 다른 로봇은 사람을 공격하지만 말이다. 이는 바로 로봇을 해킹했기 때문에 가능했다. 킬러로봇도 시스템이므로 ‘터미네이터’에서처럼 해킹당할 수 있다. 따라서 해킹당한 킬러로봇이 악의적으로 사용될 소지는 충분하다.

    킬러로봇의 미래 해킹 시나리오를 가장 잘 엿볼 수 있는 분야는 드론이다. 2011년 12월 미국 록히드마틴과 이스라엘이 공동 제작한 무인 스텔스 RQ-170이 이란 영내를 정찰하다 포획당한 사건이 발생했다. 이란은 해킹으로 스텔스 RQ-170을 탈취했다. 이후 이란은 2014년 RQ-170과 유사한 드론 개발을 완료했다고 발표했다. 





    댓글 0
    닫기

    매거진동아

    • youtube
    • youtube
    • youtube

    에디터 추천기사