매우 똑똑하지만 무척 허술한 인공지능
하얀 자동차와 흰 구름을 구별하지 못하는 자율주행차
일취월장한 구글 포토의 새로운 도전
인간의 편견이 인공지능 세상에 미칠 영향
아무리 초보 운전자라 하더라도 그 정도 크기의 트레일러트럭이 눈앞에 있다면 멀리서부터 브레이크를 밟았을 것이다. 하지만 테슬라 자동차는 속도를 줄이지 않고 좌회전하는 트레일러트럭 옆면으로 돌진했다. 사고 당시의 강한 충격으로 운전자는 현장에서 사망했다. 도대체 무슨 일이 있었던 걸까?
테슬라 자동차의 신기능이 문제였다. 테슬라 자동차에는 ‘오토파일럿’ 기능이 있다. 세계 자동차, IT 기업에서 앞다퉈 개발 중인 자동차의 자율주행 기능을 테슬라 자동차에 얹은 것이다. 이날 사망한 운전자는 테슬라 자동차의 오토파일럿 기능을 켜놓고 딴짓을 하고 있었다. 오토파일럿 운행 중에도 핸들에 손을 얹고 비상 상황에 대비하라는 규칙도 어겼다.
그래도 의문이 남는다. 자율주행하던 테슬라 자동차는 왜 대형 트레일러트럭을 감지하기는커녕 트럭에 돌진했을까? 정확한 이유는 사고 당시 속도를 줄이지 않은 테슬라 자동차의 인공지능(AI)만 안다. 하지만 다수의 과학자는 테슬라 자동차가 흰색 트레일러를 맑은 하늘의 구름으로 오인했을 가능성을 의심한다. 자동차가 하늘의 구름을 피할 이유는 없으니까!
치와와와 머핀 구분하기
치와와와 머핀이 교묘하게 뒤섞인 사진. [트위터(@teenybiscuit) 캡처]
인공지능이 변호사, 회계사, 의사 같은 전문직을 어느 순간 대체할 가능성이 대두되는 것도 이 때문이다. 따지고 보면 그런 전문직 종사자는 수많은 데이터(예를 들어 법조문과 판례)를 머릿속에 담고서 정해진 패턴대로 주어진 업무를 수행(판결)한다. 준비만 제대로 한다면 이런 일은 인공지능이 훨씬 더 잘할 수 있다.
하지만 이렇게 똑똑해 보이는 인공지능에 의외로 약한 구석이 있다. 아이러니하게도 인공지능은 인간이 특별히 배우지 않아도 대수롭지 않게 해내는 일을 잘하지 못한다. 눈길 한 번에 대상이 무엇인지 파악하는 일이 그렇다. 예를 들어 세 살짜리 아이도 도로 위에 놓인 돌멩이와 종이 상자를 쉽게 구분한다. 하지만 인공지능은 그 둘을 제대로 구분하지 못한다.
도대체 무슨 소리인지 감이 안 온다면 사진 한 장을 살펴보자. 구글에 ‘치와와(Chihuahua)’라는 단어와 ‘머핀(Muffin)’이라는 단어를 동시에 입력하면 눈을 동그랗게 뜬 치와와와 초콜릿 칩이 박힌 머핀 사진이 뒤섞인 이미지가 나온다. 이 글을 읽는 여러분은 물론이거니와 세 살짜리 아이에게 이 사진에서 치와와만 골라보라고 하면 금세 정답을 내놓을 것이다.
하지만 인공지능은 이런 문제를 맞닥뜨리면 말 그대로 ‘대혼란’에 빠진다. 멀쩡한 치와와 사진을 초콜릿 칩이 박힌 머핀이라고 하거나, 혹은 초콜릿 칩 머핀을 치와와라고 답한다. 그러다 도저히 정답을 모르겠으면 “나 몰랑~” 하고 시스템이 다운될 수도 있다. 이렇게 사진 구별에 인공지능은 젬병이다.
인공지능 역사에서 이 문제는 심각했다. 1990년대 들어 인공지능은 세계 체스 챔피언을 꺾을 정도의 실력을 과시했지만, 한편으로는 여전히 개와 고양이를 구별하는 일처럼 한 살배기 아이가 하는 일도 따라 하지 못했다. 개와 고양이도 구별하지 못하는 인공지능 따위에게 어떻게 중요한 일을 맡길 수 있겠는가?
2011년 구글이 인공지능 기업으로 변신을 꾀할 때 상황도 다르지 않았다. 구글은 과학자 여럿과 협업을 통해 인간 뇌의 신경망을 모방한 전혀 새로운 방식의 인공지능이 이런 답답한 상황에 돌파구를 마련할 수 있으리라고 가닥을 잡았다. 구글이 세운 첫 번째 목표가 바로 개와 고양이를 구별하는 인공지능을 만드는 것이었다.
인간 뇌의 신경망을 모방한 인공지능은 구글이 보유한 방대한 데이터(예를 들어 유튜브 동영상의 정지 화면)로 학습을 시작했다. 성과는 놀라웠다. 2011년 프로젝트를 시작한 지 1년 만에 개와 고양이를 구별하는 것 같은 사물 인식 시스템의 정확도가 열 배나 높아졌다.
여기서 인간 뇌의 신경망을 모방한 인공지능이 고양이를 어떻게 인식하는지 간단히 살펴보자. 통념과 달리 이 새로운 인공지능은 고양이에 대한 어떤 ‘정의(definition)’도 교육받지 않는다. 고양이, 개, 장난감 자동차 등 수많은 사진을 인공지능에 입력한다. 그러고 나서 고양이 사진을 ‘고양이’라고 답할 때마다 “OK!” 신호를 준다. 이 과정을 수없이 반복한다(수백만 번). 그러다 보면 인공지능은 여러 종류의 고양이를 비교적 정확히 인식할 수 있게 된다.
물론 이 과정이 순탄치만은 않았다. 고양이 알아보기에 성과를 보이던 인공지능은 뜬금없이 체육관의 아령을 놓고 혼란에 빠졌다. 이유는 단순했다. 인공지능이 학습한 아령 사진은 항상 사람이 그것을 들고 운동하는 모습이다. 그 결과 인공지능은 사람 없는 아령을 보면 바보가 됐다. 구글은 다시 아령 사진만 여러 장을 찍어 인공지능을 교육해야 했다.
인공지능의 기적, 구글 포토의 등장
2017년 5월 17일 순다르 피차이 구글 최고경영자가 미국 캘리포니아에서 구글 렌즈에 대해 설명하고 있다. [AP=뉴시스]
2015년 5월, 구글은 야심만만하게 ‘구글 포토’를 선보였다. 이미 사진을 비롯한 이미지를 인식하는 데 상당한 수준에 오른 인공지능 역량을 축적한 구글은 새로운 서비스에 여러 가지 ‘필살기’를 넣었다. 무료로 모든 사진을 백업하고, 포토 북(Photo books)에 사진을 인쇄하는 기능 외에도 인공지능만 할 수 있는 기능을 선보인 것이다.
구글 포토 서비스 가운데 가장 눈에 띄는 것은 얼굴 인식이다. 우선 구글 포토에 자신의 스마트폰에 있는 수많은 사진을 백업해놓자. 그러면 구글 포토가 그 사진에 등장한 여러 인물의 얼굴 사진을 보여준다. 만약 당신이 아들이나 딸 혹은 남자 친구나 여자 친구 사진을 클릭하면 구글 포토는 그 인물이 들어 있는 모든 사진만 따로 정렬한다.
그러고 나서 이렇게 묻는다. “이 사람은 누구입니까(Who is this)?” 만약에 ‘영희’라고 입력해놓으면 이제 그 인물 폴더에는 귀신같이 ‘영희’가 찍힌 사진만 모인다. 얼마나 정확할까? 내가 일곱 살배기 아들 사진 수백 장으로 직접 실험해봤다. 태어나자마자 찍은 사진부터 최근 사진까지 전부 구글 포토에 백업했다. 구글 포토는 태어난 지 서너 시간 뒤에 찍은 첫 사진부터 최근에 찍은 만 여섯 살 생일 파티 사진까지 정확하게 모아 보여줬다. 아이가 얼마나 빨리 자라고 또 그에 따라 신체 변화가 얼마나 큰지를 헤아리면 놀라운 일이다. 구글 포토는 그런 신체 변화 따위에 상관없이 정확하게 똑같은 사람을 포착했다.
고양이나 개 같은 반려동물도 마찬가지다. 집에서 키우는 고양이나 개 사진을 선택해 ‘야옹이’ 또는 ‘멍멍이’라고 이름을 입력해놓으면 구글 포토는 그 고양이나 개 사진만 정확히 구별해 보여준다. 자기 집 고양이나 개는 주인만 정확히 구별할 수 있다고 했던가? 아니다. 이제 구글 포토도 아무개 집 고양이나 개가 무엇인지 정확하게 안다.
이뿐만이 아니다. 만약 사진에 촬영 장소 태그가 붙어 있거나 구글 포토가 식별 가능한 관광지에서 촬영한 것이라면, 구글 포토는 알아서 해당 장소 사진만 따로 분류한다. 게다가 구글 포토는 특별한 이벤트도 알아서 인식한다. 예를 들어 구글 포토의 인공지능은 아이, 케이크, 양초 또 ‘BIRTHDAY’ 같은 문구 등이 포함된 사진을 보고 ‘생일 파티’ 이벤트임을 알아차리고 분류한다.
심지어 구글 포토는 어떤 장소에서 같은 시간에 찍은 여러 장의 사진을 내키는 대로 자르고 붙여서 시키지 않았는데도 콜라주 앨범 혹은 동영상이나 애니메이션을 만든다. 구글 포토는 자기가 생일 파티로 인식한 이벤트의 사진 여러 장을 이용해 알아서 콜라주 앨범을 만들거나 동영상이나 다양한 효과를 넣은 애니메이션을 만들고 사용자에게 보내 “어때요?” 하고 묻는다.
오랫동안 애지중지 키우던 개를 떠나보낸 지인은 이런 경험을 한 적이 있다. 늙고 병들어 세상을 떠난 개 ‘바둑이’ 때문에 상심하고 있던 어느 날, 갑자기 구글 포토가 ‘바둑이와의 즐거웠던 한때’라는 동영상을 편집해 보여준 것이다. 생전의 바둑이가 애교 부리던 장면이 고스란히 들어 있는 동영상을 보고서 그 지인은 하염없이 눈물을 흘렸단다.
스티븐 스필버그 감독이 연출하고 톰 크루즈가 주연한 2002년 영화 ‘마이너리티 리포트’를 혹시 기억하는가? 그 영화를 보면 딸을 잃은 주인공(톰 크루즈 분)이 딸의 생전 모습이 담긴 동영상을 보면서 하염없이 눈물 흘리는 장면이 나온다. 만약 미래 어느 시점에 비슷한 상황이 재현된다면, 그 동영상 제작자는 구글 포토의 인공지능일 개연성이 높다.
고백하건대 나도 가끔 구글 포토가 제공하는, 아이가 재롱 떠는 장면이 담긴 동영상을 멍하니 보면서 아빠 미소를 짓곤 한다. 이 대목에서 한 가지 잊지 말아야 할 일이 있다. 그렇게 내가 아빠 미소를 짓는 동안 구글 포토의 인공지능은 내가 (아무런 대가 없이) 자진해서 올린 수많은 아이 사진으로 지금 이 순간도 더 나은 인공지능이 되고자 학습하고 있다.
사람 울리는 인공지능
구글 포토는 서비스 시작 2년 만에 세계에서 2억 명 이상이 사용하는 성과를 올렸다. 구글은 이제 구글 포토로 축적한 성과를 토대로 본격적으로 돈 벌 궁리를 하고 있다. 그 가운데 눈에 띄는 일이 바로 헬스 케어 분야다. 예를 들어 구글은 2016년 11월 29일 인공지능으로 당뇨병 환자 망막의 혈관 손상 정도를 안과 전문의 수준으로 파악할 수 있다고 발표했다.당뇨병 환자는 망막 혈관이 손상돼 자칫하면 시력을 잃을 수 있다. 이런 최악의 상황을 예방하려면 안과 전문의가 안구 안쪽을 사진으로 찍어 진행 정도를 판독해야 했다. 그런데 구글 인공지능은 안과 전문의와 비슷한 수준으로 정확하게 사진을 판독했다. 인공지능과 실력을 겨룬 안과 전문의가 평균 이상의 우수한 의사였다는 사실을 염두에 두면 놀라운 일이다.
알파고를 만든 구글 딥마인드는 여성의 가슴 엑스레이 사진을 활용해 유방암을 진단하는 프로그램을 개발하고 있다. 의사와 인공지능이 동시에 가슴 사진을 판독한다면 유방암을 잡아내는 데 정확도를 훨씬 높일 수 있으리라는 것이다. 여성 가슴의 조직 치밀도에 따라 의사가 유방암을 포착하지 못하는 경우가 있다는 사실을 감안하면 솔깃한 제안이다.
물론 구글 포토가 밝은 면만 있는 것은 아니다. 2015년 여름, 구글 포토 서비스 초창기에 있던 일이다. 한 미국인이 친구와 함께 콘서트에 놀러 가서 찍은 사진을 구글 포토에 올렸다. 여느 때처럼 구글 포토는 자동으로 사진을 인식해 정리했다. 그런데 이 사람은 깜짝 놀랄 사실을 확인했다. 구글 포토가 친구를 동물 폴더에 넣은 것이다.
구글 측은 곧바로 서비스 초기에 일어날 수 있는 오류라고 해명하고 사과했다. 하지만 그 친구가 아프리카계 미국인 즉 ‘흑인’이고 그 동물이 ‘고릴라’라는 사실을 염두에 두면 상황이 좀 더 복잡해진다. 다수의 과학자는 구글 포토의 인공지능이 편견에 오염된 결과일 수도 있다고 지적한다.
구글 포토도 틀린다
구글은 구글 포토가 아프리카계 미국인을 '고릴라' 폴더에 분류한 사실이 드러나자 즉각 사과했다. 이 사실을 보도한 CNN 홈페이지. [인터넷 캡처]
현실에서 여성은 남성과 비교할 때 저임금 노동에 종사할 가능성이 크다. 현실의 데이터로 학습한 구글 인공지능은 ‘고임금은 남성, 저임금은 여성’이라는 편견을 습득한다. 이제 남성보다 능력 면에서 뒤지지 않는 여성이 구글 검색 결과 때문에 자신이 마땅히 일할 수 있는 좀 더 나은 일자리 정보를 차단당한다. 그 결과, 남녀 간의 임금 격차는 더욱 커진다.
무슨 이야기인지 아직 감이 안 온다면 2016년 개최된 한 미인대회에서 있었던 일도 살펴보자. 주최 측은 미인대회의 특별 이벤트 가운데 하나로 인공지능을 이용해 세계 각국 미인의 미모를 ‘객관적’으로 평가해보기로 했다. 100개국에서 참가자 6000명이 보내온 사진을 인공지능에 보여줬다.
심사 결과는 어땠을까. 수상자 44명 대부분이 백인이었으며, 동양인 몇 명을 빼놓고 흑인은 딱 1명에 불과했다. 이 인공지능이 미인을 판단하고자 학습한 사진 속 주인공은 대부분 백인이었다. 미인의 기준이 백인에게 맞춰지면서 다른 미모와 매력을 가진 황인종, 흑인종 미녀가 판단에서 배제된 것이다. 인공지능이 자신도 모르게 인종차별을 한 셈이다.
구글 포토가 수많은 이미지 데이터를 놓고 학습하는 과정에서도 이런 편견이 은연중에 들어갈 수 있다. 예를 들어 사무실에서 정장을 입은 남녀가 일하는 사진을 보고서 구글의 인공지능은 ‘직장 상사와 함께 있는 여성’이라고 학습할 수 있다. 왜냐하면 결국 데이터를 제공하고 처음에 가이드라인을 제시하는 것은 편견에 찌든 인간이니까. 만약 이런 편견을 일부러 제거하지 않는 이상 구글은 이후 남자와 여자가 함께 있는 사진을 학습할 때마다 남자는 상사, 여자는 부하 직원이라고 인식한다. 만연한 사회적 편견이 방대한 데이터를 통해 구글 포토에 각인된 것이다. 더 나아가 구글 포토에 새겨진 이런 사회적 편견은 의도하지 않은 치명적인 부작용을 낳을 수 있다.
세계 각국 경찰은 얼굴 인식 인공지능을 활용한 범죄 예방 추적 시스템을 제작하기를 꿈꾼다. 만약 얼굴 인식 인공지능이 ‘범죄자는 유색인종’이라는 편견을 그대로 학습하고 있다면 어떻게 될까? 범죄 현장에서 실제 범인은 백인 남성인데도 그 자리에 있던 엉뚱한 흑인 남성이 용의자로 ‘태깅(tagging)’돼 자신의 결백함을 해명해야 하는 어처구니없는 상황이 벌어질 수 있다.
구글 포토의 인공지능은 지금 갈림길에 서 있다. 할 수 있는 일이 무궁무진하기 때문이다. 구글 포토의 인공지능은 인터넷을 통해 확산해 당사자에게 피해를 주는 사생활 이미지나 동영상을 찾아내는 역할을 할 수 있다. 항공사진을 보고서 멸종 위기 생물 종이 서식하는지 여부를 파악하는 일도 가능하다.
반면 이런 일도 있을 수 있다. 앞으로는 집회에 참석할 때 얼굴을 가리는 게 필수가 될지도 모른다. 어떤 정부의 인권 탄압에 반대하는 집회에 참석했다고 하자. 그렇다면 해당 정부는 그 집회 사진이나 동영상을 분석해 수많은 얼굴 데이터를 이용해 기피 인물 데이터베이스를 만들 수 있다. 인공지능은 그 데이터베이스에 따라 어떤 사람의 입국을 거부할 수 있다.
종종 구글 포토를 놓고 지인과 이야기를 나눌 때가 있다. 그때마다 “구글 포토를 아직도 안 써?”라며 구글 포토를 권하곤 한다. 구글 포토가 해내는 여러 가지 일이 놀랍고 즐겁기 때문이다. 그러다 때로는 갑자기 뒷덜미가 서늘해진다. 구글 포토가 가져올 미래가 항상 즐겁기만 할까? 즐겁거나 무섭거나. 구글 포토는 둘 다다.