구글, AI로 백인만 예쁘게 찍던 카메라 기능 고쳐
애플, 몸이 불편해도 쉽게 사용할 수 있는 앱 개발
글로벌 IT회사, 기술개발로 더 다양한 소비자 품는다
‘차별에 예민한’ 직원이 개발하는 차별 없는 기술
IT강국인 한국은 다양성·포용성에 무관심
AI 편향성 문제에 대해 아예 모르고 있는 경우도
[GettyImage]
“사람들은 흔히 카메라가 객관적이라고 생각하지만, 현실은 그렇지 않다. 카메라 기술에는 많은 판단이 들어가 있으며, 역사적으로 그런 판단은 비(非)유색인종이 해왔다”는 것이다.
카메라의 인종차별, 구글 AI로 극복
1990년대까지만 해도 코닥 컬러필름은 백인 피부톤과 비슷한 색에 더 잘 반응하는 화학약품(감광물질)이 사용됐다. 백인과 흑인을 한 앵글에 담으면 사진이 엉망으로 인화되기 일쑤였다. 현재 카메라 기술의 총집합인 최신 디지털카메라에도 비슷한 문제가 있다. 백인의 피부색을 기준으로 화이트밸런스 및 노출의 감도가 설정돼 있기 때문이다.구글은 이 문제를 해결하기 위해 더 많은 이미지 데이터 세트를 활용해 AI(인공지능)를 학습, 화이트밸런스와 노출 감도를 자동으로 조절해 주는 방식을 개발했다. 흑인처럼 짙은 피부 톤을 가진 사람들도 더 아름다운 사진을 얻을 수 있도록 한 것이다. 구글은 하반기 공개할 자체 개발 스마트폰인 ‘픽셀’ 신형에 이 기능을 탑재할 예정이다.
백인의 피부색에 맞춰진 카메라 시스템을 구글이 신기술 개발로 극복해 낸 셈이다. 플로리안 코닉스버거 구글 프로덕트 마케팅 디렉터는 “이건 기술자들이 해결해야 하는 문제다. 사용자가 외모를 바꿀 것이 아니라 우리가 도구의 작동 방식을 바꿔야 한다”고 강조했다.
애플 역시 모든 사용자의 접근성, 만족도를 높이기 위한 노력을 하고 있다. 지난 6월 7일 열린 애플 개발자대회(WWDC 2021)에서 소개한 애플워치 ‘어시스티브 터치(Assistive Touch)’ 기능이 대표적이다.
이 기능은 장애인, 노인 등 거동이 불편한 사용자가 애플워치 화면을 터치하지 않고도 시계를 조작할 수 있도록 만들어준다. 손바닥을 폈다가 움켜쥐는 동작, 엄지와 검지를 붙였다 떼는 동작, 손목을 터는 동작으로 간단한 기능을 시작하거나 종료할 수 있는 방식이다. 손목에 찬 시계를 여러 방향으로 기울여 화면 속 커서를 이동시킬 수도 있다.
지난 5월 20일 출시한 ‘사인 타임(SignTime)’ 서비스 역시 장애인 접근성을 높이기 위한 서비스다. 청각장애인과 수화 통역사를 1대 1로 원격 연결, 애플스토어에서 제품을 사거나 수리할 수 있다. 현재 미국, 영국, 프랑스에서 활용 가능하며 서비스 가능 국가를 계속 확장해 나갈 예정이다.
6월 온라인에 공개된 애플의 개발자대회(WWDC2021) 에는 장애를 가진 멕 프로스트 애플 맵 프로덕트 디자인 디렉터가 연사로 나섰다. [애플 WWDC2021 유튜브 캡쳐]
앞서 언급한 흑인, 장애인 포용 사례가 잘 와닿지 않는다면 동양인이 배제되는 상황을 떠올려보면 된다. 다양한 인종적 특성이 제대로 고려되지 못해 동양인에게 맞지 않는 제품이 개발되는 사례가 대표적이다. 예컨대 헬멧의 경우 동양인은 백인에 비해 머리 모양이 둥글고 좌우 폭이 넓기 때문에 서양인 기준으로 개발하면 동양인에게 맞지 않는다. 이런 시행착오를 거쳐 ‘스미스(Smith)’ ‘루록(Ruroc)’ 같은 헬멧 브랜드는 ‘동양인 사이즈(asian fit)’를 별도로 출시하고 있다.
다양성 위해 여성·유색인종 채용 나서
구글이 5월 개발자회의(I/0)에서 발표한 ‘픽셀’ 카메라 자동 보정 기능. 자동 보정 기능을 사용하면 얼굴을 인위적으로 밝게 만드는 현상이 사라진다. [Google I/O 유튜브 캡처]
최 교수는 “기업이 기술개발을 할 때도 소비력이 약한 소수는 소외되거나 고려되지 않는 일이 많다”며 “이처럼 시스템에 기반한 불평등을 완화하려면 기술을 개발하고 사용하는 사람들의 가치관이 중요하다”고 말했다.
제품이나 서비스가 다양성, 포용성을 갖추길 바란다면 그 제품 및 서비스를 만드는 팀 자체를 다양성을 갖춘 사람들로 구성할 필요가 있다. 의도치 않은 ‘배제’는 다양성 부족에서 비롯된다는 게 실리콘밸리 빅테크 기업들의 공통된 인식이다.
애플은 “모두에게 자율권을 주고 모두를 기쁘게 하라”는 앱 개발의 대원칙을 제시하고 있다. 앱스토어에 앱을 올리는 앱 개발자들을 위해서는 휴먼 인터페이스 가이드라인(Human Interface Guidelines)이라는 지침을 세워뒀다. 모든 사람은 특별하고 중요하며 본연의 모습 그대로 존중받아야 하기 때문에 나이, 성 정체성, 인종과 민족, 생물학적 성, 언어와 문화, 종교, 정치적 관점, 사회경제적 맥락에 종속되거나 국한된 디자인을 해서는 안 된다는 원칙이다.
구글 역시 이번 구글 I/O에서 ‘스마트 캔버스’라는 새로운 협업 도구를 발표하면서 ‘포용적 언어’ 기능을 추가했다. 스마트 캔버스는 구글 문서 도구, 스프레드시트, 프레젠테이션, 구글 미트 등의 기능이 연동된 종합 업무 협업 툴인데, 문서에 특정 성정체성을 지칭하는 단어가 포함됐을 경우 이를 수정할 수 있게 다른 단어를 제안하는 방식으로 설계됐다. 예컨대 의장을 뜻하는 ‘체어맨(Chairman)’이란 단어를 쓰면 스마트 캔버스가 이 단어를 자동으로 인식해 ‘체어퍼슨(Chairperson)’ 혹은 ‘체어(Chair)’를 제시한다.
포용성은 AI(인공지능) 기술·산업에서도 중요한 이슈로 떠오르고 있다. AI 기술은 이미지 인식, 음성 인식, 문자 인식, 클라우드, 로봇, 자율주행차에 이르기까지 거의 모든 미래 산업 분야에 AI기술이 적용되기 때문이다. 특히 AI 학습에 투입하는 데이터 자체가 왜곡돼 있을 경우 AI가 편향, 차별을 드러내는 문제가 발생한다.
대표적 사례가 2015년 구글 이미지 인식 AI 모델의 오류다. 당시 AI가 흑인 두 명의 사진을 고릴라로 분류, 큰 사회적 파문이 일었다. 구글은 시스템을 수정했지만, AI 업계에서는 언제든 비슷한 문제가 발생할 수 있다고 보고 있다.
최근 경쟁적으로 개발·출시되고 있는 대화형 AI 언어 모델에서도 포용성 문제가 자주 지적된다. AI가 사람처럼 이야기하려면 다양한 대화 및 데이터를 학습해야 한다. 문제는 이 대화나 데이터의 내용이 편향돼 있거나, 혐오나 차별에 관한 데이터를 학습하는 경우가 있다.
대표적 예가 지난해 12월 공개된 챗봇 ‘이루다’다. 정식 출시 한 달도 채 되지 않아 이루다가 성소수자를 혐오한다는 답변을 하는 사례가 발생한 데다, 외설적 대화까지 학습한 것으로 알려져 서비스가 종료됐다. 이는 AI 분야에서 포용성과 편향 이슈가 계속 제기될 수 있다는 걸 암시한다. 마이크로소프트가 투자한 초대형 AI 언어 모델 GPT-3도 젠더 편향적인 단어를 학습, 왜곡돼 있다는 비판을 받고 있으며 반이슬람 편견이 존재한다는 문제 제기도 있었다.
IT업계 여전히 백인 남성 영역
팀닛 게브루 박사는 구글 언어 AI모델의 다양성 한계를 지적한 논문을 발표해 해고당했다. [스탠포드 대학]
구글의 경우 최근 AI 모델에서 편견을 없애야 한다고 주장한 ‘팀닛 게브루’ 박사를 해고한 사건이 큰 논란을 낳기도 했다. 구글 AI 윤리팀 공동 팀장을 맡아왔던 게브루 박사는 초대형 AI 언어 모델의 한계를 지적한 논문 때문에 사직당한 것으로 알려졌다.
게브루 박사는 에티오피아계 흑인 여성으로서 스탠퍼드대학에서 컴퓨터공학을 전공한 AI 전문가다. 해당 논문을 확보해 보도한 MIT 테크놀로지 리뷰에 따르면 해당 논문에는 “초대형 AI 모델 학습에 사용되는 데이터 세트가 너무 크고 방대하기 때문에 데이터에 내장된 편향을 확인하기 위한 감사(audit)가 어렵다”는 내용이 포함됐다.
‘블랙 라이브스 매터(Black Lives Matter·흑인의 목숨도 소중하다)’ 같은 새로운 언어 트렌드가 등장하면 기존에 학습된 언어 데이터 때문에 AI 모델이 새로운 단어의 뉘앙스를 제대로 인식하거나 반영하지 못하는 문제도 발생할 수 있다는 것.
한국 IT기업은 다양성·포용성에 무관심
이런 한계에도 불구하고 실리콘밸리 기술 기업들은 AI의 편향성 문제를 인식하고 있다. 마이크로소프트는 AI 편향성을 줄이기 위해 ‘AI 공정성 체크리스트(AI Fairness Checklist)’ ‘페어런(Fairlearn)’을 만들어 활용하고 있으며 IBM은 데이터 세트에서 편향성을 찾아내기 위한 도구 ‘AI 페어니스 360(fairness 360)’를 선보였다. 구글 역시 ‘왓이프 툴(What-If Tool)’을 개발, 기계학습 시 공정성을 시험해 볼 수 있는 환경을 제공하고 있다.오세욱 한국언론진흥재단 책임연구원은 “젠더, 인종 등 이미 명백한 편향은 어느 정도 수정할 수 있을 것으로 본다”며 “다만 기술이 학습하는 데이터는 언제나 과거의 데이터일 수밖에 없기 때문에 늘 현재의 관점에서 편향 문제가 없는지 꾸준히 감시할 필요가 있다”고 했다.
한국에서도 네이버가 최근 초대형 AI 모델 ‘하이퍼클로바’를 공개하는 등 관련 연구 및 기술 상용화가 활발하게 진행되고 있다. 그러나 기업 주도로 포용성, 편향 문제를 예방하고 대응하려는 움직임은 전혀 이뤄지지 않는 실정이다. 하대청 광주과학기술원 교수는 “왜 이루다를 만든 이들, 이루다에 투자한 이들이 ‘문제를 일으킬 줄 몰랐다’고 말하는지 생각해 볼 필요가 있다”며 “기술 문화를 바꾸는 노력이 필요하다”고 했다.
#인종차별 #구글 #다양성 #신동아