반응형

출처: http://thegear.co.kr/10087


에릭 슈미트 알파벳(전 구글) 회장이 지난 10월30일 오랜만에 서울을 찾았습니다. 그의 이야기 중에서 인터넷을 가장 후끈하게 만든 건 바로 ‘머신러닝’이었습니다. 기계가 세상을 학습하는 것 자체가 앞으로 우리 세상에서 어마어마한 가치를 만들어낼 것이라는 이야기였죠.

그런데 그 이야기가 괜히 나온 건 아닌가 봅니다. 불과 2주도 지나지 않아 에릭 슈미트 회장을 다시 만날 기회가 생겼습니다. 11월10일, 구글이 아시아 지역의 기자들을 도쿄에 모아놓고 머신러닝에 대한 이야기를 꺼냅니다. 사실 이 행사는 구글이 매년 가장 주목받는 기술에 대해 심도 있게 이야기하는 자리인데 올해의 주제가 바로 머신러닝이었습니다. 그리고 에릭슈미트 회장은 워싱턴에서 '행아웃'으로 도쿄의 행사장과 연결해 머신러닝의 가능성에 대해 직접 발표하고, 기자들의 질문을 받기도 했습니다.



말머리는 그가 서울에서 꺼낸 이야기와 많이 다르지 않습니다. 에릭 슈미트 회장은 “인터넷, 그리고 스마트폰이 세상 모두를 변화시킨 것처럼 다음 트렌드는 머신러닝이라고 생각한다”는 말로 이야기를 시작합니다.


 

머신러닝과 정보 수집의 역사



머신러닝이라는 말이 요즘에는 흔하게 쓰이지만 이 단어가 나온 건 그리 오래되지 않았습니다. 하지만 에릭 슈미트 회장은 ‘이미 30여년 전부터 업계는 신경망을 구축해 왔다’고 말합니다. 사람의 두뇌처럼 컴퓨터를 다중으로 연결해 통찰력을 갖기 위한 노력이지요. 그게 불과 4~5년 전부터 컴퓨팅 기술과 수학이 모여 더 깊은 단계의 신경망이 구축되기 시작했다고 합니다. 20~30개의 신경망 레이어로 복잡한 사물의 내용을 판단하게 된 겁니다. 비트, 선, 이미지 경계, 색깔, 형상, 그리고 눈이 있는지 등을 보다가 지금은 더 높은 단계의 이해로 아기와 남성, 여성을 구분해 낼 수 있는 수준에 이르게 된 겁니다.

구글이 본격적으로 이용자의 정보를 수집해 개인화 서비스를 시작하겠다며 데이터, 그리고 약관을 통합했던 것도 이때쯤입니다. 사실 구글은 2011년부터 수십 가지의 개별 서비스에 대한 주체와 데이터를 통합해 왔습니다. 구글도 회원정보 통합의 목적을 숨기지 않았습니다. 그리고 당시에는 업계가 들썩거릴 정도로 큰 파장과 우려를 샀지요. 이른바 ‘빅 브라더’입니다. 개개인의 정보를 속속들이 알게 될 것이라는 걱정입니다. 지금은 그 걱정은 눈에 띄게 줄어들었습니다. 오히려 광범위한 정보 수집과 분석을 통해 새로운 통찰력을 얻게 되는 것에 세상이 열광하고, 어떻게 보면 지나칠 정도로 큰 관심을 보이기도 합니다. 빅데이터나 머신러닝이 그 중심에 서 있는 기술입니다.

10일, 구글이 도쿄에서 꺼내놓은 머신러닝의 이야기는 크게 두 가지로 볼 수 있습니다. 구글포토, 그리고 머신러닝의 오픈소스입니다. 아, 물론 구글의 머신러닝은 이게 전부가 아닙니다. 우리가 생각하는 것 이상으로 복잡하게 얽혀 있습니다. 구글만큼 세상의 정보를 많이 갖고 있는 주체가 또 어디에 있을까요. 머신러닝의 핵심은 ‘정보의 양’ 그 자체에 있으니까요. 구글포토는 구글의 머신러닝을 읽어볼 수 있는 좋은 사례입니다. 구글포토는 정식서비스를 시작한 지 이제 막 반 년이 지났습니다. 물론 그 바탕에는 소셜미디어인 ‘구글플러스’가 있긴 하지만 이를 사진에 초점을 맞추고, 사진 크기를 바탕으로 저장 공간 무제한이라는 카드를 꺼내면서 서비스를 특화시킨 게 인기 비결입니다.


 

구글 포토, 서비스와 데이터 수집의 접점





구글포토는 뭘 위한 서비스일까요? 넘쳐나는 디지털 사진으로 인해 우리는 저장 공간 문제와 고질적인 사진 정리 문제를 떠안고 있습니다. 사진을 어디까지 지우고, 어디까지 보관해야 할지 판단하는 건 쉽지 않습니다. 그래서 어딘가에 일단 쌓아두게 되지요. 그리고 그 사진은 곧 잊혀지게 마련입니다. 수십 기가바이트를 넘어 테라바이트 단위의 클라우드 저장 서비스들도 있긴 합니다. 플리커가 대표적이지요. 하지만 구글포토가 인기를 얻게 된 이유는 단순히 용량 문제는 아닙니다. 이 서비스를 써보고 놀라게 되는 가장 큰 이유는 ‘사진을 이야기로 만들어준다’는 겁니다.

구글포토는 같은 장소에서 찍은 사진, 혹은 특정 날짜나 여행지를 통해 사진의 맥락을 읽고 중요한 내용을 묶어줍니다. 국내에선 아직 안 되지만 인물별로 분류해주기도 합니다. 그걸 사용자에게 일일이 ‘누구인지’, ‘어디인지’, ‘무슨 이벤트인지’에 대해 잘 묻지도 않습니다. 듬성듬성 묶어놓은 뒤에 “사진 묶어 뒀다”라고 이용자에게 알려주기만 합니다. 그러면 우리는 그 안에 제목과 이름, 그리고 정확한 장소 정보 등을 추가해서 사진첩을 완성하지요.

자, 이 안에 구글의 머신러닝이 숨어 있습니다. 구글은 오래 전부터 이미지 검색에 굉장히 공을 들여 왔습니다. 고양이 사진, 가족 사진, 자동차 사진 등을 구분해내기 위해 많은 노력을 해 왔지요. 결국 구글이 얻은 결과는 머신러닝입니다. 각 피사체가 갖는 특징을 프로그래밍으로 설명해 넣는 게 아니라 알고리즘으로 시스템이 직접 배우고 판단하도록 열어 놓는 것이지요. 구글포토 역시 머신러닝 기반으로 사진을 묶습니다. 당연히 사진에 담긴 정보를 이해할 수 있어야겠지요. 사진에서 얻을 수 있는 정보는 생각보다 많습니다. 마치 셜록 홈즈가 처음 만난 사람의 옷매무새나 소지품을 통해 판단하는 것처럼 말이지요.

단번에 어떤 사진인지 알아챌 수 있다면 좋겠지만 그건 쉽지 않습니다. 엄청나게 많은 정보가 필요하기 때문이지요. 구글이 선택한 방식은 뉴로 네트워크입니다. 사물을 판단하는 데에 단계를 두는 것이지요. 각각의 레이어를 통해 색, 선, 모양 등을 하나씩 골라내면서 사진의 정보를 구체화 합니다. 구글포토는 현재 22개의 레이어를 통해 사진의 정보를 얻어냅니다. 구글은 이를 ‘인셉션’이라고 부르더군요. 영화 인셉션처럼 꿈의 단계를 거쳐서 점점 더 깊은 잠재 의식에 접근하는 것처럼 정보를 파악한다는 것이지요. 네, 이게 딥러닝(deep learning)이지요. 단계별로 인지한다는 겁니다. 그리고 결국 사용자들이 더 많은 사진을 올리고 이용할 수록 그 정확도는 더 높아집니다. 머신러닝의 핵심은 결국 많은 ‘러닝’, 즉 ‘학습’이 이뤄져야 한다는 것이지요. 그래서 현재 구글포토는 단순히 ‘개’가 아니라 ‘프렌치 불독’이나 ‘옐로 래브라도’처럼 입력해도 사진을 찾아줍니다. 자동차 모델명 찾는 건 일도 아니지요. 구글포토에서 갖고 있는 사진을 검색해보시면 아기나 남자, 여자도 구분하고 골프장, 절벽, 음식 등 온갖 일반적인 분류 검색이 다 먹힙니다.

우리가 사진을 업로드하는 동안 사진의 정보가 다 읽혀진 것이지요. 물론 그 안에는 아주 간단한 메타 정보도 포함됩니다. GPS 정보를 이용해 아주 정확한 위치 정보를 알 수 있고, 촬영된 시간도 알 수 있지요. 이게 앞서 설명한 머신러닝 정보와 묶이기도 합니다. 예를 들어 구글포토에서는 아주 독특한 옷을 입고 있는 사진을 보았을 때 촬영한 날짜가 10월 말이었다면 할로윈 이벤트겠지요. 1월이면 코믹콘일 가능성이 높다는 복합적인 판단도 이뤄집니다. 정확한 위치 정보가 없어도 됩니다. 우리가 어떤 사진을 보고 ‘파리’라고 인지할 수 있는 건 왜일까요? 에펠탑이 있기 때문입니다. 개선문이 있으니까 알 수 있지요. 머신러닝이 그걸 찾아내는 건 아주 쉽습니다. 날씨나 밤낮 같은 건 거슬릴 게 없습니다. 에펠탑의 형상은 변하지 않으니까요. 오히려 앞서 설명했던 개나 고양이의 경우 일정한 형태가 없기 때문에 엄청나게 많은 사진을 반복해서 봐야 고양이라는 것을 인지할 수 있습니다.


 

“데이터는 곧 정확도”




구글이 구글포토의 저장 공간을 조건부 무제한으로 푼 이유도 사실 데이터 수집에 있습니다. 용량 제한 없이 사진을 올리고, 그걸 보기 쉽게 만들어주면 많은 사람들이 구글에 사진을 올리겠지요. 그러면 그만큼 더 많은 머신러닝의 소재가 되는 정보를 수집할 수 있습니다. 그 결과는 더 정확한 사진 분석으로 이용자에게 돌아갈 겁니다. 이미 구글은 그 효과를 보고 있습니다. 구글포토는 6개월만에 1억명 이상의 열성 이용자를 모았고, 이들이 500억 장이 넘는 사진을 인터넷에 올렸습니다. 배울 소재가 넘쳐나지요. 판단이 틀리기도 합니다. 실제로 사람을 침팬지로 인식하는 등 사회적으로 시끄러운 사건이 생기기도 했지만 결국 그 사건은 구글의 머신러닝 기술을 더 정밀하게 만들었습니다. 이게 머신러닝의 특징이기도 합니다. 기기가 뭘 배우게 될 지, 어떤 판단을 할 지에 대해 프로그래머도 알 수 없습니다. 그리고 정보가 부족하면 전혀 엉뚱한 답을 내놓기도 합니다.

이건 사실 30여년 전, 머신러닝에 대한 개념이 나오면서부터 겪던 문제였습니다. 그 해결책 중 하나가 딥러닝이긴 합니다. 하지만 근본적으로 구글은 더 많은 정보를 모으는 것이 답이라는 것을 아주 잘 알고 있습니다. 정보가 아주 많으면 오류는 급격하게 줄어듭니다. 얼마나 많은 정보를 모으느냐가 관건인 셈입니다. 그리고 구글만큼 착실하게, 그리고 안전하게 세계의 정보를 쌓아가는 회사도 흔치 않습니다. 대표적인 사례가 번역입니다. 그동안 수많은 회사들이 컴퓨터를 이용한 번역기를 개발해 왔습니다. 하지만 실제로 쓰기는 쉽지 않지요. 아예 컴퓨터로 번역한 걸 ‘기계번역’이라고 부를 정도인데 말 그대로 사전을 대조하는 방식이 많이 쓰였습니다. 구글은 여기에도 머신러닝을 붙여서 아예 문장을 통째로 번역합니다. ‘good morning’은 ‘좋은 아침’이 아니라 ‘안녕?’입니다. 이런 정보를 엄청나게 많이 갖게 되면 은어나 속어, 학술용어까지도 다 이해할 수 있게 되는 것이지요.

심지어 이게 카메라와 접목되면 사진으로 들어오는 이미지 형식의 글자를 텍스트로 받아들여 실시간으로 분석할 수 있게 됩니다. 활자는 쉽지만 저마다 다른 손글씨를 알아보려면 이 역시 반복적인 머신러닝을 이용해야 합니다. 모든 과정이 이론적으로는 사람이 언어를 배우는 방식과 비슷합니다. 하지만 아직 언어에 따라 원하는 수준의 정보가 수집되지 않았다는 게 문제라면 문제겠지요. 그리고 그 정보 수집은 결국 시간이 해결할 겁니다.

반응형

+ Recent posts