“최근 20년을 스마트폰 혁명이 주도했다면 향후 10년은 AI가 모든 산업의 기반이 될 것”

ⓒ사례뉴스

올해부터 향후 10년간 비즈니스와 산업 전반을 변화시킬 가장 중요한 트렌드로 업계 전문가들은 ‘인공지능(AI)’을 꼽고 있다. 21세기 첫 20년을 스마트폰 혁명이 주도했다면, 향후 10년간은 AI가 모든 기술과 산업의 기반이 될 것이란 전망이다.

 

지난 2016년 알파고가 이세돌 기사를 바둑으로 이기기 전까지 사실 AI 기술은 국내 대중에게는 멀게만 느껴졌던 것이 사실이다. 하지만 지난 몇 년 사이 AI 기술은 우리 삶을 빠르게 파고들고 있다는 평가다.

이세돌 기사(왼쪽)와 알파고 이미지(오른쪽). [출처=서울특별시교육청] 

국내 한 AI 전문가는 “스마트폰, 스마트 홈 등 실생활은 물론이고 의료·자동차·금융·정보기술(IT)·통신에 이르기까지 모든 산업에 걸쳐 AI 시대가 성큼 다가왔다”며 “AI 기술은 빅데이터와 빠른 처리 능력, 더 강력한 알고리즘이 결합돼 점점 더 진화하고 있다”고 밝혔다.

 

글로벌 컨설팅 기업 맥킨지도 보고서를 통해 “AI 기술은 2030년까지 전 세계 국내총생산(GDP)을 1.2% 끌어올리고 총 13조 달러(약 1경5300조원)의 경제적 효과를 발생시킬 것”이라고 분석하고 있다.

[이미지 출처=맥킨지 AI관련 보고서]
[이미지 출처=맥킨지 AI관련 보고서]

국내 AI 전문가는 “국가와 기업의 미래 경쟁력이 이제 AI에 달려 있다고 해도 과언이 아니다”며 “이미 세계 각국이 AI 산업을 육성하기 위해 경쟁을 펼치고 있으며 미국의 경우는 정부가 행정 명령을 통해 AI 투자를 적극적으로 펼치고 있다”고 소개했다.

 

미국과 더불어 G2의 또 다른 축인 중국 역시 진나 2017년부터 자율주행차와 스마트시티·헬스케어 등 분야별 특화된 AI 산업 플랫폼을 육성하고 있는 것으로 알려졌다. 국내 한 매체가 조사한 통계에 따르면 미국과 중국의 AI 전문 기업 수는 각각 2000개, 1000개가 넘는다.

미중 인공지능 (AI) 업계 현황. [출처=파이낸셜 뉴스]

유럽도 만만치 않다. 마크롱 프랑스 대통령은 2022년까지 AI 분야에 15억 유로(약 2조원)를 지원하겠다고 밝힌바 있다. 유럽의 대표적인 강대국인 독일과 영국 또한 이미 AI관련 국가 전략을 수립해 관련 정책을 추진 중이다.

 

‘직관’ 갖추기 시작한 AI…이제는 사람의 ‘마음’까지 읽는다고?

 

‘알파고 사건’ 이후 인간 우위라던 게임 분야에서 AI가 최고수로 등극하기 시작했다. 구글의 딥마인드가 만든 ‘알파스타’는 스타크래프트 게임에서 최고수들을 상대로 승리를 거둔 데 이어 지난해 11월 스타크래프트Ⅱ 게임플레이어의 상위 0.2%에 해당하는 그랜드마스터 등급에 도달하기도 했다.

유럽의 스타크래프트2 프로게이머 그레고리 코민츠가 알파스타와 대결하고 있는 모습. [출처=IS포토]

또한 딥마인드는 ‘알파폴드’를 통해 단백질 아미노산 결합 구조 예측 알고리즘을 선보여 과학적 난제를 푸는 데도 성과를 냈다. 구글은 지난 2017년 ‘신경망 기계 번역(NMT)’을 통해 기존 기계 번역의 한계를 뛰어넘는 결과를 보여주기도 했다. 한마디로 이제 사람만이 할 수 있다고 여겨졌던 많은 영역에서 AI가 인간의 능력을 따라잡고 있는 것이다.

 

국내 AI분야 권위자인 장병탁 서울대 AI연구원장은 “AI 기술은 이제 우리 일상생활에서 보편적으로 활용되는 범용 기술이 돼가고 있다”며 “AI의 출발은 1950년대 ‘생각하는 기계’를 만들고 싶은 꿈이었다. 초기에 기술이라고 얘기했던 것들과 지금의 AI 기술에는 엄청난 차이가 있다. ‘학습’이라는 기술을 통해 ‘패러다임 시프트’가 일어나게 된 것”이라고 분석했다.

장병탁 서울대 AI연구원장. [출처=한경비즈니스]

산업혁명을 통해 등장한 증기기관과 전기모터가 사람의 근육과 힘을 쓰는 노동력을 대신했다면, AI는 이제 사람의 정신적인 노동력을 대신한다. 이를 위해 과거에는 사람의 지능을 일방적으로 AI에 집어넣어 주는 방법론을 썼다. 이런 방법론을 토대로 1980년대에 AI의 1차 산업화 시도가 있었다.

 

예를 들어 의사들의 질병 진단 지식을 규칙 형태로 프로그래밍해 컴퓨터에 넣어주고 이를 이용해 병을 진단하는 전문가 시스템이 개발됐다. 그런데 이 방식에 한계가 드러났다. 그것은 의사들도 병을 진단할 때 어떤 지식이 사용되고 왜 그렇게 판별하는지 정확하게 알지 못했기 때문이다. 다양한 종류의 복합 지식이 사용되기 때문에 모든 경우를 규칙으로 설명하는 것이 불가능 했던 것이다.

[출처=네이버블로그]

이런 한계에 머물러 있던 AI 산업에 새로운 혁신이 일어난 것은 뇌를 닮은 AI를 개발하려는 ‘신경망 연구’를 통해서다. 예로 들었던 의사들의 복잡한 판단 과정에서 전문가 본인도 모르는 원리를 기계가 학습을 통해 알아내게 되면서, 단순히 프로그래밍된 지식이 아니라 인간의 오랜 경험으로 체득된 지식을 기계가 흉내 내기 시작했다. 이는 다양한 사례들을 통해 이미 AI 연구계에서 증명되고 있다는 평가다.

 

장병탁 서울대 AI연구원장은 “뇌를 닮은 컴퓨터가 가능하게 된 데는 알파고가 큰 역할을 했다”며 “사람이 바둑 교본을 보고 패턴을 분석해 규칙을 프로그래밍하는 게 과거의 방식이었다면 알파고는 수많은 바둑 교본을 직접 보고 학습했다. 기계가 교본을 직접 보면 전문가 본인도 설명하지 못하는 패턴을 ‘원본 데이터(raw data)’를 통해 유추할 수 있다. 기계가 사람의 ‘직관’을 흉내 내기 시작한 것”이라고 설명했다.

 

데이터가 10만개?100만개 되면 AI도 사람만큼 정확해 져…스마트폰·가전·자동차·로봇 등 다양한 분야 통해 본격화 속도 높아지는 ‘AI 대세’ 막기는 어려울 것

미국 캘리포니아에서 개최된 머신러닝 컨퍼런스 ‘ICML 2019’에 마련된 네이버 연구 포스터 발표 섹션에서 사람들이 연구에 대한 설명을 듣고 있는 모습. [출처=네이버]

과연 AI는 인간 고유의 영역이라고 여겨지던 ‘직관’을 어느 정도 따라 잡은 것일까. 정병탁 AI연구원장은 “논리적으로 보면 AI가 ‘귀납적 추론’을 하는 셈”이라며 “다양한 사례를 보고 결론을 내리는 귀납적 추론은 일상생활에서 사람이 매일 쓰는 지능이다. 과학자들도 귀납적 추론을 한다. 단점은 오류가 있을 수 있다는 것”이라고 전했다.

 

가정이 맞는다면 결론이 맞는 연역적 추론의 경우는 논리적으로는 명확하지만 새로운 것을 발견하지 못한다. 하지만 귀납적 추론은 오류가 있을 수 있는 대신 새로운 것을 발견할 수 있다. 정병탁 AI연구원장은 “물론 사람은 처음 본 사람을 다음에 바로 알아볼 수 있지만 AI 기계는 아직 그 정도는 아니다”며 “헤어스타일, 의상, 그날의 기분과 표정 등이 달라질 수 있는데 그 미묘한 차이까지는 발견하지 못한다. 최근 딥러닝이 나오면서 조금씩 따라잡고 있는 단계”라고 말했다.

AI 딥러닝과 머신러닝을 구조도로 설명한 그림. [출처=메리츠종금증권 리서치센터]

이같은 ‘머신러닝’의 원리는 이미 30년 전부터 많이 연구 돼 왔다. 1990년을 전후로 컴퓨터가 가정과 사무실에 보급되면서 데이터가 전자화되기 시작했고, 이후로 스마트폰이 등장하면서 사진·비디오·소리·음성·위치·센서 데이터 등 다양한 종류의 데이터가 등장했다. 또한 소셜 네트워크 서비스(SNS)를 통해서도 일상생활에서 사용되는 각종 데이터가 수집되기 시작했다. 이러한 데이터를 토대로 AI 기계가 학습을 계속 진행하고 있다.

 

‘기계 번역’이 그 결과물의 좋은 예다. 사실 과거 1970년대 미국과 소련의 냉전 시대에 첩보를 위해 기계 번역에 많은 투자를 했었지만 양질의 기계 번역이 불가능에 가깝다는 결론이 나왔었다. 그런데 2000년대 구글이 등장해 딥러닝을 통해 이 포기했던 기술을 되살렸다. 언어학자들이 만든 규칙을 통해 기계 번역을 하려던 방식은 실패했지만, 딥러닝에서는 뇌를 닮은 신경망을 통해 변환 규칙을 찾아냈다. 샘플이 100개, 1000개라면 엉터리일 수 있지만 10만개, 100만개, 1000만개 등으로 늘릴수록 AI가 사람만큼 정확해 지더라는 것이다.

AI 입력 데이터의 샘플을 10만개, 100만개, 1000만개 등으로 늘릴수록 AI가 사람만큼 정확해 진다. [출처=블로터]

정병탁 AI연구원장은 “다가올 AI는 유연한 지식을 학습할 것”이라며 “그것이 가능해지는 이유는 5G와 사물인터넷(IoT)을 통해 일상의 센서 데이터를 실시간으로 수집할 수 있기 때문이다. 온갖 종류의 센서 데이터가 실시간으로 모이면 모든 사람들의 일상생활을 바꿀 만한 파급력이 발생할 것”이라고 예측했다.

 

이제 AI는 점점 더 가상 세계에서 우리의 실생활로 나온다는 다가오게 될 것이다. 예를 들면 집에서는 AI 가사 도우미가 잠자리에서 일어나 잠자리에 들기까지 하루 일과를 계획해 준다거나, 로봇 형태의 신체를 갖춘 AI 비서가 집 안에서 물건을 정리하거나 날라줄 수도 있다. 현재도 진행 중이지만 에어컨·냉장고·세탁기 등 가전제품은 IoT와 연결돼 그들의 직관적 지능까지 갖게 될 것이다.

앞으로 집안의 가전제품들은 IoT와 연결돼 그들의 직관적 지능까지 갖게 될 것이다. [출처=헬로티]

도시 환경에서는 AI를 활용한 스마트 시티가 조성될 것이고, 제조 공장에선 스마트 팩토리가 일반화 될 것이다. 사무 환경에서도 반복적인 업무들은 AI가 대체할 가능성이 높다. 자료 수집, 정리·분석의 기능까지도 AI가 수행할 수 있게 될 것이다. 정병탁 연구원장은 “AI는 결국 ‘사람의 마음을 읽은 기술’로 발전할 것”이라며 “AI가 무서운 이유다. AI는 양면성을 갖고 있다”고 경계했다.

 

예를 들면 구글 글라스와 같은 웨어러블디바이스를 착용하면 사람의 눈빛을 보고 그 사람의 기분이나 의도, 지위 등을 파악할 수도 있다. 이는 비즈니스 협상에 유용할 수 있지만 이익을 위해 악용될 가능성도 높다. 사생활 침해 이슈도 해결해야 하는 문제다. 이런 문제점에도 불구하고 이미 비즈니스 현장에서 스마트폰·가전·자동차·로봇 등 다양한 분야를 통해 본격화의 속도를 높이고 있는 ‘AI 대세’를 막기는 어려울 것으로 보인다. 그렇다면 우리 중소기업들은 이제 앞으로 AI와 어떻게 함께 살아갈 것인지 본격적인 고민을 해 봐야할 시점이다.

ⓒ 사례뉴스는 비즈니스의 다양한 사례를 공유합니다. 출처를 표기한 다양한 인용과 재배포를 환영합니다.