본문 바로가기
CS/MachineLearning

싸움구경이 원래 최고의 구경거리 - AI 메이커스 인공지능 전쟁의 최전선

by Diligejy 2022. 6. 10.

이 서평은 출판사로부터 책을 제공받아 작성하였습니다.

 

농담삼아 다들 그러지 않나요? 구경중에 제일 재밌는건 싸움구경이라고. 어쩌면 기술만 팔거 같은 ML생태계의 역사는 처절한 싸움의 역사였던거 같습니다. 이 책을 읽다보면 그런 싸움의 역사가 있어서 지금의 딥러닝이 있었음을 알 수 있습니다. 

 

싸우는 것도 점잖게 싸우지 않습니다. 거의 원수를 다루듯 무시하고, 무시당하다가 주도권을 다시 잡으면 학회에서 악마냐고 조롱하고 정말 무슨 중국 무협드라마에 나오는 집안 대대로 원수를 보는 듯 합니다.

 

그렇지만 단순히 싸우는 얘기만 했다면 이 책이 무슨 가치가 있었을까요. 당연히 그런 다툼과 논쟁의 과정속에서 어떻게 머신러닝 개념이 발달하고 진화했는지 알 수 있죠. 딥러닝 강의를 들어보신분은 아시겠지만, 처음에 그냥 무작정 퍼셉트론이란 게 있고 XOR이라는 게 있다. LinearRegression이 있고, 입력층, 은닉층, 출력층이 있고 Backpropagation이 있다, ReLU라는 Activation function이 있고 Activation Function은 뭐고 등등...

 

문과적 성향이 강한 저는 뭔가 맥락이 부재한 채 이렇게만 배우면 흥미와 재미가 좀 떨어지는 거 같았습니다. 그런데 이 책을 읽으면서 발전해온 흐름을 보다보니 예전에는 재미없게 배웠던 개념들이 새롭게 다가오더라구요. 

 

사실 이 책은 위에서 말한 딥러닝 강의를 조금 듣고 봐야 재밌게 보실 수 있습니다. 아예 아무것도 모르는데 이 책을 처음보면 오히려 반대로 개념에 대한 맥락이해가 빠져있어서 무슨 말을 하는거야? 하고 재미없어서 책을 던질지도 모릅니다. 그러니 옛날 강의이든 뭐든 코딩하지 않아도 되니까 무슨 말을 하는지라도 들어보고 이 책을 보세요. 그러면 재미있을 겁니다.

 

전설의 김성훈 교수님의 모두를 위한 딥러닝 강의 링크

https://www.youtube.com/watch?v=BS6O0zOGX4E&list=PLlMkM4tgfjnLSOjrEJN31gZATbcj_MpUm&ab_channel=SungKim 

 

무튼 딥러닝을 조금이라도 접해보신분이라면 싸움구경 하는 재미가 쏠쏠한 책입니다.

번역도 매끄럽게 잘 된 편이라(물론 용어가 약간 낯설게 번역된 경우도 있지만 크게 걸리진 않습니다) 읽는데 수월합니다.

 

앞으로도 이런 책이 더 나왔음, 아니 한국 저자가 쓴 책이 나왔음 좋겠네요.

 

 

밑줄 긋기

p.36

기자가 퍼셉트론이 할 수 없는 일이 무엇인지 질문했을 때 로젠블라트는 양손을 들어 올리며 "사랑, 희망, 절망 등 인간의 본성"이라고 대답했다. "우리 자신도 인간의 성적 본능을 이해하지 못하면서 어떻게 기계에 그런 걸 기대할 수 있겠어요?"

 

p.39~40

민스키 역시 로젠블라트와 마찬가지로 인공지능 분야의 개척자였다. 그러나 민스키는 로젠블라트와는 다른 관점에서 이 분야를 바라봤다. 그는 하버드대학교 재학 당시 3천여 개의 진공관과 낡은 B-52 폭격기에서 떼어낸 부품을 가지고 세계 최초의 인공신경망이라고 할 수 있는 SNARC를 만들었다. 1950년대 초 대학원생 때는 퍼셉트론을 탄생하게 한 수학적 원리를 연구하기 시작했다. 민스키는 인공지능을 더 진보적 차원의 개념으로 생각하게 됐다. 

 

p.44~45

민스키는 손 글씨 인식 따위에는 관심도 없었다. 그저 퍼셉트론이라는 아이디어 자체를 공격하고 싶었다. "이 아이디어에는 미래가 없단 말입니다." 민스키가 말했다. 두뇌의 신경망을 모방했다는 퍼셉트론을 무시하는 민스키의 발언에 청중이 웃음을 터뜨렸고, 먼슨의 동료인 리처드 두다는 자존심에 상처를 입고 말았다.

 

민스키는 원래 그런 사람이었다. 괜한 논란을 잘 일으키고 그것을 즐기는 성격이었다. 물리학자들이 잔뜩 모여 있는 장소에서 물리학이 수백 년에 걸쳐 이룩한 발전, 아니 그 이상을 인공지능 분야는 단 수년 만에 성취했다는 말로 분위기를 껄끄럽게 만든 적도 있었다. 그런데 두다가 SRI, 코넬 항공 연구소 같은 곳에서 진행하는 연구를 공격하는 이 MIT 교수의 행동을 전혀 이해하지 못하는 건 아니었다. 당시 MIT는 정부 연구 지원금을 받으려고 이들 연구소와 경쟁 중이었기 때문이다.

 

나중에 또 다른 연구자가 컴퓨터 그래픽을 위해 고안한 새로운 장치에 관한 발표를 끝마치자 민스키는 그 연구의 독창성을 칭찬했다. 그리고 다음과 같은 질문으로 로젠블라트의 아이디어를 두 번 죽였다. "퍼셉트론이 저렇게 할 수 있습니까?"

 

p.46

로젠블라트는 인간의 두뇌를 모방해 스스로 학습하는 기계를 만들고자 했다. 나중에 과학자들은 그러한 방식을 두뇌와 마찬가지로 방대 상호연관 계산이 필요하므로 '연결주의(connectionism)'라고 불렀다. 그러나 로젠블라트가 만든 장치는 두뇌와 비교했을 때 매우 단순한 것이어서 학습 수준도 미미했다.

 

인공지능 분야의 주도적 연구자들과 민스키는 컴퓨터과학자들이 인공지능을 구현하려면 로젠블라트의 아이디어에 매이지 않고 그와 전혀 다른 직관적 시스템을 구축해야 한다고 믿었다. 연결주의 인공지능은 스스로 데이터를 분석함으로써 학습했다. 반면에 기호주의 인공지능은 인간 개발자가 직접 제시한 특정 명령, 즉 기계가 직면한 각각의 모든 상황에서 수행해야 할 모든 작업을 정의한 별도의 규칙에 따라 움직였다. 그러한 명령이 숫자나 문자 같은 특정 기호 집합에 대해서 특정한 작업을 수행하도록 기계에 알려주기 때문에 과학자들은 이를 기호주의 인공지능이라고 불렀다.

 

다음 10년간은 기호주의 인공지능이 인공지능 연구에서 주도적 위치를 차지했다.

 

p.56~57

힌턴은 컴퓨터과학에 대해 아는 것이 별로 없을뿐더러 신경망 연구에 필수인 선형대수 같은 수학에도 흥미가 없었다. 힌턴은 자칭 '신뢰를 기반으로 한 미분'을 이용했다. 그는 기본적인 미분방정식 등 수학과 관련된 문제는 일단 옳다고 가정하는 묘수를 생각해냈다. 그 가정이 타당성을 얻는 데 필요한 계산은 다른 사람에게 맡기거나 꼭 필요한 경우에만 직접 방정식을 풀었다.

 

그래도 뇌의 작동 원리, 뇌를 모방한 기계의 가능성에 대한 힌턴의 믿음은 완고했다. 힌턴이 같은 학계에 몸담은 이들에게 인공신경망을 연구하고 있음을 밝힐 때마다 민스키와 페퍼트가 거론됐다. 사람들은 "인공신경망 가설은 이미 틀린 것으로 밝혀졌잖아요. 다른 연구를 하지 그래요?"라고 묻곤 했다. 민스키와 페퍼트의 책 때문에 연구자 대다수가 연결주의에 등을 돌렸다지만 힌턴은 오히려 연결주의에 더 가까이 다가가게 됐다.

 

힌턴은 <퍼셉트론>을 에든버러로 옮긴 첫해애 읽었다. 민스키와 페퍼트는 로젠블라트의 퍼셉트론 연구를 풍자하다시피 서술했다. 민스키와 페퍼트는 자신들이 발견한 기술적 결함을 로젠블라트 역시 알고 있다고 보지 않았다. 그들이 결함을 설명하는 태도는 너무 단정적이고 불친절했다. 힌턴은 그들의 그런 태도 때문에 로젠블라트가 결함에 제대로 대처하지 못한 것일지도 모른다고 생각했다. 힌턴에게 로젠블라트는 스스로 자기 이론을 입증할 능력이 없다는 이유로 무시해도 좋을 만한 사람이 아니었다. 힌턴은 민스키와 페퍼트가 로젠블라트가 이해할 수 없을 정도로 상세하게 신경망 가설의 한계를 지적함으로써 결과적으로는 문제의 극복을 더 쉽게 만들었다고 여겼다.

 

하지만 그 문제의 극복까지는 10년이 넘게 걸렸다.

 

p.60~61

캘리포니아 남부에서는 로젠블라트로부터 시작된 연구가 명맥을 이어오고 있었다. 1960년대에 로젠블라트와 동료 과학자들은 새로운 신경망, 즉 다층신경망 시스템을 구현하려고 했다. 1980년대 초반 샌디에이고에도 같은 목표를 가진 이들이 모여있었다.

 

과거의 퍼셉트론은 사각형 카드에 인쇄된 대문자 이미지를 보여주면 단층의 세포망이 작업을 수행해 A라는 인식 결과를 내보내는 단층 퍼셉트론이었다. 그런데 로젠블라트는 각각의 층이 정보를 전달할 수 있는 다층신경망을 갖춘 시스템을 구현할 수만 있다면, 자신의 퍼셉트론으로는 가능하지 않았던 복잡한 패턴의 학습도 가능할지 모른다고 생각했다. 즉, 로젠블라트가 생각한 것은 두뇌와 한층 더 닮은 시스템이었다.

 

퍼셉트론은 A가 인쇄된 카드 여러 장을 분석할 때 각각의 인공 뉴런이 카드의 한 지점을 검사해 그 특정 지점이 A를 의미하는 전형적인 3개의 검은 선의 일부인지 아닌지를 학습했다. 하지만 다층신경망을 가진 시스템에서는 그러한 작업이 단지 시작단계에서 이뤄지는 일에 불과하다.

 

이를테면, 이 퍼셉트론보다 복잡한 시스템에 개의 사진을 보여주면 훨씬 정교한 분석 작업을 수행할 것이다. 첫 번째 신경세포층이 각 픽셀을 검사해 검은색인지 흰색인지 혹은 갈색인지 노란색인지 확인한다. 그러고 나서 이 첫 번째 신경세포층은 자신이 학습한 결과를 두 번째 세포층에 전달하고, 두 번째 세포층은 각 픽셀에 짧은 직선이라든가 짧은 곡선 등의 패턴을 찾는다. 세 번째 세포층은 패턴 내에서 또 특정의 패턴을 찾는데, 몇몇 선을 조합해 귀나 이빨을 찾고, 곡선을 조합해 눈이나 코를 찾아낼 수도 있을 것이다. 그리하여 최종적으로 이 다층신경망 시스템이 개라는 결과를 도출할 수 있다.

 

적어도 그것은 획기적인 아이디어였다. 누구도 당시에는 그 아이디어를 구현할 수 없었다. 샌디에이고에는 여전히 그 아이디어를 붙잡고 씨름하는 이들이 있었다.

 

p.62~64

러멜하트는 자신에게 매우 특별하지만 핵심이 되는 도전 과제를 설정했다. 다층신경망 구현에서 가장 큰 골칫거리 중 하나가 전체 계산에서 각 뉴런의 상대적 중요도, 즉 가중치를 결정하기 매우 어렵다는 점이었다.

 

퍼셉트론 같은 단층신경망 시스템에서는 최소한 시스템이 자동으로 단층신경망 전체에 고유한 가중치를 설정할 수 있었다. 그러나 다층신경망을 가진 시스템에서는 그러한 접근방식이 통하지 않았다. 뉴런 상호 간의 관계가 너무 광범위하고 또 너무 복잡했다. 뉴런 하나의 가중치가 변한다는 것은 그 뉴런의 활동에 의존하는 다른 모든 뉴런의 가중치가 변한다는 것을 의미했다. 각 가중치를 나머지 다른 가중치도 함께 고려하면서 설정할 수 있는 훨씬 강력한 수학적 방법이 필요했다.

 

러멜하트는 그 해답으로 '역전파(backpropagation)'라고 불리는 과정을 제시했다. 역전파란 기본적으로 미분학에 기초한 알고리즘으로 더 많은 데이터를 분석해 더 정확한 가중치를 얻을 때 뉴런의 단계 구조상 역방향으로 일종의 수학적 피드백을 보내는 것이었다.

 

힌턴이 막 박사학위를 취득하고 샌디에이고에 도착했을 때 둘은 서로 이 아이디어에 관해 의견을 나누었는데, 힌턴은 러멜하트에게 이 수학적 방법이 통하지 않을 것이라고 말했다. 결국 퍼셉트론을 설계한 로젠블라트가 성공하지 않으리라는 것을 이미 입증했다고 말이다.

 

인공신경망을 만들고 모든 가중치를 0으로 설정한다면 시스템이 여러 층간에 역방향으로 변환값을 전달하면서 스스로 조정하는 법을 학습할 수 있다. 그러나 최종적으로는 각 가중치가 다른 모든 가중치와 같은 위치에 이르게 될 것이다. 시스템으로 하여금 상대적 가중치를 채택하게끔 아무리 시도를 해도 균등한 상태로 수렴하는 것이 자연적인 경향이다. 로젠블라트가 이미 보여줬다시피 이는 수학의 원리에 해당한다. 수학적으로 표현하면 시스템은 '대칭성을 깰 수 없다'는 것이다. 하나의 뉴런이 다른 뉴런보다 더 중요할 수 없으며, 바로 그 점이 문제였다. 이는 곧 인공신경망 가설이 퍼셉트론과 별반 다르지 않음을 의미하는 것이었다.

 

러멜하트는 힌턴의 반대 의견을 듣고 나더니 다음과 같은 제안을 했다. "그렇다면 가중치를 0으로 설정하지 않으면 어떨까? 수치를 무작위로 만든다면?" 모든 가중치가 시작부터 서로 다른 값을 갖는다면 수학적 계산이 서로 같지 않을 것이고, 모든 가중치가 균등해지지도 않을 것이다. 따라서 시스템이 개의 사진과 같은 복잡한 패턴을 인식하는 것을 가능케 하는 가중치를 찾게 될 것이라고 러멜하트는 예상했다.

 

힌턴은 "오래된 아이디어가 신선한 것이다"라는 말을 즐겨했다. 이 말은 과학자는 누군가 그것이 틀렸음을 입증하지 않는 한 하나의 아이디어를 절대로 포기해서는 안 된다는 말이다. 20년 전 로젠블라트가 역전파는 효과가 없다는 사실을 증명했기 때문에 힌턴은 그 가설을 포기했다. 그런데 러멜하트가 이 작은 제안을 해온 것이다. 이후 몇 주에 걸쳐 두 사람은 무작위의 가중치를 가지고 시작하는 시스템을 구축하는 작업에 매달렸고, 이 시스템이 대칭성을 깨뜨릴 수 있었다.

 

이 시스템은 각각의 뉴런에 서로 다른 가중치를 할당할 수 있었다. 단순한 이미지였지만, 그렇게 가중치를 설정함으로써 시스템이 실제로 이미지에서 패턴을 인식할 수 있었다. 시스템이 개나 고양이 혹은 자동차를 인식할 수 있던 것은 아니었지만, 역전파 덕분에 이제는 '배타적 논리합'이라는 것을 처리할 수 있게 됐다. 이것은 10여 년 전 마빈 민스키가 지적한 인공신경망의 한계를 극복했다는 것을 의미했다. 시스템이 카드 위의 두 지점을 검사해 과거에는 해결할 수 없었던 '두 지점의 색상이 다른가?'라는 물음에 답할 수 있었다.

 

하지만 두 사람의 시스템은 그 이상의 것을 해내지는 못했다. 그래서 이 아이디어는 또다시 보류됐다. 하지만 두 사람이 로젠블라트가 한 증명의 굴레에서 벗어나는 길을 발견한 것만은 분명했다.

 

p.85

르쾽은 거기에 안주하지 않았다. 건물 외벽이 유리로 덮여 있어 '세계에서 가장 큰 거울'이라는 별칭이 붙은 홈델 벨 연구소 안에서 르쾽과 동료 연구원들은 안나(ANNA)라는 마이크로칩도 고안해냈다. 안나는 아날로그 신경망 ALU(Analog Neural Network)의 줄임말이다. 여기서 ALU는 산술논리연산장치(Arithmetic Logic Unit)의 약칭으로 신경망 구동을 위한 연산 처리에 적합한 일종의 디지털 회로를 가리킨다.

 

르쾽의 팀은 통상의 범용 칩을 사용하는 대신 특수한 칩을 새로 고안해 알고리즘을 적용했다. 새로운 칩은 표준 칩들을 훨씬 뛰어넘는 초당 약 40억 회의 속도로 작업을 처리할 수 있었다. 신경망을 위한 실리콘 칩을 따로 만들어야겠다는 이 생각은 전 세계 칩 산업을 재구성했다. 비록 20여 년 뒤의 일이긴 하지만.

 

p.89~90

브로켓은 시애틀 외곽에 있는 마이크로소프트 본사 사무실에 앉아 자연어 규칙을 작성하며 7년 가까이 흘려보냈다. 그러다가 2003년의 어느 날 오후, 브로켓의 동료 중 두 사람이 마이크로소프트의 널따란 회의장에서 새로운 프로젝트를 발표했다. 이 두 사람은 각 언어에서 특정 단어의 출현 빈도를 조사하는 통계학적 기법을 사용해 언어를 번역하는 시스템을 개발하는 중이었다. 어떤 단어의 조합이 양쪽 언어에서 똑같은 빈도로, 똑같은 문맥에서 나타난다면 번역에 해당한다고 볼 수 있다는 것이다.

 

두 사람이 이 프로젝트를 싲가한 지 6주밖에 지나지 않았는데도 그들의 시스템은 벌써 실제 언어와 미약하게나마 비슷해보이는 결과물을 선보였다. 군중으로 가득한 회의장 뒤편에 길게 늘어선 쓰레기통 위에 앉아 그들의 발표를 지켜보던 브로켓에게 공황 발작이 찾아왔다. 순간 브로켓은 심장마비가 온 줄 알았고 급히 병원으로 달려갔다. 후에 브로켓은 "내가 관여하지 않은 미래를 보는 것이 52세인 저에게는 너무나 힘들었어요"라고 말하며, 자신이 이제 쓸모없는 것이 돼버린 규칙들을 작성하느라 6년을 허비했음을 깨달았던 끔찍하고 충격적인 순간이었다고 회상했다.

 

전 세계의 자연어 연구자들은 곧 그날 오후 시애틀 외곽의 연구소에서 발표된 통계학적 모델을 수용해 자신들의 접근법을 재정비하기 시작했다. 이 모델은 1990년대부터 2000년대에 걸쳐 '랜덤포레스트', '부스티드 트리', '서포트 벡터 머신' 등의 명칭으로 인공지능 연구자들 사이에 광범위하게 퍼져 있던 수학적 방식 중 하나일 뿐이었다. 연구자들은 자연어 이해나 음성 인식 혹은 이미지 인식 연구에 그러한 방식을 적용했다.

 

p.104~105

인공지능 운동이 개시된 1956년의 여름 학회 이후 50년이 지나서 마빈 민스키를 비롯해 과거 학회에 참여한 학자들이 기념일을 축하하려고 다트머스를 다시 찾았다. 이번에는 민스키가 단상에 올랐고, 관객석에선 다른 연구자가 일어났다. 힌턴과 함께 볼츠만 머신을 개발했던 테리 세즈노스키였다. 그는 동부의 볼티모어를 떠나 서부 샌디에이고로 갔다가 당시에는 솔크 연구소에 몸담고 있었다. 세즈노스키는 민스키가 쓴 <퍼셉트론>의 여파로 신경망의 발전이 중단됐기 때문에 민스키를 악마처럼 여기는 인공지능 연구자들이 있다고 말했다.

 

"당신은 악마입니까?" 세즈노스키가 질문했다. 민스키는 그 질문은 일축하고, 신경망의 한계를 설명하며 약속한 성과를 보여주지 못했다고 지적했다. 세즈노스키는 다시 물었다. "당신은 악마입니까?"

 

마침내 화가 잔뜩 난 민스키가 대답했다. "그래요, 전 악마입니다."

댓글