「AI 투자 전쟁」을 읽고

2024. 4. 3. 18:12독서

728x90

2023은 그야말로 AI의 해였다. 새로운 서비스가 출시되면 "LLM"은 거의 필수옵션처럼 따라붙었고, 리서치 직종이나 개발, 기타 정보 기반 산업에 종사하는 사람들의 브라우저에는 즐겨찾기로 ChatGPT가 대부분 추가되었다. GPT-4가 출시된 지 이제 1년이 막 넘은 시점의 이야기다. 인스타그램이 100만 사용자를 돌파하는 데 2.5개월이 걸렸고, 페이스북은 10개월이 걸렸으며, 트위터는 2년이 걸렸다. ChatGPT는 100만 사용자를 돌파하는 데 얼마나 걸렸는지 알고 있는가? 불과 5일이다.
 
시장에 AI 하입이 불고 있고, AI 관련 밸류체인에 상당한 돈이 투자되고 있는 것은 분명한 팩트이다. 하지만 특정 분야에 많은 돈이 쏠리게 되면, 투자한 만큼의 가치가 창출되지 않을 때의 버블은 그만큼 가파르게 꺼지게 된다. AI는 과연 그 가치를 창출해낼 수 있을 것인가?
 
책을 읽기 전, 주변 친구들끼리 자주 하던 말이 있다.

AI? 그거 스캠 아니야?

 
솔직히 나도 AI라는 분야의 포텐셜에 대해 반신반의했다. 병원 소속의 컴퓨터비전 연구실에 다니면서, AI가 연구 분야에 아주 요긴하게 쓰일 것임을 몸으로 느꼈다. 그리고 최근 생성AI와 자연어처리의 발전을 보면서 엄청난 기술임은 계속 느끼고 있었다. 하지만 속으로 이런 생각은 은연중에 계속 하고 있었다. 대단해봤자, 1980~1990년대의 인터넷 기술이나 2010년대의 모바일 기술만큼 대단할까. 그정도로 가치를 창출해 낼 수 있는 기술인가. 나는 나온 지 1주일이 아직 채 되지 않은 이 책을 읽고, AI 분야에 대한 확신을 가지게 되었다.
 
아직 AI가 스캠이라고 생각하는 사람들에게 이 책을 꼭 권하고 싶다. 본 포스팅에서는 AI에 대한 내 생각을 정리하면서, 「AI 투자 전쟁」의 내용을 조금씩 덧붙이려고 한다.
 
추가로, 많은 인사이트를 제공해주신 최고의 전문가, 저자 송종호 대표님께 감사드리고 싶다.
 


1. 지금은 인프라 구축의 시간

인터넷 기술의 시초는 언제로 보아야 할까? 1991년 8월에 CERN에서 World Wide Web의 개념이 공개되었을 때를 시초로 보아야 할까? 물론 어느 정도 맞는 이야기이지만, 인터넷 기술에 대한 빌드업은 이전부터 꾸준히 있어 왔다. 1969년 미국 국방고등연구계획국(DARPA, 당시 ARPA)에서 소련과의 핵전쟁을 대비하여 서버를 여러 개로 분리하여 세우고 서로를 연결해 놓은 것이 인터넷의 시초라고 볼 수 있다. 당시의 네트워크 "ARPAnet"에서 처음으로 그 개념이 도입된 것이 현재 정보통신의 중요한 기반이 되는 TCP/IP 기술이다.

ARPAnet (출처: 위키백과)

 
특정 기술의 이론적 개념이 정립되고, 그것이 상용화되어 밸류체인에 들어가기까지는 수 년에서 수십 년 사이의 오랜 시간이 걸린다. 인터넷 기술도 마찬가지로 그 개념은 1960년대 후반에 만들어졌지만, 폭발적인 성장을 하게 된 것은 웹의 표준이 수립되고 브라우저와 통신장비 인프라가 본격적으로 깔리기 시작한 1990년대라고 생각한다.
 
나는 현재의 AI 기술이 인터넷 기술의 역사로 보았을 때 1980년대에서 1990년대에서 넘어가는 정도의 시점이라고 생각한다. OpenAI에서 최근 공개한 GPT-4 터보의 파라미터 수는 약 1조~2조 개 사이이다. 이는 NVIDIA H100 GPU를 약 8,000개 정도 연결하여 학습시켰을 때 달성 가능한 숫자이다.

NVIDIA H100 텐서 코어 (출처: NVIDIA)

 
이 H100이라는 GPU는 무엇이냐.... G마켓에 찾아보니 대략 1개당 5,000만원 언저리에서 거래되고 있다. GPU값만 산술적으로만 계산해 봐도, 8,000대를 확보하려면 4,000억원이 든다. 즉 GPT-4 수준의 인공지능을 트레이닝시킬 수준의 "인프라" 만 갖추고자 해도, 대한민국에서 적당히 잘 나가는 코스닥 상장사 시가총액이 들어가는 것이다. 게다가 여기에 R&D비용, 인건비 등등까지 합치면... 정말로 "상당한 돈"이 들어간다.

 
그래서 우리나라에서 대규모 언어 모델을 위한 인프라를 깔기가 쉽지 않은 것이다. 저 돈을 들일 수 있는 기업이 애초에 몇 개 없고, 들인다고 해봤자 한국어로 트레이닝시킨 언어모델을 한국인 제외 누가 쓰겠는가. 영어는 이미 ChatGPT나 Bard(Gemini)같은 대규모 모델들이 장악하고 있다. 그나마 우리나라에서 검색 시장 점유율 50%를 넘게 가지고 있는 네이버에서 만든 하이퍼클로바X가 몇 안 되는 토종 LLM이며, 카카오브레인의 KoGPT도 사실상 질적으로 아주 뛰어나다는 평가는 받지 못한다. 그리고 앞서 언급했듯이, 아무리 많은 돈을 들여 한국어 LLM을 개발해도 해외로의 확장성이 없다. 외국  LLM인 Bard의 PaLM2 모델이 한국어를 지원한다는 점이 오히려 역으로 네이버나 카카오의 목을 겨누는 상황이다.
 
하지만, 변수는 분명히 있다.

GPU 반도체의 경량화

 
인공지능 학습을 위한 GPU가 경량화되어, 위의 H100 처럼 미친 가격이 아니라 적당한 가격에 거대한 모델을 트레이닝할 수 있다면? 실제로 NVIDIA에서 곧 출시를 앞두고 있는 B100은, 약 2,000개만 있어도 GPT-4 터보 수준의 모델을 트레이닝할 수 있다고 한다.
 
https://www.chosun.com/economy/tech_it/2024/03/19/D22CU3JUQNFK3M24AKGRP3KOSM/

“트랜지스터 2080억개”… 엔비디아, 차세대 괴물 AI칩 ‘B100′ 공개

트랜지스터 2080억개 엔비디아, 차세대 괴물 AI칩 B100′ 공개 업계, 가격 5만 달러 이상 예상 자체 훈련 로봇도 깜짝 공개

www.chosun.com

 
현재는 OpenAI의 GPT-4 모델이 너무 무겁기 때문에 로컬에는 절대 설치할 수 없고, 반드시 서버를 통해 접속해야만 한다. GPU 칩 생산 기술이 무척 발전하여 로컬에서 거대 모델을 돌릴 수준이 된다면 세상이 어떻게 변할지 상상해보는 것도 재미있을 것 같다. (최근 슬슬 나오고 있는 AI 스마트폰도 로컬에서 훈련 가능한 인공지능의 일환이다.)
 
재미있는 점은 이거다. 인간 뇌 안에 있는 연합뉴런 개수는 약 1000억 개이다. 이들의 조합을 생각해 봤을 때, 뉴런과 뉴런 사이의 시냅스 개수는 약 100조개라고 한다. 인공지능에서 파라미터 수는 인간 뇌로 치면 시냅스의 수와 유사한 개념이다. 참고로, GPT-4 터보의 파라미터 개수가 약 1조~2조 개이다. GPU 기술이 조금만 더 발전해서 100조개짜리 파라미터를 가진 거대한 모델이 나온다면, 사실상 인간 뇌라고 볼 수 있지 않을까?

뉴런 (출처: 위키백과)

 
내가 현재의 AI 기술 시장을 1980년대 후반에서 1990년대 초반이랑 비슷한 것 같다는 것도 유사한 맥락이다. 현재는 인프라가 "막 깔리고 있는 상태" 이기 때문에, 아직 AI가 어디까지 할 수 있는지 완전히 드러나지 않았지만, 인터넷 인프라가 완성되고 개인 PC 통신 시대를 열었듯이 빠른 시간 안에 AI의 시대가 올 것이라고 예상해볼 수 있다.


2. 빅테크 춘추전국시대

애플은 2007년 세계 최초의 아이폰을 공개하면서 모바일 기술의 서막을 열었다. 아이폰의 등장은 시장의 판도를 어떻게 뒤흔들었는가?
 
1. 노키아의 추락
아래는 1999년 뉴스이다. 한때 유럽 최대 기업이며 시가총액 기준 글로벌 탑 10 안에 들었던 휴대전화 회사였던 노키아는, 모바일 혁신을 이뤄내지 못해 애플에게 그야말로 참패했다.
 
https://www.mk.co.kr/news/economy/2137654

노키아 유럽 최대기업 부상 - 매일경제

www.mk.co.kr

 
모바일 업계의 판도는 아이폰 이후로 완전히 달라졌다. 자판을 달고 있는 블랙베리, 모토롤라 등도 시장에서 사실상 퇴출되었고, 변화를 빠르게 읽어 낸 삼성전자가 부상하였다.

출처: Gatis Sluka

2. 코닥의 파산
한때 최강의 사진 필름 업체였던 코닥은 모바일을 인정하지 않고 전통적인 필름 산업만 고수하다가 2012년 파산하였다.

출처: Ingram Pinn

 
이러한 과거를 거울 삼아, 현재의 AI의 등장으로 인해 2030년의 세계 시가총액 순위가 어떻게 변해 있을지 예상해 보는 것도 재미있을 것 같다. 아래 사진은 2020년 1월 기준 세계 기업의 시총 순위이다. 2010년대는 모바일 산업의 시대였다. 중국의 IT 공룡인 알리바바와 텐센트는 물론이고, 페이스북과 아마존 모두 모바일의 밸류체인으로 크게 수혜를 입어 성장한 기업들이다.

출처: 연합뉴스

 
아래는 불과 4년이 흐른, 2024년 4월의 시총 순위이다. 마이크로소프트가 시총 1위 자리를 탈환한 것은, OpenAI 의 최대 수혜자라는 점이 크게 작용했다. 또한, 4년 전에는 TOP 10 기업에는 찾아볼 수도 없던 NVIDIA가 시총 3위 자리까지 등극한 점이 가장 주목할 만하다. 그리고 이러한 AI에 필수로 들어가는 대만의 파운드리 TSMC가 10위에 진입했다.

출처: https://top.hibuz.com/

 
2030년에는 위 표가 어떻게 변해 있을까? 인터넷이나 모바일의 등장으로 대기업의 지각변동이 일어났듯이,  AI 시대로의 변화를 받아들이지 못한 기업은 점차 도태될 것이다.
 
구글 브레인은 2017년 "Attention is all you need" 이라는 논문으로 GPT의 근간이 되는 트랜스포머 구조를 세상에 탄생시켰다. 하지만 LLM은 오히려 구글이 아닌 OpenAI에서 출시했다. 저자는 구글이 이러한 "선두"를 놓친 이유로, 윤리 이슈 등으로 변화에 빠르게 대응하지 못했다는 점을 꼽았다. 구글의 입장에서는 아뿔싸 싶었을 것이다. 2010년대 초반 AI 이론이 빠르게 치고 올라올 때부터 쌓아 올린 공이 많은데, 결국 파이는 다른 기업이 선점해서 먹어버렸기 때문이다.
 
메타는 조금 다른 전략을 취하고 있다. OpenAI나 구글의 Bard(Gemini)처럼 LLM 서비스를 전면 유료화해 버리는 것이 아니라, 모델을 조금 경량화시켜서 성능이 완전하지 않더라도 무료로 많이 배포하고 있다. 이것이 바로 LLaMa이다. LLaMa는 ChatGPT처럼 사용하기에 성능은 모자라지만, 튜닝하여 사용하기에는 아주 좋기 때문에 자연스럽게 각종 AI 서비스의 기반 언어가 될 수 있는 것이다.
 
우리가 조금 더 주목해 보아야 할 기업은 테슬라일 수도 있다. 테슬라는 한때 시총 1위까지 달성했다가 현재는 전기차 사업의 부진으로 10위권 밖으로 쫒겨난 상태이다. 하지만, 테슬라는 전기차가 안 팔린다고 해서 절대로 경시해서는 안 되는 기업이다. 현재 테슬라는 세계에서 자율주행에 가장 가까이 다가가 있는 기업이기 때문이다. 휴대폰으로도 자동차를 조작하기 위해서는 자동차가 하나의 소프트웨어처럼 동작해야 하며, 그러기 위해 필요한 다양한 기술을 하나씩 완성해 나가고 있다. 특히, 주행 데이터를 AI로 학습하기 위해서는 마찬가지로 NVIDIA의 칩이 필요한데, 중국의 전기차 업체들은 이러한 칩을 제대로 공급받지 못하고 있다.


 
 
어떤 방향일지는 아직 분명하지 않아도, AI가 세상에 커다란 변화를 가져올 것임은 분명하다. 구시대적인 방식의 산업은 노키아나 코닥이 그랬듯 역사의 뒤안길로 사라질 것이다. 최신 기술을 끊임없이 팔로업 하면서, 산업에 어떻게 적용되고 있는지 자세히 관찰하기만 해도 많은 도움이 될 것 같다는 생각이 든다.
 

반응형