• 인공지능 chatGPT에게
    ‘기후위기 해결책’ 따위는 묻지 않기를
    [정의 경제] 이세돌 vs 알파고···20W와 100만W 소모
        2023년 02월 23일 10:23 오전

    Print Friendly, PDF & Email

    메타버스는 가고, 인공지능은 다시 뜨고?

    지난해 연말부터 관심 폭발이던 대화형 인공지능 chatGPT가 올해에는 더욱 거세다. 온갖 미디어, SNS, 심지어 시민들의 일반 대화에서도 chatGPT 주제로 가득찼다. 이 현상은 직업, 정견, 연령 불문인 것 같다. 2022년까지 뜨거운 기술적 주제였던 블록체인이나 메타버스는 까마득한 과거얘기처럼 들릴 정도다.

    서비스를 공개한 지 5일만에 100만 사용자를 넘었고 2달 만에 월간활성사용자(MAU) 수가 1억 명을 돌파했으며, 곧바로 월 20달러 유료서비스에 착수할 정도니 안 그러기도 쉽지 않다. 이에 대해 월스트리트저널은 지난 2월 18일, “암호화폐 대신 AI가 실리콘밸리의 차세대 밴드웨건이 됐다”면서, 최근 투자자와 테크기업 경영자는 물론 엔지니어들까지 chatGPT 붐에 편승하기 위해 변신을 서두르고 있다고 꼬집었다.

    그림1 chatGPT 5일만에 1백만 사용자 돌파

    새로운 세대의 인공지능 chatGPT의 신화와 실제

    기존까지의 ‘식별형’ 인공지능을 넘어 chatGPT같은 ‘생성형’ 인공지능이 급부상하자 온갖 화려한 상상이 다시 가득해지고 있다. 기존의 학교수업이나 의료와 법률서비스 방식이 근본적으로 바뀔 것이라는 성급한 진단은 그나마 얌전한 편이다. 일반지능(AGI)시대가 드디어 왔다고 주장하는가 하면, 지금보다 성능이 10배 이상 개선된 chatGPT4가 출시되면 초지능에 근접하는 특이점(Singularity) 도래도 내다볼 수 있다는 주장까지 난무한다. 도대체 chatGPT는 과거의 인공지능과 얼마나 다르길래 이런 열광과 환상적인 전망이 쏟아져 나올까?

    비영리법인으로 시작했지만 2019년 마이크로소프트의 대규모 자본투자로 영리의 길을 걷고 있는 openAI가 개발한 chatGPT(GenerativePretrainedTransformer)-3.5는, 1750억 개의 매개변수를 갖는 트랜스포머 아키텍쳐 기반의 ‘대형 언어모델(large language model; LLM)’로 알려졌다.

    그런데 착각하지 말아야 할 것이 있다. 잘 알려진 딥러닝의 한 유형인 GPT-3모델은 엄밀히 말해 인간의 뇌처럼 스스로 생각하고 말하는 것이 아니라, “다음에 나올 문장 중 가장 자연스러운 단어를 학습”하여 자연어를 흉내내는 것이다. 다시 말해서 스스로는 전혀 무슨 말을 하고 있는지 인식하지 못하면서 기존 학습 데이터를 참조로 그럴듯한 말을 조합한다는 얘기다.

    때문에 아무리 chatGPT가 놀라운 답변을 해내더라도 그것은 기존에 학습한 데이터를 가지고 가장 그럴 듯하게 재구성하는 것에 불과하다. 따라서 생성되는 답변이 거짓일 확률도 얼마든지 있고, 저작권이 문제가 될 수도 있으며, 심지어 유해한 내용까지 담을 수 있다. 혹은 잘못된 답변을 하면서도 “틀린 정보도 ‘약장수’처럼 솔깃하게 들리도록” 자신있게 말하는 바람에 혼란을 주기도 한다.

    이런 문제들 때문에 openAI는 사용자의 의도와 부합되는 모델을 만들기 위해 RLHF 모델을 도입했다. 이 모델은 과거 이루다가 범한 차별과 편향을 피하기 위해 윤리와 도덕적인 질문 등에 대해 chatGPT에게 인간이 직접 훈련을 시키는 지루한 작업을 수행한 것이다(이런 교정과정을 거친 것이 바로 chatGPT3.5다). 아울러 openAI는 chatGPT가 작성한 답변의 거짓이 문제가 될 것을 염려해서 이의 진위를 가리는 새로운 AI도 개발 중이라고 한다.

    또한 chatGPT는 대화의 맥락을 파악하여 답변하는 방식이므로 정확함이 요구되는 수학 계산에 비교적 약한 모습을 보이고 있고, 특히 학습 데이터 중 영어 데이터가 92%에 달하고 한국어 데이터는 고작 0.19%에 불과하여 한글로 묻고 답하면 엉터리 답변이 숱하게 쏟아져 나온다. 이처럼 chatGPT는 자연어 처리가 능숙한 탓으로 일반인들에게 굉장히 친숙하고 세련되게 다가오지만, 근본적으로는 과거의 딥러닝 기반 인공지능과 질적으로 다른 것이라고 볼 수 없다.

    기존 인공지능에 비해 더 많은 전력 소모, 더 많은 탄소배출

    물론 chatGPT는 탁월한 자연어 처리, 압도적인 매개변수 개수, 이를 처리하기 위한 대규모 하드웨어 용량 등을 기반으로 과거보다 훨씬 많은 영역에서 인간의 사회경제활동에 개입하게 될 것이다. 때문에 일반지능이나 초지능 진화 같은 근거 없는 환상을 배제하더라도, IT개발자들에게는 버그잡기나 문서화 등 고된 일들을 줄여줄 수 있고, 기존 콜센터 등 대화형 고객 서비스는 더 광범위하게 챗봇으로 대체될 것이며, 각종 지식노동에서 기본적인 자료수집이나 초안작업에 다양하게 chatGPT가 활용될 것이다.

    그런데 이 대목에서 확실하게 살펴봐야 할 대목이 있다. 통상 인간의 어떤 활동을 기계든 인공지능이든 인공적인 것으로 대체하면, 그만큼 에너지와 자원이 더 소모된다는 점이다. 생산과 서비스 현장에서 사람이 해고되고 자동화기계로 대체된다는 얘기는 그만큼 인간의 에너지 대신 다른 에너지가 사용된다는 것이기 때문이다.

    구체적으로 살펴보자. 구글에서 공개한 “탄소배출과 거대인공신경망 학습”이라는 논문을 보면, 구글의 언어 번역프레임워크(GShard)은 학습과정에서 24메가와트 에너지와 4.3톤의 이산화탄소를 배출했는데, GPT-3은 그보다 압도적으로 많은 1,287메가와트의 에너지를 사용하고 552톤의 이산화탄소를 배출했다(그림 참조). 당연한 얘기다. 인공지능 성능 향상을 위해 더 많은 학습 데이터를 투입하고, 매개변수 처리를 하고, 이를 위한 CPU, GPU 성능과 숫자가 늘어나게 되어 전력소비와 이산화탄소배출이 계속 증가하게 되기 때문이다. 이 과정에서 절전형 프로세서가 개발된다고 하더라도 전체 사용량이 늘어나는 것은 피하기 어렵다.

    그림2주요 거대언어모델 학습을 위해 요구되는 전력소비와 탄소배출량

    chatGPT로 인한 기술경쟁의 진짜 패배자는 누구인가?

    7년 전 알파고와 이세돌의 바둑 대결을 기억하는가? 사실 에너지 관점에서 이세돌과 알파고의 싸움은 심각하게 불공정했다. 당시 이세돌이라는 인간은 대국을 위해 약 20W의 에너지를 소모했을 것이라고 한다. 그런데 알파고는 이세돌의 약 50만배인 100만W를 사용하였다고 한다. 대국을 위해 1920개 중앙처리장치(CPU)와 280개의 그래픽 프로세서(GPU)를 사용했기 때문이다.

    우리가 잊고 있는 것이 있다. 어떤 대목에서 보면 인간은 최고의 효율적인 열역학 엔진이다. 인간은 하루에 2천 킬로 칼로리 정도의 에너지만 공급받으면, 청소에서 돌봄, 온갖 육체적 생산노동과, 지식노동, 감정노동까지 평균적인 인간은 우리가 필요로 하는 거의 모든 일을 할 수 있다.

    그에 비하면 컴퓨터나 인공지능은 특정한 일들만을 우수하게 하는데, 그조차도 인간에 비해 지나치게 비효율적으로 에너지를 소모한다. 그런데도 불구하고 우리는 인간의 역할을 인공지능이 대체하는 것을 보고 환호한다. 효율적인 열역학 엔진을 비효율적인 엔진으로 교체하는데도 말이다.

    물론 기업 입장에서는 확실한 동기가 있다. 인공지능은 에너지를 많이 잡아먹지만 노동이 고되다고 불평하지도 않고 노동조합 만들겠다고 협박하지도 않을 테니 말이다. 그러니 지금 구글, 페이스북, 아마존 등 거대 플랫폼 기업들이 정신없이 해고와 감원을 하면서도 chatGPT에 열광하며 대규모 투자를 하겠다고 공언하고 있는 것이 아닐까?

    자원생산성 향상 없는 인공지능 확대는 기후위기 악화 우려

    이렇듯 현대 경제에서 기업들은 아무런 불만이나 저항도 표시할 수 없는 자연자원에 대해서는, 고갈이나 파괴의 비용을 제대로 지불하지도 않고 일방적으로 자신들의 수익 극대화를 위해 과도하게 싼 가격을 매겨 남용하고 있다. 반면 불만과 저항을 표현할 수 있는 노동의 경우는 온갖 자동화 기술과 인공지능 기술을 동원해 고용을 줄이는 방식을 추구하고 있다.

    하지만 기후위기 시대에는 ‘노동생산성’ 향상으로 노동 비용을 줄이는 데 주력할 것이 아니라 일자리를 유지하면서 자원과 에너지의 사용을 줄이는 ‘자원생산성’을 향상시키는 쪽에 초점을 두어야 한다. 흔히 기술혁신이 일자리를 줄일 거라고 당연하게 생각하지만 일자리를 강제로 소멸시키는 기술 법칙 같은 것은 없다. 기업가들이 인건비를 줄이겠다고 기술혁신을 주로 노동생산성 향상에 집중했기 때문에 일자리 소멸을 걱정하는 것이다.

    환경을 고민하는 IT개발자 게리 맥거번(Gerry Mcgovern)는 자신의 책 <월드와이드 쓰레기(World Wide Waste)>에서, “인간이 문제고 비용을 절감하는 자동화가 해법이라고 생각하는 문화”에 대해 비판하면서, 인터넷과 인공지능이 얼마나 기후에 해로운지에 대해 경각심을 가져야 한다고 강조한다. 그의 조사에 따르면 2020년 기준으로 하루에 이메일을 주고받는 건수가 3천억 건 이상이다. 이메일 한 건 처리하는데 탄소배출이 약 4그램쯤 되므로 이메일 때문에 발생하는 탄소배출량이 하루에 무려 10만 톤 정도가 되는 셈이다. 더 문제는 이메일 중에 절반이 전혀 쓸모없는 스팸메일이라는 것이다.

    우리가 chatGPT에 질문을 하나 할 때마다 수많은 연산과 데이터 처리, 정보의 네트워크 이동이 발생하며, 그때마다 에너지사용과 탄소배출은 폭증하는 것은 필연이다. 그런데도 만약 chatGPT에게 기후위기를 막을 해법을 질문한다면 이는 얼마나 아이러니가 될 것인가? 기후위기를 막지 못하는 것은 인류의 ‘지식이 부족해서’가 아니다. 부족한 것은 ‘정치적 의지’다. 그러니 chatGPT에 기후위기 해결책 따위는 더 이상 물어보지 않기를 바란다.

    * <정의로운 경제> 연재 칼럼 링크

    필자소개
    전 정의정책연구소 소장

    페이스북 댓글