상세 컨텐츠

본문 제목

지능의 기원

호학당 이야기/책과 밑줄

by 호학당 2025. 8. 8. 08:08

본문

지능의 기원

맥스 베넷 지음

김성훈 옮김 / 정재승 감수

더퀘스트

 


 

 

 

p.424-426

새들은 태어날 때부터 나는 법을 아는 것이 아니다. 모든 아기 새는 나는 법을 배워야 한다. 먼저 날개를 퍼덕이는 것부터 시작해, 하늘에서 맴도는 것을 익히고 활공을 시도하고 충분히 반복해서 연습한 후에 결국 나는 법을 터득한다. 하지만 하늘을 나는 것이 새에게 유전적으로 새겨져 있는 것이 아니라면 어떻게 아기 새가 독립적으로 그런 복잡한 기술을 배울 수 있는가?

하늘을 나는 것처럼 복잡한 기술은 유전체에 직접 새겨 넣기에는 정보의 밀도가 너무 높다. 그래서 유전적인 학습 시스템(겉질 등)과 본능(뛰고 싶은 본능, 날개를 퍼덕이고 싶은 본능, 활공을 시도하고 싶은 본능 등)을 내재적으로 부호화 하는 것이 더 효율적이다. 아기 새가 한 마리도 빠짐없이 하늘을 나는 법을 배울 수 있는 것은 학습 시스템과 본능이 결합한 교육과정 덕분이다.

AI 세계에서는 교육과정의 힘과 중요성이 잘 알려져 있다. 1990년대에 캘리포니아대학교 샌디에이고캠퍼스의 언어학자 겸 인지과학 교수였던 제프리 엘먼(Jeffrey Elman)은 처음으로 인공신경망을 이용해 한 문장에서 앞선 단어들이 주어질 때 그다음에 나올 단어를 예측하려고 시도했다. 학습 전략은 간단했다. 인공신경망에게 단어와 단어, 문장과 문장을 계속 보여주며 앞선 단어들을 바탕으로 다음에 나올 단어를 예측하게 한 다음, 매번 인공신경망의 모든 가중치를 정답을 향해 조금씩 조정했다. 이론적으로는 이렇게 하면 전에 한 번도 본 적이 없는 새로운 문장이 나와도 다음 단어를 올바르게 예측할 수 있어야 했다.

하지만 제대로 작동하지 않았다. 그러자 엘먼은 다른 방법을 시도했다. 인공신경망에게 모든 복잡성 수준의 문장을 동시에 보여주는 대신, 먼저 지극히 단순한 문장들을 보여주고 인공신경망이 그 과정에서 좋은 수행성과를 보여줬을 때만 복잡성의 수준을 높인 것이다. 바꿔 말하면 교육과정을 설계한 셈이다. 그리고 이 방법은 효과가 있는 것으로 확인됐다. 이 교육과정으로 훈련받은 이후에는 그의 인공신경망이 복잡한 문장도 올바르게 완성할 수 있었다.

AI를 위한 교육과정을 설계한다는 개념은 언어뿐 아니라 여러 유형의 학습에도 그대로 적용된다. 혁신#2에서 보았던 모델 없는 강화 알고리즘 TD-개먼을 기억하는가? TD-개먼 덕분에 컴퓨터가 백개먼 게임에서 인간보다 뛰어난 능력을 선보일 수 있었다. TD-개먼을 훈련시킨 방법은 매우 중요하지만 앞에서 그 부분에 대한 설명은 하지 않았다. TD-개먼은 인간 전문가를 상대로 수없이 많은 백개먼 게임을 하면서 시행착오를 통해 학습한 것이 아니다. 그렇게 했다면 절대로 학습이 이뤄지지 않았을 것이다. 한 번도 이겨보지 못했을 테니까 말이다. TD-개먼은 자기 자신과 게임을 하며 훈련받았다. TD-개먼은 항상 실력이 같은 플레이어와 게임을 한 셈이다. 이는 강화학습 시스템을 훈련시키는 표준 전략이다. 구글의 알파제로도 자기 자신과 바둑을 두며 훈련받았다. 모델을 훈련시키는 데 사용하는 교육과정은 모델 그 자체만큼이나 중요하다.

'호학당 이야기 > 책과 밑줄' 카테고리의 다른 글

신뢰 이동  (3) 2024.12.14
결국 원하는 것을 얻는 사람들의 비밀  (0) 2024.11.12
영화를 빨리 감기로 보는 사람들  (1) 2024.01.30
소비자의 마음  (4) 2024.01.23
최고의 팀은 무엇이 다른가  (0) 2024.01.16

관련글 더보기

댓글 영역