이론이 곧 핵심이다: 인공지능, 인간 인지, 인과 추론
이론이 곧 핵심이다: 인공지능, 인간 인지, 그리고 인과 추론
이 연구는 “인공지능(AI)이 인간의 의사결정을 대체할 것”이라는 주장에 대해 비판적인 관점을 제시합니다. 저자들은 AI의 데이터 기반 예측과 인간의 이론 기반 인과 추론이 근본적으로 다르다고 주장하며, 이 차이가 어떻게 새로운 지식의 탄생, 혁신, 그리고 불확실성 하에서의 의사결정에 중요한 영향을 미치는지 탐구합니다.
1. 연구의 목적 🎯
이 연구는 “인공지능(AI)이 인간의 의사결정을 대체할 것”이라는 주장에 대해 비판적인 관점을 제시합니다. 저자들은 AI의 데이터 기반 예측(data-based prediction)과 인간의 이론 기반 인과 추론(theory-based causal logic and reasoning)이 근본적으로 다르다고 주장합니다.
2. 연구의 방법
본 연구는 특정 데이터를 분석하는 경험적 연구가 아닌, 기존의 이론과 개념을 비판적으로 분석하고 새로운 관점을 제시하는 이론 연구(conceptual paper)입니다. 저자들은 다음과 같은 방법으로 논리를 전개합니다.
- 비판적 문헌 연구: 수십 년간 이어져 온 ‘컴퓨터와 인간의 마음은 유사하다’는 비유를 비판적으로 검토합니다.
- 사례 분석 (LLMs): 대규모 언어 모델(LLM)을 주요 사례로 사용하여, 기계의 언어 학습 방식과 인간의 언어 습득 과정의 양적·질적 차이를 극명하게 대조합니다.
- 핵심 개념 제시: ‘데이터-믿음 비대칭성(data-belief asymmetry)’이라는 새로운 개념을 도입하여, 기존 데이터와 일치하지 않는 믿음이 어떻게 혁신의 원동력이 되는지를 설명합니다.
- 역사적 사례 심층 분석: ‘공기보다 무거운 비행체(heavier-than-air flight)’의 발명 과정을 심층적으로 분석하여, 데이터가 ‘불가능’을 말할 때 어떻게 이론 기반 인과 추론이 새로운 현실을 창조하는지 생생하게 보여줍니다.
3. 주요 발견
- AI와 인간 인지의 근본적 차이: AI는 방대한 과거 데이터의 통계적 패턴을 학습하여 과거를 모방하고 예측하는 데 능숙합니다. 반면, 인간의 인지는 미래를 내다보는 이론을 먼저 세우고, 세상에 개입하여 새로운 데이터를 만들어내는 전향적(forward-looking) 특성을 가집니다.
- ‘데이터-믿음 비대칭성’의 중요성: AI와 전통적인 합리성 모델은 ‘데이터-믿음 대칭성’(증거만큼 믿는 것)을 추구합니다. 하지만 인류의 위대한 발견은 종종 ‘데이터-믿음 비대칭성’, 즉 기존의 모든 데이터와 증거가 반대하더라도 특정 믿음을 고수하는 것에서 시작되었습니다. ‘유인 동력 비행은 불가능하다’는 당시의 압도적인 데이터에도 불구하고, 비행이 가능하다고 믿었던 라이트 형제의 믿음이 대표적인 사례입니다.
- 인간 고유의 역량, 이론 기반 인과 추론: 인간은 단순히 데이터를 처리하는 것을 넘어, ‘왜(Why)’를 묻고 ‘만약 ~라면(What if)’을 상상하는 이론을 구축합니다. 라이트 형제는 ‘비행이 가능한가?’라는 데이터 기반 질문 대신, ‘비행을 가능하게 하려면 무엇을 해결해야 하는가?’라는 이론적 질문을 던졌습니다. 그들은 비행의 핵심 문제를 ‘양력, 추력, 조종’이라는 세 가지 인과적 요소로 분해하고, 이를 해결하기 위한 체계적인 실험을 설계하여 스스로 새로운 데이터를 생성해냈습니다. AI는 이러한 방식의 인과적 추론과 세상에 대한 주체적 개입이 불가능합니다.
- AI의 창의성은 ‘모방적’ 창의성: LLM이 생성하는 결과물은 기존 지식을 새롭게 조합하고 표현하는 ‘구성적 새로움(compositional novelty)’은 뛰어나지만, 세상에 없던 진정한 의미의 새로운 지식을 창조하지는 못합니다. 만약 1633년의 모든 텍스트를 학습한 LLM이 있었다면, 압도적인 데이터(천동설)에 근거하여 갈릴레오(지동설)가 틀렸다고 주장했을 것입니다.
4. 결론 및 시사점
저자들은 불확실성이 높은 영역에서 AI가 인간의 의사결정을 대체해서는 안 된다고 결론 내립니다. AI는 과거 데이터에 기반한 ‘예측(prediction)’에는 강력하지만, 미래를 만들어가는 ‘이론 기반 인과 추론’은 인간 고유의 영역이기 때문입니다.
교육적 시사점은 명확합니다. AI 시대에 우리 교육은 AI가 잘하는 ‘정답 찾기’와 ‘정보 요약’ 능력을 가르치는 것에서 벗어나야 합니다. 대신, AI는 할 수 없는 인간 고유의 역량, 즉 기존의 데이터에 의문을 제기하고, 대담한 가설(이론)을 세우며, 그 가설을 검증하기 위해 스스로 실험을 설계하고 세상에 개입하여 새로운 데이터를 만들어내는 능력을 길러주는 데 집중해야 합니다.
5. 리뷰어의 ADD(+) One: 생각 더하기
(1) 이 연구의 탁월한 점 (강점)
- 명쾌한 프레임워크: ‘데이터 기반 예측(AI)’ vs ‘이론 기반 인과 추론(인간)’이라는 명쾌한 대립 구도를 통해, AI 시대에 인간 지성의 본질과 교육의 방향이 무엇이어야 하는지를 선명하게 제시합니다.
- 강력한 서사: ‘공기보다 무거운 비행’이라는 역사적 사례는 매우 설득력 있습니다. 모든 증거가 ‘불가능’을 가리킬 때, 소수의 ‘비합리적으로 보이는 믿음’과 ‘이론’이 어떻게 새로운 현실을 창조하는지 보여주는 이 이야기는, 학생들에게 실패를 두려워하지 않는 탐구 정신을 심어주는 데 강력한 교육적 내러티브를 제공합니다.
- 시의성: 생성형 AI가 교육 현장에 범람하는 지금, ‘AI를 어떻게 쓸까?’라는 도구적 논의를 넘어, ‘AI 시대에 우리는 무엇을 배워야 하는가?’라는 근본적인 질문을 던지게 한다는 점에서 매우 시의적절하고 중요한 연구입니다.
(2) 교육 현장을 위한 추가 제언
- ‘가설-실험-검증’ 중심의 교육 강화: 학생들에게 정해진 지식을 전달하기보다, 스스로 문제를 정의하고, 가설을 세우고, 그 가설을 검증하기 위한 실험을 설계하는 프로젝트 기반 학습(PBL), 탐구 기반 학습을 교육과정의 중심으로 가져와야 합니다. “네 생각의 근거 데이터는 뭐야?”라고 묻기 전에, “정말 그럴까? 어떻게 확인해볼 수 있을까?”라고 질문하는 교육이 필요합니다.
- ‘안전한 실패’를 허용하는 문화: 이 논문이 강조하는 ‘데이터-믿음 비대칭성’은 교육 현장에서 ‘엉뚱한 생각’이나 ‘틀린 의견’으로 치부되기 쉽습니다. 교사는 학생들이 증거가 부족하더라도 대담한 상상력을 펼칠 때, 이를 묵살하지 않고 지적인 탐구로 연결해주는 조력자가 되어야 합니다. ‘실패는 데이터가 쌓이는 과정’이라는 인식을 심어주는 것이 중요합니다.
- AI를 ‘탐구의 파트너’로 활용: 학생들의 이론과 가설을 검증하는 과정에서 AI는 강력한 실험 보조 도구가 될 수 있습니다. 가설에 따른 시뮬레이션을 요청하거나, 방대한 자료 속에서 특정 조건의 데이터를 찾아달라고 하는 등 AI를 정보 요약기가 아닌 ‘나의 이론’을 발전시키는 연구 파트너로 활용하는 교수법 개발이 시급합니다.
6. 추가 탐구 질문
- 인간의 ‘이론 기반 인과 추론’ 능력은 타고나는 것일까요, 아니면 교육을 통해 길러질 수 있을까요? 이 능력을 효과적으로 키울 수 있는 구체적인 교수-학습 방법론은 무엇일까요?
- AI가 제시하는 확률적 예측에 지속적으로 노출되는 것이 인간의 대담한 가설 생성 능력(데이터-믿음 비대칭성)에 어떤 영향을 미칠까요? 오히려 위축시킬 가능성은 없을까요?
- 성공한 혁신가의 ‘비합리적 믿음’과 실패한 사람의 ‘망상’을 사후가 아닌 사전에 구분할 수 있는 인지적, 환경적 요인은 무엇이며, 이를 교육적으로 어떻게 안내할 수 있을까요?
출처: - Felin, T., & Holweg, M. (2024). Theory is all you need: AI, human cognition, and causal reasoning. SSRN. (SSRN Working Paper)