AI와 협업, 인간은 왜 ‘인지적 항복’을 하는가?
1. 연구의 목적
(1) 이 연구가 해결하려는 문제는 AI가 일상적인 사고 과정에 깊숙이 스며들면서 인간의 판단과 인지 과정이 어떻게 변화하는가임. 기존의 이원 시스템(System 1: 직관, System 2: 숙고) 인지 이론은 모든 인지가 뇌 내부에서 발생함을 전제함. 하지만 생성형 AI 같은 외부 인지 시스템의 등장으로 이러한 전제가 더 이상 유효하지 않게 됨. AI가 단순히 보조 도구를 넘어 능동적인 ‘인지 주체’가 됨에 따라, 인간의 사고 체계를 재정의할 필요성이 커짐.
(2) 연구의 핵심 목표는 ‘삼중 시스템 이론(Tri-System Theory)’을 제안하여 AI 시대의 인간 인지 모델을 확장함에 있음. 이는 인공 인지(System 3)를 포함한 새로운 인지 생태계를 제시하고, 사용자가 AI의 결과물을 비판적 검토 없이 수용하는 현상인 ‘인지적 항복(cognitive surrender)’을 실증적으로 입증하는 것임. 궁극적으로 AI가 인간의 자율성과 책임감에 미치는 영향을 규명함.
2. 연구의 방법
(1) 연구 접근 방식은 삼중 시스템 이론을 제안한 후, 이를 검증하고자 세 가지 사전 등록된 행동 실험을 수행함. ‘인지 반사 테스트(Cognitive Reflection Test; CRT)’를 활용하여 참가자들이 AI의 도움 없이(Brain-Only) 혹은 AI 챗봇의 도움을 받아(AI-Assisted) 추론 문제를 해결하도록 설계함. 특히 AI-Assisted 조건에서는 AI의 정확도(AI-Accurate vs. AI-Faulty)를 조작하여 AI 결과물이 내부 인지 시스템과 어떻게 상호작용하는지 탐색함.
(2) 주요 분석 대상과 비교 조건은 총 1,372명의 참가자가 9,593개의 문제 해결 과정을 거침. 시스템 3(AI) 접근 여부, AI의 답변 정확도, 시간 압박 여부, 인센티브 및 피드백 제공 여부가 주요 실험 조건임. 또한 AI 신뢰도, 인지 욕구(Need for Cognition), 유동 지능(Fluid IQ) 등 개인차 변수를 측정하여 인지적 항복에 대한 취약성을 파악함.
3. 주요 발견
(1) 삼중 시스템 이론의 핵심 정의는 인간의 판단 및 의사결정이 내부의 직관(System 1)과 숙고(System 2)라는 이원 시스템을 넘어, 외부의 인공 인지(System 3)와 상호작용하며 전개된다는 관점을 제시함에 있음. System 3는 뇌 밖에 존재하며, 자동화되고 데이터 기반의 추론을 수행하는 알고리즘 시스템을 뜻함. 이는 단순히 인지 보조 도구가 아닌, 인지 과정의 능동적 참여자로서 내부 인지를 보완하거나 대체, 억압하는 역할을 수행함.
(2) 삼중 시스템 이론의 구성 요소와 각 시스템의 인지적 특징은 다음과 같음.
이 표는 System 3가 기존 System 1 및 System 2와 질적으로 다른 인지적 특징을 가짐을 보여줌.
| 특징 | System 1: 직관 (빠름) | System 2: 숙고 (느림) | System 3: 인공 (빠름/가변) |
|---|---|---|---|
| 기원 | 인간 (직관적/연상적) | 인간 (분석적/성찰적) | 인공 (알고리즘적/통계적) |
| 처리 속도 | 빠름 | 느림 | 빠름/가변 |
| 인지 노력 | 낮음 | 높음 | 없음/가변 (접근성에 따라) |
| 정확도 | 편향되기 쉬움 | 규범적이나 노력 소모적 | 구조화된 영역에서 높음; 개방형 과제에 취약 |
| 정서적 입력 | 감정 주도적 | 감정 조절적 | 감정 중립적 |
| 윤리적 추론 | 암묵적 규범 | 명시적 숙고 | 비당파적; 훈련 데이터에 의존 |
| 정당화 | 경험적 또는 사후 합리화 | 합리화되고 명시적 | 데이터 기반; 외부에서 생성됨 |
(3) 삼중 시스템 이론은 AI와의 인지적 상호작용을 다음 네 가지 주요 경로로 설명함.
- 인지적 오프로딩(Cognitive Offloading): System 2가 활성 상태를 유지하며 System 3를 인지 확장이나 보조 도구로 활용함. 마치 계산기를 사용하듯이, 자신의 추론을 돕기 위해 외부 도구에 전략적으로 위임하는 행위임.
- 인지적 항복(Cognitive Surrender): System 1의 간략한 참여 후 System 3의 답변을 비판적 평가 없이 자신의 것으로 수용함. 사용자는 인지적 통제권을 AI에 넘기고 AI의 판단을 자기 판단으로 대체하는 현상임. 이는 감독 없는 위임과 같음.
- 오토파일럿(Autopilot): 자극이 뇌 내부로 들어오지 않고 System 3에서 직접 처리되어 반응으로 나가는 형태임. System 1 및 System 2 과정을 완전히 우회하여 AI 결과물을 즉시 수용함.
- 순환 또는 하이브리드 경로: System 3의 결과물이 다시 내부 시스템으로 피드백되어 System 2의 숙고를 정제하거나 System 1의 직관을 업데이트하는 경우임. 확인 후 수용, System 3 무시 후 재사고, 사후 합리화 등이 포함됨.
(4) 연구 결과는 인지적 항복 현상이 AI 시대의 주요 인지 동학임을 명확히 보여줌.
- AI 사용의 보편성과 높은 수용률: 참가자들은 과반수(50% 이상)의 시도에서 AI 챗봇을 사용함. AI가 정확한 답변을 줄 때 92.7%의 높은 확률로 따랐고, 심지어 AI가 오류 답변을 줄 때도 79.8%의 높은 비율로 AI의 조언을 따름이 확인됨.
- AI 정확도에 따른 인간 정확도의 변화: AI 접근이 없을 때(Brain-Only) 정답률은 45.8%였음. AI가 정확할 때는 정답률이 71.0%로 크게 상승하고, AI가 오류를 낼 때는 정답률이 31.5%로 Baseline보다 크게 하락함. AI의 정확도에 따라 인간의 수행이 직접적으로 연동됨이 드러남. 이는 인지적 항복의 명확한 행동적 증거임.
- 오류에도 불구하고 증가하는 자신감: AI 접근은 전반적인 자신감을 11.7% 증가시킴. 심지어 AI가 약 절반의 경우 오류를 보였음에도, 오류가 늘어난다고 해서 자신감이 유의미하게 감소하지 않음. 이는 잘못된 확신(inflated confidence)으로 이어질 수 있음을 보여줌.
(5) 개인차와 상황적 요인이 인지적 항복에 미치는 영향은 다음과 같음.
- 개인차:
- AI 신뢰도 높음: AI 챗봇을 더 자주 사용하고, AI가 오류일 때 정답률이 낮아지며, 오류 AI 조언을 더 잘 따름.
- 인지 욕구(Need for Cognition) 낮음: AI 챗봇을 덜 사용하지만, 오류 AI일 때 정답률이 낮아지는 경향이 있음.
- 유동 지능(Fluid IQ) 낮음: 오류 AI 조언을 더 자주 따르고, 오류 AI일 때 정답률이 낮아지는 경향이 있음.
- 요약하면, AI에 대한 신뢰가 높고 인지적 노력을 덜 즐기며 유동 지능이 낮은 사람일수록 인지적 항복에 더 취약함.
- 상황적 요인:
- 시간 압박: 숙고(System 2) 과정을 억제하여 System 3 의존도를 높임. AI가 정확할 때는 시간 압박의 부정적 영향을 완화하지만, AI가 오류일 때는 여전히 정확도를 떨어뜨림.
- 인센티브와 피드백: 정확도에 따른 보상과 즉각적인 개별 피드백은 오류 AI 조언을 따르는 비율을 절반 이상 줄이고 AI 무시(override) 행동을 두 배 이상 증가시킴. 이는 인지적 항복을 완화하지만, 완전히 제거하지는 못함. AI 정확도에 따른 인간 정확도의 큰 차이는 여전히 유지됨.
4. 결론 및 시사점
(1) 이 연구가 입증한 핵심 결론은 AI 시대에 인간의 인지 과정은 삼중 시스템 이론으로 설명되어야 함에 있음. 사람들은 AI를 인지적 자원으로 적극 활용하며, AI의 결과물을 비판적 검토 없이 자신의 판단으로 수용하는 ‘인지적 항복’ 현상이 보편적으로 나타남. AI가 정확할 때 인간의 성과를 크게 향상시키지만, 오류가 있을 때는 오히려 Baseline보다 낮은 성과를 보이면서도 자신감은 과도하게 유지되는 양상을 보임.
(2) 교육 현장 또는 AI 설계에 주는 첫 번째 시사점은 AI 시스템을 단순히 정보 제공을 넘어 인간의 비판적 사고를 보존하고 촉진하도록 설계해야 함에 있음. ‘인지적 항복’의 위험성을 줄이려면, AI가 제공하는 답변에 대해 “확실성 점수”, “불확실성 지표”, 또는 “추론 과정 설명”과 같은 투명한 메타 정보를 명시적으로 제공하는 기능이 필수적임. 이를 통해 사용자는 AI 정보의 신뢰 수준을 이해하고, 자신의 판단력을 적절히 조절할 수 있게 됨.
(3) 두 번째 시사점은 AI 리터러시 교육의 시급한 확충임. AI 시대의 학습자들은 AI의 한계와 편향을 이해하고, 언제 AI를 신뢰하고 언제 자신의 숙고(System 2)를 활성화해야 하는지 아는 능력이 중요함. AI 사용을 통해 오히려 인지적 의존성이 심화되는 것을 방지하기 위해, 교육 과정에서 비판적 사고, 정보 검증, 문제 해결 능력을 강조하는 교수법과 학습 환경 설계가 필요함. AI의 ‘블랙박스’적 특성을 이해하고 다루는 교육적 접근법을 적극적으로 모색함.
5. 리뷰어의 ADD(+) One: 생각 더하기
(1) 이 논문에서 가장 주목할 지점은 AI를 ‘외부 인지 시스템(System 3)’으로 격상하여 기존 이원 시스템 이론의 ‘뇌-결속(brain-bound) 인지’라는 한계를 구조적으로 깨고 확장했다는 점임. 이전 연구들이 AI를 단순한 도구나 자동화 편향의 대상으로 다뤘다면, 이 논문은 AI를 인간 인지와 상호작용하며 그 자체로 인지적 주체성을 갖는 실체로 인정함. 이는 AI를 교육 현장에 적용할 때, AI를 단순한 ‘학습 도구’가 아닌 ‘학습 과정의 파트너’로 인식하고 그에 맞는 교육 설계와 윤리적 프레임워크를 고민해야 한다는 근본적인 전환점을 제공함. AI의 정확도에 따라 인간의 수행이 마치 AI의 그림자처럼 따라가는 ‘인지적 항복’ 현상에 대한 실증적 증명은 그 어떤 화려한 AI 예찬론보다 교육 현장에 깊은 경고와 통찰을 제공함.
(2) 논문이 명시하지 않은 더 넓은 의미는 AI의 인지적 통합이 인간의 ‘자기 주체성’과 ‘책임감’의 의미를 근본적으로 재구성할 수 있다는 점임. AI가 내어놓은 답변을 비판 없이 수용하면서, 그 결과에 대한 책임이 AI에 있는지, 사용자 자신에게 있는지 모호해지는 경계는 단순히 기술적 문제를 넘어 교육 철학적, 사회 윤리적 질문을 던짐. 특히 젊은 세대 학습자들이 AI를 ‘디폴트’ 인지 시스템으로 받아들일 때, 비판적 사고와 숙고를 통한 ‘자아 형성’ 과정 자체가 위협받을 위험이 존재함. AI가 제공하는 ‘환상적 일관성(simulated coherence)’이 실제 이해를 대체하면서, 학습자의 지적 탐구 동기와 메타인지 능력이 저하될 우려가 있음. 이는 궁극적으로 인간의 지적 능력 발달 경로에 대한 사회적 합의와 개입이 필요함을 강하게 시사함.
(3) 이 연구를 발전시킬 구체적 아이디어는 ‘AI 협력적 자기조절학습(AI-Supported Self-Regulated Learning)’ 모델 개발을 제안함. AI 시스템이 사용자의 인지적 항복 위험을 실시간으로 감지하고, 이에 반응하여 System 2의 개입을 유도하는 ‘메타인지 트리거’를 포함하는 것임. 예를 들어, 사용자가 AI 답변을 너무 빠르게 수용하거나 특정 AI에 과도하게 의존하는 패턴을 보일 때, AI가 “이 결론의 근거는 무엇이라 생각하는가?”, “다른 관점에서 이 문제를 볼 수는 없을까?”, “이 답변이 틀렸다면 어떤 문제가 발생할까?”와 같은 성찰적 질문을 던지도록 프로그래밍하는 것임. 또한, AI가 제공하는 정보의 ‘불확실성 지표’를 단순히 숫자로 보여주는 것을 넘어, 시각적으로 명확한 ‘위험 신호’(예: 특정 색상, 아이콘)로 표현하여 사용자가 능동적으로 정보 검증 과정을 시작하도록 유도하는 인터페이스 설계를 발전시킴. 이러한 시스템은 AI의 효율성을 유지하면서도, 학습자의 비판적 사고 역량을 인위적으로 제어하고 증진하는 새로운 교육적 접근 방식이 될 것임.
6. 추가 탐구 질문
(1) AI의 장기적, 반복적 사용이 개인의 인지 능력 발달(예: 문제 해결 능력, 창의적 사고)에 긍정적 혹은 부정적으로 어떻게 영향을 미치는가? AI 의존이 심화되면 뇌의 어떤 부분이 비활성화되고, 이는 추후 AI 없이 문제를 해결할 때 어떤 인지적 결함을 초래하는가?
(2) 전문 분야(예: 의학 진단, 법률 분석)에서 인지적 항복이 미치는 영향은 일반적인 인지 과제와 어떻게 다른가? 오류의 결과가 치명적인 분야에서 AI의 도움을 받을 때, 인간의 최종 판단에 대한 윤리적, 법적 책임 소재는 누가 져야 하는가?
(3) AI 시스템 자체에 ‘인지적 항복 감지 모듈’을 내장하여, 사용자의 과도한 의존을 경고하거나 성찰을 유도하는 자율적 에이전트 설계가 기술적으로 가능한가? 이러한 ‘메타인지 AI’가 사용자의 인지적 자율성을 증진시키면서도, 역설적으로 AI에 대한 또 다른 형태의 의존을 심화시키지는 않는가?
출처
- Shaw, S. D., & Nave, G. (2026). Thinking—Fast, Slow, and Artificial: How AI is Reshaping Human Reasoning and the Rise of Cognitive Surrender. The Wharton School of the University of Pennsylvania.