인공지능인가, 인간지능인가?
인공지능인가, 인간지능인가?
이 논문은 AI(LLM)가 학습 도구로 자리 잡으면서 학생들의 ‘배우려는 동기’가 어떻게 근본적으로 변화하는지를 경제학적 모델을 통해 분석합니다. AI의 핵심 특징인 환각(Hallucination, 부정확성)과 창발(Emergence, 특정 난이도를 넘어서면 급격히 성능이 저하되는 현상)을 변수로 설정하여, AI 시대에 인간 지식의 총량이 오히려 감소할 수 있으며, 지식의 양극화가 심화될 수 있다는 중요한 경고를 던집니다.
1. 연구의 목적
계산기나 검색 엔진과 같은 이전의 기술과 달리, LLM은 학생의 이해도와 무관하게 독자적으로 문제를 해결할 수 있는 최초의 교육 도구입니다. 이러한 강력한 도구에 대한 접근성은 학생들이 자신의 지적 능력에 시간과 노력을 투자하려는 학습 동기와 인센티브 구조를 크게 바꾸어 놓습니다.
이 연구의 목적은 AI의 불완전한 특성(환각, 창발)을 고려한 경제학적 모델을 구축하여, 학생들이 AI의 존재 하에 자신의 학습에 얼마나 투자할지를 어떻게 결정하는지 분석하고, 그 결과로 나타나는 지식 격차 문제를 예측하며, 교육자들이 이러한 변화에 어떻게 대응해야 하는지에 대한 정책적 시사점을 도출하는 것입니다.
2. 연구의 방법
이 연구는 실제 데이터를 사용한 실증 분석이 아닌, 핵심 변수 간의 관계를 설명하기 위한 이론 모델링(Theoretical Modeling) 방식을 사용했습니다.
(1) 핵심 가정 설정
- AI의 능력: 특정 난이도(d) 이하의 문제는 확률(p)적으로 해결 가능하지만, 그 이상의 문제는 해결할 수 없습니다. 이는 AI의 창발(d)과 환각(1-p) 특성을 반영합니다.
- 학생의 능력: 학생들은 저마다 다른 학습 비용(타입 t)을 가지며, 비용을 들여 자신의 지식 수준(a)을 결정할 수 있습니다.
- 학생의 목표: 학습 비용을 제외하고, (자신의 능력과 AI의 도움을 통해) 해결할 수 있는 문제의 총량을 극대화하는 것을 목표로 합니다.
(2) 두 가지 AI 활용 방식 정의
- AI를 해결사(Solver)로 사용: 자신의 지식 수준(a)이 AI의 능력(d)보다 낮은 경우(a<d). 학생은 자신이 풀지 못하는 문제를 AI에 의존하여 해결합니다.
- AI를 보조자(Helper)로 사용: 자신의 지식 수준(a)이 AI의 능력(d)보다 높은 경우(a>d). 학생은 AI가 풀 수 있는 모든 문제를 이미 해결할 수 있으므로, AI를 더 어려운 내용을 배우는 데 드는 비용을 줄여주는 보조 도구로만 활용합니다.
3. 주요 발견
이 단순화된 모델은 AI가 학습과 노동 시장에 미치는 영향에 대한 여러 실증적 연구 결과들을 통합적으로 설명하는 몇 가지 중요한 예측을 내놓습니다.
- 지식의 양극화와 단절적 격차 발생: 학생들은 AI의 능력(d)을 기준으로 두 집단으로 나뉩니다. 학습 비용이 낮은(학습 효율이 좋은) 학생들은 AI보다 더 많이 배우는 ‘보조자’ 그룹이 되고, 학습 비용이 높은 학생들은 AI보다 덜 배우는 ‘해결사’ 그룹이 됩니다. 가장 중요한 발견은, AI의 능력 수준(d)과 비슷한 수준의 지식을 갖추려는 학생은 아무도 없으며, 두 그룹 사이에 단절적인 지식 격차(discontinuous gap)가 발생한다는 것입니다.
- AI가 똑똑해질수록 인간의 학습 동기는 저하: AI의 정확도(p)가 올라갈수록(환각이 줄어들수록), ‘해결사’ 그룹의 학생들이 굳이 학습에 투자할 유인이 줄어듭니다. (AI가 더 잘 풀어주므로) 이는 해당 그룹의 지식 수준을 더욱 하락시켜 지식 격차를 심화시킬 수 있습니다.
- AI의 교육적 활용이 격차를 줄일 열쇠: 만약 AI가 단순히 문제를 풀어주는 것을 넘어, 어려운 내용을 배우는 학습 비용을 줄여주는 역할을 효과적으로 수행한다면, 더 많은 학생들이 AI보다 많이 배우려는 ‘보조자’ 그룹으로 이동할 유인이 생겨 전체적인 인간 지식의 총량을 늘리고 격차를 완화할 수 있습니다.
- ‘AI 만능주의’의 위험과 교육자의 역할: 학생들이 AI의 정확도를 실제보다 과대평가할 경우, 자신의 학습에 대한 투자를 줄이는 경향이 나타납니다. 이때 교육자는 AI 사용이 불가능한 평가(예: 교실 내 시험)의 비중을 높임으로써, 학생들이 자신의 실제 능력에 투자하도록 인센티브를 조정할 수 있습니다.
4. 결론 및 시사점
AI의 등장은 학생들의 학습 동기 구조를 근본적으로 바꾸어, 인간 지능과 AI 지능 간의 트레이드오프를 야기합니다. 이는 AI의 능력을 기준으로 학생들의 지식이 양극화되는 현상을 초래할 수 있으며, AI 기술이 발전할수록 이 격차는 더욱 커질 위험이 있습니다.
따라서 교육자들은 AI를 무조건 금지하거나 허용하는 이분법적 사고에서 벗어나, AI 시대에 맞는 새로운 교육 목표와 평가 방식을 설계해야 합니다. AI가 대체할 수 없는 인간 고유의 역량을 기르는 방향으로 교육의 초점을 맞추고, AI를 ‘해결사’가 아닌 ‘보조자’로 사용하도록 유도하는 교육적 개입과 더불어, 학생의 실제 역량을 정확히 평가할 수 있는 균형 잡힌 평가 시스템을 구축하는 것이 시급함을 이 연구는 강력하게 시사합니다.
5. 리뷰어의 ADD(+) One: 생각 더하기
(1) 이 연구의 탁월한 점 (강점)
- 교육 문제를 꿰뚫는 경제학적 통찰: 학습 동기와 같은 복잡하고 심리적인 교육 문제를 인센티브와 비용이라는 명쾌한 경제학적 틀로 모델링하여 핵심 메커니즘을 규명한 점이 매우 탁월합니다. 이는 현상의 복잡성에 매몰되지 않고 문제의 본질을 파악하게 해주는 강력한 시각을 제공합니다.
- 해결사 vs 보조자의 직관적인 개념화: AI의 역할을 해결사(Solver)와 보조자(Helper)로 구분한 것은 이 논문의 백미입니다. 이 간단명료한 프레임은 교육자들이 AI를 활용하는 학생들의 학습 태도를 이해하고, 교육 목표를 설정하는 데 매우 유용한 개념적 도구가 될 수 있습니다.
- 지식의 양극화라는 불편한 미래 예측: AI가 모두에게 유익할 것이라는 막연한 낙관론에 맞서, 오히려 단절적 지식 격차를 심화시킬 수 있다는 예측은 매우 중요하고 시의적절한 경고입니다. 이는 교육 정책 입안자들에게 AI 시대의 교육 불평등 문제에 대한 심각성을 일깨워 줍니다.
(2) 교육 현장을 위한 추가 제언
- AI 활용 능력 자체를 평가 기준으로 설정: 현재의 평가는 ‘문제 해결 결과물’에만 초점을 맞춥니다. 앞으로의 평가는 AI를 ‘보조자’로 얼마나 잘 활용했는가를 ‘과정 중심’으로 평가해야 합니다. 예를 들어, 최종 답안과 함께 AI에게 어떤 질문(프롬프트)을 했고, AI의 답변을 어떻게 비판적으로 수용하거나 개선했는지를 제출하게 하는 것입니다.
- AI를 이기는 과제 설계 집중: 교육자들은 AI의 능력(d)을 뛰어넘는, 즉 인간의 고유한 역량이 필수적인 과제를 적극적으로 설계해야 합니다. 이는 단순히 지식을 묻는 것이 아니라, 학생 자신의 경험과 통합하여 새로운 아이디어를 창출하거나, 지역 사회의 실제 문제를 해결하는 등 고차원적 비판·창의·종합적 사고를 요구하는 과제들입니다.
- AI 리터러시를 넘어 AI 메타인지 교육으로: 학생들이 AI의 정확도를 과신하는 문제를 해결하기 위해, AI의 한계(환각, 편향 등)를 명확히 가르치는 AI에 대한 메타인지 교육이 시급합니다. AI가 ‘어떻게 틀리는지’를 배우고, AI의 결과물을 검증하는 방법을 훈련시켜야만, 맹목적인 ‘해결사’가 아닌 현명한 ‘보조자’로 성장할 수 있습니다.
6. 추가 탐구 질문
- 이 모델이 예측하는 ‘지식의 양극화’ 현상은 실제 교육 현장에서 어떤 데이터(예: 성적 분포, 과제 해결 시간)를 통해 관찰하고 측정할 수 있을까?
- 과목의 특성(예: 정답이 명확한 수학 vs 정답이 없는 예술)에 따라 학생들이 AI를 ‘해결사’ 혹은 ‘보조자’로 사용하려는 경향은 어떻게 달라질까?
- 학창 시절에 AI를 주로 ‘해결사’로 사용했던 학생들은 사회에 진출했을 때, AI가 대체하기 어려운 암묵적 지식이나 대인관계 역량 등에서 어떤 어려움을 겪게 될까?
- 교육 기관이 공식적으로 모든 학생에게 매우 정확하고 성능이 뛰어난 AI를 제공할 경우, 학생들의 자발적 학습 동기와 지식 격차에 어떤 영향을 미칠까?
출처: - Gao, E. (2025, September 4). Artificial or human intelligence? arXiv. https://arxiv.org/abs/2509.02879