AI가 정답이 된 교실: 책임과 역량의 재정의
학생의 수행평가 답안을 두고 인공지능이 “기존 답만 정답”이라고 판단해 문제 제기를 접게 만들었다는 어느 고등학교의 사례는 우리에게 섬뜩한 경고를 던진다. 기술이 교실의 복잡한 맥락과 인간적 판단을 대체하기 시작할 때, 우리는 무엇을 놓치고 있는가. 이는 단순한 도구의 오용을 넘어, 교육의 본질과 교사의 책무성을 재정의해야 할 중대한 질문을 던지는 일이다.
1. AI가 정답이 된 교실: 책임은 누구에게 있는가
최근 교육 현장에서는 생성형 AI의 도입 속도가 놀랍다. 하지만 그 활용 방식은 때로 심각한 우려를 낳는다. 특히 AI를 단순한 보조 도구를 넘어, 판단을 내리는 판정 기계처럼 사용하는 경향은 교육의 핵심 가치를 위협한다. 한 학생이 복수 정답이 가능한 문제에서 AI가 기존 답만 정답이라고 하여 이의를 제기할 수 없었다는 사례는 이 문제의 심각성을 단적으로 보여준다. AI가 교사의 면책 논리로 사용될 때, 학습자의 권리와 학습의 본질은 손상된다.
교육부가 마련한 「수행평가 AI 활용 관리 방안」이 학생들의 AI 오용을 방지하는 데 초점을 맞춘 것은 이해한다. 출처 표기 의무화, 부정행위 간주 등의 조치들은 AI 활용의 윤리적 기준을 세우려는 노력이다. 그러나 정작 교사가 AI 답변을 평가나 채점에 활용할 경우의 책임과 오류 발생 시의 수정 기준은 모호하다. 이는 AI 활용 책임의 무게가 학생에게만 쏠려 있다는 반증이다. 이러한 지침은 교사 개인의 역량과 인식 차이에 따라 현장에서 제각각의 활용 수준을 낳는 구조적인 문제를 발생시킨다. 결국 교육 현장에서 “AI가 정답이라고 했다”는 말이 면책 논리처럼 사용되지 않도록 제도적 기준이 명확해져야 한다.
본질적으로, AI가 제시하는 답은 과거 데이터의 패턴에 기반한 ‘확률적 예측’일 뿐 ‘절대적 진실’이 아니다. 교육적 판단은 단순히 정답을 가려내는 행위를 넘어선다. 학생의 사고 과정, 성장 가능성, 그리고 개별적 맥락을 종합적으로 고려하는 인간적 판단이 반드시 필요하다. AI의 결과를 최종 검증하고 교육적 의미를 부여하는 책임은 언제나 교사에게 있다. AI는 뛰어난 분석과 정보 제공 능력을 지녔지만, 교육의 본질인 가치 판단과 윤리적 추론, 그리고 학생과의 관계 형성이라는 영역에서는 인간 교사의 역할을 대체할 수 없다. 이는 마치 교통 신호등이 교통 흐름을 통제하지만, 예측 불가능한 상황에서 운전자의 윤리적 판단과 책임이 더욱 중요해지는 것과 같다. 교육의 주체가 AI가 아니라 교사와 학생임은 분명하다.
2. 통제에서 역량으로: 평가 패러다임의 전환
현재의 「수행평가 AI 활용 관리 방안」은 AI 오용을 ‘통제’하고 ‘규제’하는 패러다임에 머물러 있다. ‘AI 활용 과정 표기 의무화’, ‘금지 행위 설정’ 등은 학생의 자발적 준수에 의존하는 설명적 조치(discursive changes)에 가깝다. 이러한 접근은 두 가지 한계를 지닌다. 첫째, 교사에게 과도한 행정 부담을 지운다. 수십 명 학생의 방대한 AI 활용 기록을 일일이 검토하고 진위 여부를 판단하는 것은 물리적으로 불가능한 일이다. 둘째, 학생이 AI를 ‘속이는’ 방법을 학습하거나, 아예 활용 사실을 숨기는 역기능을 초래한다.
우리가 지향해야 할 방향은 평가의 패러다임을 ‘통제’에서 ‘역량’ 중심으로 전환하는 일이다. 이는 단순히 규칙을 늘리는 것이 아니라, 과제의 본질과 평가 메커니즘 자체를 변경하는 구조적 변화(structural changes)를 의미한다. AI의 부적절한 사용을 원천적으로 어렵게 만들면서도, 학생이 AI를 책임감 있는 협력자로 활용하는 역량을 자연스럽게 기르도록 지원해야 한다. 이 전환을 통해 교사의 감독 부담을 줄이고 정책의 실효성을 높인다.
AI 시대의 평가는 더 이상 단순한 지식 암기나 문제 풀이 능력을 측정해서는 안 된다. AI가 이미 인간보다 월등한 수행력을 보이는 영역에서 인간성을 능력의 우위로 환원하려는 시도는 필연적으로 좌절한다. 우리가 AI에게 무엇을 흉내 내지 못하는지 집요하게 묻는 행위는, 궁극적으로 인간의 존엄을 흔드는 반직관적 결과를 낳는다. 교육은 인간의 고유한 가치, 즉 판단력, 비판적 사고, 윤리적 추론, 그리고 협업 능력을 함양하는 데 집중해야 한다.
다음은 AI 활용에 대한 ‘통제’ 중심 접근과 ‘역량’ 중심 접근의 차이를 보여준다.
| 구분 | 통제 중심 접근 | 역량 중심 접근 |
|---|---|---|
| 목표 | AI 부정행위 방지 | AI 협업 역량 함양 및 책임 있는 활용 |
| 초점 | AI 사용 여부 검증 | AI를 활용한 학습 과정과 결과의 질 |
| 주요 조치 | AI 활용 기록 제출, 금지 행위 규제 | 과제 설계 변경, 교사의 AI 멘토링, AI 리터러시 교육 |
| 교사 부담 | 과도한 검증 및 행정 부담 | 새로운 과제 설계 및 평가 루브릭 개발 |
| 학생 결과 | AI 회피 또는 은폐 | AI를 활용한 문제 해결 및 창의적 결과물 도출 |
| 교육적 가치 | 낮은 활용 유연성 | 높은 활용 유연성 및 실질적 역량 성장 |
위 표에서 보듯이, AI를 ‘통제’하려는 시도는 한계에 부딪힌다. 대신 우리는 평가의 본질을 바꾸는 ‘구조적 변화’를 통해 학생과 교사가 AI를 능동적으로 활용하고 책임감을 기르도록 이끌어야 한다. 이는 학생들에게 실제 세계에서 AI와 협업하는 방식을 가르치고, 교사들에게는 AI 시대의 교육 전문가로서 새로운 역할을 정립할 기회를 제공한다.
3. 인간 주도형 AI 협업: 교사의 새로운 역할 설계
그렇다면 교사들은 AI를 어떻게 사용해야 하는가? 단순히 AI의 결과물을 받아들이는 수동적 태도에서 벗어나, 인간 주도형 AI 협업(Human-in-the-Loop, HITL) 관점을 채택해야 한다. 이 관점에서 AI는 ‘마법의 텍스트 생성기’가 아니라, 유능하지만 경험이 부족한 ‘가상 협력자’ 또는 ‘주니어 연구원’에 해당한다. 우리는 이들을 멘토링하고 이끌며 원하는 결과물을 함께 만들어가는 리더의 역할을 수행한다.
실제로 한 연구는 과학 논문 작성 시 AI를 ‘가상 연구 그룹’처럼 관리하는 방식을 제안한다. 예를 들어, LLM-0은 주니어 이론가로서 원시 방정식을 추출하고, LLM-1은 선임 박사후 연구원으로서 엄밀한 수학적 설계도를 작성하며, LLM-2는 코더로서 최종 코드를 구현한다. 이 모든 과정은 인간 연구 책임자(PI)의 적극적인 멘토링과 검증 아래 진행된다. AI가 생성한 초안은 종종 부정확하거나 일반적인 내용을 담기 때문에, 인간은 AI가 생성한 내용을 적극적으로 지도하고 수정해야 한다.
이러한 HITL 관점을 교실에 적용한다면, 교사의 역할은 크게 변화한다. 교사는 이제 AI를 활용해 학습 자료를 만들고, 평가 문항을 개발하며, 학생 피드백을 생성하는 데 적극적으로 참여한다. 하지만 이 모든 과정에서 최종 검증 책임은 교사에게 있다. AI는 질문에 답할 뿐, 질문의 ‘가치’를 판단하지 못한다. 이 간극이 교사의 전문성과 역할이 빛나는 지점이다.
교사는 다음과 같은 방식으로 AI를 ‘가상 협력자’로 활용할 수 있다.
- 프롬프트 설계 및 수정: AI에게 질문을 던지는 것을 넘어, 원하는 결과물을 얻기 위해 프롬프트를 끊임없이 수정하고 구체화하는 역량이 중요하다. 이는 AI의 잠재력을 최대한 끌어내는 동시에, 비판적으로 사고하는 과정을 훈련시킨다.
- AI 결과물 비판적 검토: AI가 생성한 내용은 항상 정확하거나 적절하지 않다. 교사는 AI의 답변을 비판적으로 검토하고, 사실관계를 확인하며, 교육적 맥락에 맞게 수정하는 역할을 수행해야 한다.
- AI와의 상호작용 기록: AI와의 협업 과정을 기록하고 공개하는 것은 책임성을 확보하고 과학적 기록의 진실성을 보존하는 중요한 단계이다. 교육 현장에서도 교사가 AI를 활용해 자료를 만들거나 평가에 도움을 받을 때, 그 과정을 기록하고 오류 발생 시 바로잡는 기준을 명확히 할 필요가 있다.
AI 리터러시는 이제 학생뿐만 아니라 교사에게도 필수적인 역량이다. 단순히 AI를 사용하는 방법을 아는 것을 넘어, AI의 한계와 잠재력을 이해하고, 윤리적으로 책임감 있게 활용하며, 비판적으로 평가할 수 있는 능력이 요구된다. 이는 교사들이 함께 실험하고 성찰하는 전문적 학습 공동체(PLC)를 통해 집단적으로 학습하고 발전시켜야 할 새로운 교사 문화로 자리 잡아야 한다.
토의 활동
“당신의 교실에서 AI를 ‘판정 기계’ 대신 ‘가상 협력자’로 정의한다면, 평가 과제 설계와 피드백 방식에 어떤 구체적인 변화를 줄 수 있을까?”
4. AI와 함께 교실을 다시 설계하는 일
AI는 이미 우리 교실에 깊숙이 들어왔다. 그 존재를 부정하거나 무작정 통제하려는 시도는 현실적이지 않다. 중요한 것은 AI의 등장으로 인해 인간 교사의 역할과 교육의 본질이 흔들리는 것이 아니라, 오히려 더욱 명확하고 본질적인 방향으로 나아가야 한다는 점이다. AI는 지식의 암기나 정답 찾기라는 전통적인 학습 영역에서는 뛰어난 수행력을 보인다. 이로 인해 ‘무엇을 못 하는가’로 인간성을 정의하려는 시도는 이제 허망하다. 대신 우리는 AI가 대체할 수 없는, 그리고 AI와 함께 더욱 빛날 수 있는 ‘인간다움’을 찾아야 한다.
이 인간다움은 비판적 사고, 윤리적 판단, 공감 능력, 창의적 문제 해결, 그리고 협력적 소통에서 발현된다. 교사는 이러한 역량을 학생들에게 가르치고, 평가를 통해 이 역량의 성장을 촉진해야 한다. AI는 이러한 과정에서 인간 교사의 부재를 메우는 도구가 아니라, 인간의 지적 탐구와 창의성을 증폭시키는 촉매가 되어야 한다. 우리는 AI가 제시한 ‘정답’에 갇히지 않고, 학생 스스로가 ‘어떤 질문을 던질 것인가’를 고민하고, 그 과정에서 책임감을 배우도록 이끌어야 한다.
이러한 변화가 학교 현장에 성공적으로 안착하려면 교사 개인의 노력만으로는 부족하다. 학교 차원에서의 명확한 지침과, 교사들이 새로운 AI 활용법을 실험하고 시행착오를 공유하며 함께 성장할 수 있는 전문적 학습 공동체가 필수적이다. AI가 정답을 말하는 교실이 아니라, AI를 통해 더욱 풍부하고 깊이 있는 질문을 던지는 교실을 만들어가는 일은 이제 우리의 몫이다.
앞으로 우리는 AI를 교육 현장에 적용하는 과정에서 발생할 수 있는 윤리적 딜레마와 교육 격차 문제에 대한 비판적 시각을 유지해야 한다. 하지만 동시에, AI가 교사의 반복적인 업무 부담을 줄이고, 학생 개개인의 학습을 더욱 정교하게 지원할 수 있는 가능성을 열어두어야 한다. 이 가능성을 현실로 만들려면, 교사들이 AI 도구를 직접 실험하고, 성공 사례와 실패 사례를 투명하게 공유하며, 무엇이 교육적 가치를 높이는 AI 활용법인지 집단적으로 지혜를 모으는 문화가 먼저 형성되어야 한다. 교실에서 특정 AI 도구를 활용한 프로젝트를 시도하고 그 과정을 동료들과 나누는 것부터 시작할 수 있다.
생각할 질문
“AI가 ‘정답’을 제시하는 상황에서, 교사는 학생들에게 ‘왜’ 그 정답이 나왔는지, 그리고 ‘다른’ 정답은 불가능한지 탐구하도록 어떻게 안내할 수 있는가?”
“당신의 학교에서 AI를 활용한 평가에 대한 명확한 책임 기준이 없다면, 어떤 문제들이 발생할 수 있으며, 이를 해결하기 위해 어떤 제도적 장치가 필요하다고 생각하는가?”
“AI 시대에 ‘인간다움’을 가르치는 교육은 어떤 내용을 포함해야 하며, 이를 위해 기존 교육과정을 어떻게 재구성할 수 있을까?”
출처
손지혜, “AI가 정답이 된 교실”, 『전자신문』 「ET 톡」, 2026년 5월 12일, 27면(오피니언). jh@etnews.com