8 분 소요

hits

교실에 AI의 조용한 굉음이 울린다. 매일같이 쏟아지는 새로운 도구와 그 가능성 앞에서, 우리는 무엇을 믿고, 무엇을 의심해야 하는가? 한때 명확했던 기술 활용의 경계는 빠르게 모호해진다. 이는 단순히 도구의 편리함을 넘어, 교육 현장의 본질적인 책임감과 가치 판단 기준을 흔든다.

AI가 가치 평가 기준을 뒤흔들 때: 교육 현장의 새로운 책임

1. 모호해지는 경계: ‘느낌대로 코딩’과 ‘전문가 설계’의 교차점

교육 현장은 종종 기술 발전의 최전선이자 동시에 가장 보수적인 후방이 된다. AI의 등장은 그 간극을 급격히 좁힌다. 최근 동료들과 AI 코딩 도구에 대해 논하다가, 내가 인공지능을 활용하는 방식에서 과거에는 명확했던 두 가지 개념이 점차 희미해진다는 사실을 깨달았다. 하나는 ‘느낌대로 코딩’이며, 다른 하나는 ‘전문가 설계’이다. 이 둘은 교실에서 AI를 활용하는 교사들의 경험에도 그대로 대입된다.

느낌대로 코딩(Vibe Coding)은 프로그램 작동 방식이나 코드의 품질, 내부 구조를 깊이 이해하지 못한 채, 단지 작동하는 결과물에 만족하며 AI를 사용하는 행위를 의미한다. 비전문가가 AI에게 ‘이런 걸 만들어줘’라고 요청하고, 결과물이 작동하면 ‘훌륭하다!’고 여기는 방식이다. 개인적인 용도로 활용한다면 문제가 없을 수 있지만, 타인에게 영향을 미치는 시스템을 만들 때는 매우 무책임한 태도가 된다. 타인의 정보가 담기거나, 타인이 의존하는 시스템에 버그가 발생하면 그 피해는 고스란히 사용자에게 돌아간다.

반면 전문가 설계(Agentic Engineering)는 프로그래밍 전문가가 보안, 유지보수, 성능 등 복합적인 요소를 고려하며 AI 도구를 자신의 역량을 극대화하는 증폭제로 활용하는 방식이다. 이들은 AI의 도움으로 더 높은 품질의 결과물을 더 빠르게 만들어내고자 한다. 오랜 경험을 바탕으로 AI가 생성한 코드나 설계물을 비판적으로 검토하고 조정한다. 목표는 명확하다. 단순히 빠른 것이 아니라, ‘더 높은 품질’을 더 빠르게 만드는 일이다.

처음에는 이 두 개념이 명확하게 구분된다고 생각했다. 그러나 AI 코딩 에이전트의 신뢰성이 높아지면서 경계가 흐려지기 시작했다. 이제는 심지어 실제 운영되는 시스템에 적용할 코드조차 모든 줄을 꼼꼼히 검토하지 않는 경우가 늘어난다. 챗GPT나 클로드 같은 모델이 특정 형태의 API 엔드포인트나 SQL 쿼리를 정확하게 작성하고 자동화된 테스트와 문서까지 추가하는 능력을 보면, ‘이 정도는 틀리지 않겠지’라는 확신이 든다. 여기에 죄책감이 뒤따른다. 내가 직접 모든 것을 검토하지 않았는데, 과연 이 결과물을 현장에 적용하는 것이 책임감 있는 행동일까?

이러한 상황은 마치 대규모 조직에서 다른 팀이 개발한 서비스를 사용하는 것과 유사하다. 나는 그 팀이 만든 이미지 리사이징 서비스의 코드를 한 줄 한 줄 뜯어보지 않는다. 문서만 확인하고 사용한다. 문제가 발생해야 비로소 코드를 들여다본다. 문제는 AI 에이전트에게는 ‘명성’이나 ‘책임감’이 없다는 점이다. 인간 개발팀은 평판이라는 무형의 자산을 걸고 좋은 소프트웨어를 만들지만, AI는 그렇지 않다.

여기에서 정규화된 일탈의 위험이 시작된다. AI 모델이 감시 없이 올바른 코드를 생성할 때마다, 우리는 점차 그것을 덜 감시하게 된다. 그리고 이는 언젠가 치명적인 순간에 AI를 과신하게 만들 수 있다. 마치 우리 교사들이 AI가 생성한 자료를 ‘그냥’ 사용하는 매 순간, 학습 격차나 교육 불평등의 씨앗을 무의식적으로 뿌릴 수 있는 위험과 닮았다. AI가 그럴듯하지만 틀린 정보를 마치 사실인 양 자신 있게 이야기하는 환각(Hallucination) 현상 또한 이러한 비판적 검증의 부재 속에서 학생들에게 잘못된 지식을 전달할 위험을 내포한다. AI가 ‘유효한 문장인가(Is-It-Valid)’를 판단하는 과정에서 통계적 오류가 발생하면, 그럴듯하지만 사실이 아닌 정보가 ‘유효하다’고 오인될 수 있기 때문이다. AI의 결과물을 ‘다른 팀의 서비스’처럼 받아들이는 순간, 교사의 본질적 책임은 누구에게 돌아가는가? 이 질문에 대한 답은 명확하다. 여전히 교사에게 돌아온다.

토의 활동

우리가 AI 생성 자료를 검토하는 기준은 무엇이며, 어떤 경험이 그 기준을 변화시켰는가?

핵심 정리 ‘느낌대로 코딩’과 ‘전문가 설계’의 경계는 AI의 성능 향상과 함께 희미해진다. AI의 결과물을 신뢰하는 과정에서 ‘정규화된 일탈’의 위험이 발생하며, 이는 교육 현장에서 학생들의 학습과 직결되는 책임 문제로 이어진다.

AI가 가치 평가 기준을 뒤흔들 때: 교육 현장의 새로운 책임

2. 가치 평가의 역설: ‘얼마나 오래 사용했는가’의 중요성

과거에는 깃허브 저장소에 수백 개의 커밋이 쌓여있고, 잘 정리된 Readme 파일과 자동화된 테스트 코드가 갖춰져 있다면, 개발자가 프로젝트에 많은 노력을 기울였음을 확신할 수 있었다. 이는 곧 소프트웨어의 품질을 가늠하는 중요한 지표가 되었다. 그러나 이제는 AI가 30분 만에 수백 개의 커밋과 아름다운 Readme, 모든 코드를 커버하는 포괄적인 테스트를 포함한 저장소를 만들어낸다. 겉으로 보기에는 수많은 노력과 시간을 들인 프로젝트와 전혀 구별되지 않는다. 과연 AI가 만든 이 프로젝트가 인간이 공들인 프로젝트만큼 좋을까? 알 수 없다. 심지어 나 자신이 AI의 도움으로 만든 프로젝트조차 겉모습만으로는 판단하기 어렵다.

이러한 변화는 가치를 평가하는 기준 자체를 근본적으로 뒤흔든다. 테스트 코드의 품질이나 문서의 완성도보다 훨씬 중요한 것은 바로 ‘실제로 얼마나 사용되었는가’이다. 매일 2주 동안 꾸준히 사용된 ‘느낌대로 코딩된’ 무언가가, 단지 형식적으로 완벽해 보이는 AI 생성물보다 훨씬 가치 있는 정보를 제공한다. 전자는 실제 환경에서 검증된 경험을 담고 있기 때문이다.

이러한 통찰은 교육 현장에도 그대로 적용된다. AI는 이제 놀라울 정도로 정교하고 매력적인 수업 계획서, 평가 루브릭, 활동 자료, 심지어는 모의 테스트 문항까지 빠르게 생성한다. 겉보기에는 완벽한 구조와 풍부한 내용으로 가득 찬 이 자료들을 보면, 마치 오랜 시간 공들여 만든 것처럼 느껴진다. 그러나 중요한 것은 그 자료가 얼마나 ‘완벽하게 보이는가’가 아니다. AI가 ‘보기 좋은 자료’를 양산하는 능력은 착시를 일으킨다. 진짜 가치는 교실에서 ‘닳도록 사용된’ 경험에서 증명된다.

AI가 생성한 수업 자료가 실제 학생들의 학습에 어떤 긍정적 혹은 부정적 영향을 미쳤는지, 교사의 수업 효율성을 얼마나 실질적으로 개선했는지에 대한 ‘누적된 사용 경험’만이 그 자료의 진정한 가치를 판단하는 핵심 기준이 된다. 클로드 코드의 컨텍스트 부식(Context Rot)1M 토큰의 함정이라는 개념은 이러한 맥락에서 중요한 시사점을 제공한다. AI 모델은 컨텍스트 창이 커질수록 오히려 정보 검색도가 떨어지고 산만해지는 경향을 보인다. 이는 AI가 생성한 자료를 단순히 ‘생성’하는 데서 끝낼 것이 아니라, 끊임없이 ‘반복적인 적용과 개선’이라는 관리가 필요함을 의미한다. 마치 AI 세션을 효율적으로 관리해야 모델의 품질이 유지되듯이, AI가 만든 교육 자료 역시 교실 환경에서 실제적인 피드백을 통해 지속적으로 조정되고 재설계되어야 한다. 그렇지 않으면, AI가 만든 ‘완벽해 보이는’ 자료들이 오히려 학습 효과를 떨어뜨리는 ‘컨텍스트 부식’을 일으킬 수 있다.

AI가 ‘보기 좋은 자료’를 양산하는 능력은 착시를 일으킨다. 진짜 가치는 교실에서 ‘닳도록 사용된’ 경험에서 증명된다. 따라서 교사는 AI 생성 자료를 수동적으로 받아들이는 사용자 역할에서 벗어나, 학습 환경의 실제적 요구에 맞춰 AI 결과물을 끊임없이 조작하고 실험하는 적극적인 설계자이자 검증자가 되어야 한다.

핵심 정리 AI는 겉으로 완벽해 보이는 자료를 빠르게 생성하지만, 그 진정한 가치는 실제 교육 현장에서의 ‘사용 경험’을 통해 검증된다. 교사는 AI 생성 자료를 비판적으로 적용하고 개선하는 능동적인 역할이 필요하며, 이는 AI의 컨텍스트 관리 원칙과도 연결된다.

AI가 가치 평가 기준을 뒤흔들 때: 교육 현장의 새로운 책임

3. 교육 생태계의 변곡점: 변화하는 병목 지점과 교사의 역할

하루에 200줄의 코드를 작성하던 개발자가 AI의 도움으로 2,000줄의 코드를 생산하게 된다면, 소프트웨어 개발 생태계 전체의 병목 지점은 이동한다. 과거의 개발 프로세스는 하루에 수백 줄의 코드를 작성하는 속도에 맞춰 설계되었다. 그러나 이제는 코드를 빠르게 ‘생성’하는 데서 병목이 발생하지 않는다.

이러한 변화는 교육 현장에도 그대로 적용된다. AI가 수업 자료 준비, 평가 문항 생성, 개별 피드백 초안 작성 등의 시간을 획기적으로 줄일 때, 교사 시간의 병목은 어디로 이동하는가? 과거에는 자료 ‘생산’ 자체가 중요한 병목이었다면, 이제는 ‘교육의 기획과 진단’, 그리고 ‘개별화된 심층 상호작용’이 핵심 병목으로 부상한다. AI가 단순 반복 업무를 처리하는 시간을 줄여줄수록, 교사는 학생들의 실제 학습 과정을 면밀히 관찰하고, 개별적인 필요에 맞춰 개입하며, 더 심층적인 학습 경험을 설계하는 데 역량을 집중해야 한다.

엔트로픽(Anthropic)의 디자인 리더 제니 웬(Jenny Wen)은 AI 시대에 디자인 프로세스의 변화를 언급한다. 과거에는 디자인을 ‘정확하게’ 만드는 것이 매우 중요했다. 왜냐하면 잘못된 디자인을 바탕으로 엔지니어들이 3개월간 엉뚱한 것을 만들면 재앙적이었기 때문이다. 하지만 이제는 잘못된 것을 만드는 데 드는 비용과 시간이 크게 줄어들면서, 디자인 과정 자체의 위험 허용치가 높아진다.

이 관점은 교육 설계에도 중요한 시사점을 준다. 과거에는 특정 수업 설계나 평가 방식의 ‘정확성’이 매우 중요했다. 교사가 새로운 시도를 하다가 실패하면, 학생들의 학습에 부정적인 영향을 미치고 교육 과정 전체에 큰 부담을 주었기 때문이다. 그러나 AI를 활용하면 다양한 수업 설계나 평가 방식을 빠르고 저렴하게 시도해 볼 수 있다. 실패의 비용이 줄어들면서, 교사는 더 실험적이고 창의적인 교육 시도를 할 수 있는 여유를 얻는다. 이는 교육 설계의 위험 허용도를 높여, 과거에는 상상하기 어려웠던 혁신적인 학습 경험을 탐색할 기회를 제공한다.

AI는 교사의 역량을 증폭하는 도구이지, 대체하는 존재가 아니다. AI와 대화하며 복잡한 문제를 해결하는 방식은 일반인에게 여전히 ‘달나라 언어’와 같다. 소프트웨어 개발이 여전히 “맹렬하게 어려운 일(ferociously difficult thing)”이듯이, 학생들을 깊이 있게 이해하고 그들의 성장을 이끄는 일은 AI 도구의 도움을 받더라도 여전히 복잡하고 고난도의 전문성을 요구한다. 우리는 AI를 ‘만능 배관공’이 아닌, 복잡한 주택 배관을 전문가의 지휘 아래 더 빠르고 정확하게 작업하는 보조 도구로 생각해야 한다.

이러한 변화가 학교 현장에 성공적으로 정착하려면, 교사들이 개별적으로 고립되지 않고 전문적 학습 공동체(PLC)를 통해 함께 AI를 실험하고 성찰하는 구조가 선행되어야 한다. 교사들이 새로운 AI 기반 교육 시도에서 실패를 두려워하지 않고 아이디어를 공유하며 서로 배우는 심리적 안전감이 보장되어야 한다. 명확한 기대 설정, 효과적인 피드백 모델링, 그리고 ‘두 개의 칭찬과 하나의 제안(Two Stars and a Wish)’과 같은 구조화된 상호작용 프로토콜은 AI 활용 실험 과정에서도 교사들이 서로를 지지하고 건설적인 피드백을 주고받는 데 필수적인 요소가 된다.

AI 시대, 교사의 역할은 단순한 ‘지식 전달자’를 넘어선다. 복잡한 교육적 맥락을 이해하고 AI와 대화하며, 그 결과를 비판적으로 조정하고 학생 개개인에게 최적화하는 ‘교육 설계자’이자 ‘학습 촉진자’로 진화한다.

핵심 정리 AI는 교육 과정의 병목 지점을 ‘기획 및 진단’과 ‘개별 상호작용’으로 이동시키며, 교육 설계의 위험 허용치를 높여 실험적 시도를 장려한다. 교사는 AI를 활용하여 교육적 역량을 증폭시키는 ‘교육 설계자’이자 ‘학습 촉진자’로 진화해야 하며, 이를 위해 전문적 학습 공동체 내 심리적 안전감 확보가 필수적이다.

4. 교실의 미래를 설계하는 전략적 탐구자의 길

바이브 코딩과 전문가 설계의 경계가 허물어지고, 가치 평가의 기준이 ‘만듦새’에서 ‘실제 사용 경험’으로 이동하며, 교육 생태계의 병목 지점이 변화하는 현상은 피할 수 없는 현실이다. 이 거대한 흐름 속에서 우리가 던져야 할 본질적인 질문은 AI를 ‘쓸 것인가, 말 것인가’가 아니다. AI가 교육의 본질적 가치를 ‘어떻게’ 재정의하고 ‘어떻게’ 우리의 역할을 확장하는 촉매가 될 것인가에 대한 탐구가 더욱 중요한다.

구조적으로 보면, AI는 교육 격차를 심화시킬 위험을 내포한다. 단순히 AI 도구의 접근성뿐 아니라, 이를 교육적으로 ‘활용하는 역량’의 격차가 새로운 형태의 불평등을 낳기 때문이다. 또한 AI 활용 능력 학습, 결과 검증, 윤리적 판단이라는 새로운 형태의 교사 부담은 필연적으로 발생한다. 이러한 문제를 방지하려면, 개별 교사의 고군분투를 넘어 교육 공동체 차원의 전략적 접근과 체계적인 지원이 필수적이다. AI가 가져올 변화는 ‘속도’의 문제를 넘어, 교육적 ‘가치’를 재정의하는 본질적 전환을 요구한다.

우리는 AI를 단순히 ‘편리한 도구’로 소비하는 것을 넘어, ‘교육의 본질적 가치를 재탐색하는 촉매’로 활용하는 방법을 모색해야 한다. 교사들이 AI를 자신만의 에이전트로 삼아 교육적 창의성을 증폭하고, 동료들과 함께 성공과 실패를 공유하며 교육의 미래를 주도적으로 만들어가는 길이 필요하다. 이는 교실에서 매일 마주하는 현실에 대한 깊은 성찰과 함께, 새로운 기술과 교육의 접점을 비판적 낙관주의로 탐구하는 전략적 접근을 의미한다.

앞으로 학교 현장에서 AI를 활용하는 교사들은 개인적인 편리함을 넘어, 동료들과 함께 AI의 교육적 효과를 체계적으로 검증하고 윤리적 문제를 논의하는 전문적 학습 공동체를 구축해야 한다. 이를 통해 AI가 가져올 수 있는 잠재적 위험을 최소화하고, 모든 학생에게 의미 있는 학습 경험을 제공하는 방향으로 교육의 미래를 주도적으로 설계할 수 있다.

생각할 질문

우리 교실에서 AI가 가져온 가장 큰 ‘생산성 향상’은 무엇이며, 그로 인해 어떤 새로운 ‘고민’이 시작되었는가?

AI 생성 자료의 ‘진정한 가치’를 판단하기 위해, 어떤 구체적인 ‘사용 및 검증 프로세스’를 도입할 수 있을까?

교사로서 AI와 협력하여 학생들에게 제공할 ‘가장 이상적인 학습 경험’은 무엇이며, 이를 위해 어떤 역량을 키워야 하는가?

출처

https://simonwillison.net/2026/May/6/vibe-coding-and-agentic-engineering/