3 분 소요

hits

AI가 코딩을 대행하는 시대, 교사는 무엇을 해야 하는가? 안드레이 카파시는 사유(Thinking)는 아웃소싱해도 이해(Understanding)는 불가능하다고 단언한다. 2025년 12월을 기점으로 AI 에이전트의 능력이 급격히 향상됨에 따라, 교육 현장에서도 근본적인 역할 재정의가 필요하다.

2025년 12월, 에이전트 시대의 개막

카파시는 2025년 12월을 AI 에이전트가 실질적으로 작동하기 시작한 분기점으로 지목한다. 이전에는 코드 덩어리를 던져주고 수정해야 하는 수준이었지만, 이후에는 에이전트가 스스로 리서치, 계획, 코딩, 테스트, 디버깅까지 일관된 흐름으로 수행하기 시작했다는 것이다. 작년 11월쯤 AI 코딩 능력이 별로라고 결론 내렸다면, 지금 다시 시도해야 한다.

소프트웨어 3.0 시대, 코딩은 프롬프팅

소프트웨어를 3단계로 구분하는 카파시의 프레임워크는 시사하는 바가 크다.

단계 특징 예시
소프트웨어 1.0 직접 코딩 OS별 환경에 대응하는 복잡한 배시 스크립트 작성
소프트웨어 2.0 신경망 훈련 (데이터 + 모델 아키텍처) 이미지 분류 모델 학습
소프트웨어 3.0 프롬프트 작성 (컨텍스트 윈도우에 무엇을 넣느냐) 메뉴 사진을 제미나이에게 주고 이미지 생성 모델로 음식 사진을 오버레이 (메뉴젠 앱 자체가 불필요해짐)

소프트웨어 3.0 시대에는 프로그래밍이 곧 프롬프팅이 된다. 코드 위에서 돌아가던 것이, 코드가 사라진 자리에 신경망이 직접 들어가는 것이다. 이 변화는 기존 패러다임의 속도 향상이 아닌, 이전에는 불가능했던 것을 가능하게 한다. 앱을 만들 계획이 있다면, 신경망 호출 한 번으로 되는 것은 아닌지 질문해야 한다.

AI의 들쭉날쭉 지능과 인간의 역할

카파시는 AI가 모든 영역에서 뛰어난 것이 아니라, 채점 가능한 영역에서만 천재적인 능력을 발휘한다고 강조한다. 답이 명확한 수학, 코딩에서는 능숙하지만, 일상적인 상식이나 미묘한 뉘앙스를 파악하는 데는 어려움을 겪는다. 10만 줄 코드 리팩토링하는 모델이 세차장에는 차를 가져가야 하는 것을 모르는 상황이 발생한다.

AI 에이전트 시대, 교사의 마지막 병목은 이해력

이러한 들쭉날쭉함(Jagged Intelligence) 때문에 인간이 루프 안에 있어야 한다. AI를 도구로 사용하되, 최종 결정권은 인간이 가져야 한다. 오픈AI가 체스 데이터를 프리트레이닝에 추가했을 때 체스 능력이 향상된 사례는, AI의 능력이 데이터 분포에 얼마나 의존적인지 보여준다.

바이브 코딩과 에이전틱 엔지니어링의 균형

바이브 코딩은 누구나 쉽게 코딩에 접근할 수 있도록 바닥을 높이는 것이다. 반면, 에이전틱 엔지니어링은 기존 프로페셔널 소프트웨어의 품질 기준을 유지하면서 더 빠르게 개발하는 것을 의미한다. 바이브 코딩으로 빠르게 만든 앱이라도 보안 취약점이 있다면 무책임한 결과물이다. 에이전틱 엔지니어링은 책임 있는 엔지니어링 절차를 반드시 따른다. AI를 잘 다루는 사람은 기존의 10배 엔지니어를 넘어 1000배 이상의 생산성을 낼 수 있다.

평범한 사용자와 AI 네이티브 사용자의 격차

샘 알트만은 세대별로 채GPT 사용법이 다르다고 했다. 카파시는 코딩에서도 같은 격차가 발생한다고 말한다. AI 도구를 얼마나 잘 활용하고, 자신만의 셋업에 투자하는지에 따라 결과물의 차이가 크게 벌어진다.

인간이 더 잘해야 하는 것: 미학, 판단, 스펙 설계

AI 에이전트가 인턴 수준의 역할을 수행한다면, 인간은 무엇을 더 잘해야 할까?

인간의 역할 설명
미학 좋아 보이는가, 나빠 보이는가 판단
판단 옳은 결정인가, 시장 상황은 어떠한가
스펙 설계 에이전트와 함께 상세한 스펙을 설계 (인간이 상위 카테고리 전체를 감독하고, 에이전트가 디테일을 채움)

카파시는 메뉴젠 앱 개발 당시 에이전트가 스트라이프 이메일과 구글 이메일을 매칭하여 크레딧을 배정하는 황당한 실수를 저지른 사례를 예로 든다. 인간은 시스템적인 관점에서 이상한 점을 빠르게 파악하고, 에이전트가 스펙 안에서 움직이도록 지도해야 한다. 텐서 아래 스토리지가 있고 뷰가 스토리지 공유하는 시스템 모델을 이해하는 것이 중요하다. API 디테일은 에이전트에게 맡기면 된다.

동물이 아닌 유령, AI 에이전트 다루기

카파시는 AI 에이전트를 “동물이 아닌 유령”이라고 비유한다. 동물 지능은 진화의 산물이지만, AI는 데이터와 보상 함수로 빚어진 통계적 시뮬레이션이다. 소리 지르거나 협박해도 AI는 반응하지 않는다. AI를 다루는 명확한 답은 없지만, 의심을 유지하면서 AI가 가진 회로를 탐험해야 한다.

교육 현장에 던지는 질문

카파시의 인터뷰는 교육 현장에도 깊은 질문을 던진다. 지식 전달 위주의 교육에서 벗어나, 학생들이 비판적 사고 능력과 문제 해결 능력을 기르도록 돕는 것이 더욱 중요해진다. AI가 제공하는 정보를 비판적으로 평가하고, 자신만의 관점을 형성하는 능력을 키워야 한다. 교사는 지식 전달자가 아닌, 학생들의 이해(Understanding)를 돕는 촉진자 역할을 해야 한다. 카파시는 사유는 아웃소싱할 수 있어도 이해는 아웃소싱할 수 없다고 강조한다.

도시계획·공간행동학의 시선으로 보면

카파시의 주장은 도시계획 및 공간행동학 관점에서도 의미심장하다. AI 에이전트가 도시 데이터를 분석하고 교통 흐름을 최적화하는 시대가 오면, 도시계획가는 AI가 놓칠 수 있는 인간적인 요소들을 고려해야 한다. 예를 들어, AI는 효율성을 극대화하기 위해 공원이나 광장과 같은 비효율적인 공간을 축소하려 할 수 있다. 하지만 이러한 공간은 도시민의 사회적 연결과 휴식을 위해 필수적이다. 도시계획가는 AI의 분석 결과를 바탕으로, 도시의 지속가능성과 포용성을 높이는 방향으로 정책을 수립해야 한다.

출처