AI 학습 환경에서 학습 Agency는 누구에게 있는가?
1. 연구의 목적
(1) AI 기술이 교육에 깊숙이 들어오면서 학생들의 학습 계획, 의사 결정, 진도 관리에 AI가 큰 영향을 미치게 됨. 하지만 대규모 자동화 시스템에서 누가 실제로 결정 권한을 가지는지 불분명함. 기존 연구는 학습 Agency를 단순히 참여도나 자기 조절 능력과 동일시하는 경향이 있어, 실제 의사 결정 권한이 누구에게 있는지 명확히 밝히지 못함.
(2) 이 연구는 학습 Agency를 학생, 교사, 기관, AI 시스템 간의 의사 결정 권한 배분 문제로 재정의하고, Agency Allocation Framework(AAF)를 제시하여 의사 결정이 어떻게 분배되고, 선택지가 어떻게 구성되며, 그 근거는 무엇이고, 결과는 어떤 시간 범위에 걸쳐 나타나는지 분석하는 것을 목표로 함.
2. 연구의 방법
(1) Learning@Scale 학회 논문들을 검토하고, 튜터링 시스템 사례를 분석하여 학습 Agency 연구의 네 가지 어려움을 확인. AAF 프레임워크를 통해 AI가 학생의 Agency를 지원하는지, 아니면 대체하는지 체계적으로 분석함.
(2) 주요 분석 대상은 Learning@Scale 학회 논문과 튜터링 시스템임. 논문 검토를 통해 학습 Agency 관련 용어 사용의 일관성 부족, 행동 지표에 대한 의존성, 효율성과 학습자 통제 간의 균형 문제 등을 파악. 튜터링 시스템 사례 분석을 통해 AAF 프레임워크를 적용하여 의사 결정 권한 배분을 구체적으로 분석함.
3. 주요 발견
(1) Agency Allocation Framework(AAF)는 학습 Agency를 의사 결정 권한의 배분으로 보고, 누가, 어떤 근거로, 어떤 선택지 안에서, 어떤 시간 범위에 걸쳐 의사 결정을 하는지 분석하는 프레임워크임. AAF는 학습 Agency를 통제(누가 시작, 거부, 무시)하고 의사 결정(누가 선택)하는 요소로 분리함.
(2) 1단계: 의사 결정 명확화. 학습자가 참여할 수 있는 의사 결정의 형태를 정의하고, 분석 수준과 관련된 이해 관계자를 파악함. 튜터링 시스템에서 학생이 문제 해결 중 어려움에 직면했을 때 힌트를 요청하거나, 다른 단계를 시도하거나, 시스템의 개입을 기다리거나, 포기하는 것과 같은 행동을 예시로 들 수 있음.
(3) 2단계: 의사 결정자 식별. 누가 의사 결정에 참여하고, 어떤 형태의 권한을 가지는지 식별함. 튜터링 시스템에서 학생은 행동을 시작하지만, 시스템은 힌트 제공 시기, 시도 횟수, 자동 안내 제공 여부를 결정함. LLM 기반 튜터링에서는 시스템이 질문이나 설명을 제공할지 결정. 교사나 기관 정책은 교육 과정 내용이나 도움말 사용 제한을 통해 간접적으로 영향.
(4) 3단계: 선택 구조 기술. 시스템이 제공하는 선택지를 어떻게 구성하는지 설명함. 튜터링 시스템에서 힌트 버튼을 눈에 띄게 만들거나, 반복적인 오류 후 힌트를 기본값으로 설정하면 시스템 지원을 수락하는 방향으로 통제가 이동함. 힌트 거부 가능 여부, 도움말 옵션을 버튼으로 제공하는지, 대화형으로 제공하는지, 오류 후 자동으로 제공하는지 등에 따라 학생과 시스템 간의 권한 배분이 달라짐.
(5) 4단계: 증거 및 책임 정의. 의사 결정의 증거로 무엇을 간주하고, 관찰되지 않은 것은 무엇이며, 결과에 대한 책임은 누구에게 있는지 명시함. 튜터링 소프트웨어는 힌트 요청, 오류 패턴, 응답 시간, 대화 내용 등 행동 추적 데이터를 생성. 잦은 힌트 사용은 시스템을 악용하는 행동, 효과적인 시스템 지원, 과도한 안내의 결과로 해석될 수 있음. AAF는 단일 해석을 요구하지 않고, 각 해석의 타당성, 측정 방법, 책임 할당 방법을 명시하도록 함.
(6) 5단계: 평가 기간 설정. 결과 평가 기간을 설정함. 과제 수준에서 평가하면 오류율 감소, 지속성 증가, 문제 해결 효율성 향상 등 튜터링이 성공적으로 보일 수 있음. 장기간 평가하면 자동 힌트나 LLM 설명에 대한 반복적인 의존으로 인해 학생들이 스스로 이해도를 점검하거나 독립적으로 지속하는 능력을 키울 기회가 줄어들 수 있음. AAF는 도움 요청 및 자기 점검과 같은 Agency 관련 역량이 개발될 것으로 예상되는 기간에 맞춰 평가하도록 강조함.
4. 결론 및 시사점
(1) AAF를 통해 학습 Agency가 단순히 지원되거나 저해되는 것이 아니라, 언제, 어디서 Agency가 행사되는지 재구성된다는 것을 알 수 있음. AAF는 효율성을 위해 규제 결정을 영구적으로 흡수하는 시스템과 학습자에게 통제권을 돌려주면서 일시적으로 도움을 제공하는 시스템을 구분할 수 있게 함.
(2) 학습 Agency는 인터페이스와 자동화된 개입에 의해 형성되는 제한된 상호 작용임. 이러한 시스템은 단기적인 성과를 향상시키지만, 학생들이 스스로 판단하고 노력하는 능력을 약화시킬 수 있음. 의사 결정, 관련된 행위자, 평가 기간을 명시하지 않으면 이러한 효과를 감지하기 어렵고 오해할 수 있음.
(3) 성과 및 참여도 향상은 학습자에서 시스템으로 규제 업무가 이전된 결과일 수 있음. 의사 결정 권한이 어떻게 구성되고 재분배되는지 검토해야 함.
5. 리뷰어의 ADD(+) One: 생각 더하기
(1) 이 논문은 AI 교육 시스템에서 학습 Agency를 단순히 학습자의 선택권을 늘리는 것으로 보지 않고, 의사 결정 권한의 배분이라는 새로운 관점으로 접근했다는 점이 주목할 만함. 기존 연구들이 AI 시스템의 효과성에만 집중하거나, 학습자의 피상적인 참여도만을 측정하는 데 그쳤다면, 이 논문은 누가, 어떤 근거로 의사 결정을 내리는지에 대한 심층적인 분석을 시도했다는 점에서 차별성을 가짐.
(2) 이 연구는 HCI 분야에서 오랫동안 논의되어 온 인간-AI 상호 작용 문제를 교육 맥락에 적용했다는 점에서 의미가 있음. HCI 연구는 AI 시스템의 투명성, 설명 가능성, 제어 가능성을 높여 사용자의 Agency를 강화하는 방안을 모색해 왔음. 이 논문은 이러한 HCI의 핵심 가치를 교육 시스템 설계에 반영하여, 학습자가 AI의 도움을 받으면서도 자신의 학습 과정을 주도적으로 관리할 수 있도록 하는 방안을 제시함.
(3) AAF 프레임워크를 기반으로, 학습자가 AI 시스템의 의사 결정 과정을 이해하고, 자신의 필요에 따라 AI의 개입 수준을 조절할 수 있는 메타인지 기반의 대화형 인터페이스를 개발하는 것을 제안함. 예를 들어, 학습자는 AI가 제공하는 힌트의 근거를 확인하고, 힌트를 수락하거나 거부할 수 있으며, AI의 추천 알고리즘에 자신의 학습 목표를 반영할 수 있음. 이러한 인터페이스는 학습자가 AI 시스템을 단순한 도구가 아니라, 자신의 학습 여정을 함께 만들어가는 동반자로 인식하도록 도울 수 있음.
6. 추가 탐구 질문
(1) AAF 프레임워크는 학습 Agency를 의사 결정 권한의 배분으로 보았는데, 의사 결정 자체의 질은 어떻게 평가할 수 있을까?
(2) AAF는 주로 개별 학습자의 Agency에 초점을 맞추고 있는데, 집단 지성을 활용하는 협력 학습 환경에서는 Agency가 어떻게 달라질까?
(3) AI 시스템이 학습자의 Agency를 강화하는 방향으로 설계된다고 하더라도, 여전히 데이터 편향이나 알고리즘 불공정성과 같은 윤리적 문제가 발생할 수 있는데, 이러한 문제를 어떻게 해결할 수 있을까?
<출처> - Borchers, C., Viberg, O., & Kizilcec, R. F. (2026). Who Decides in AI-Mediated Learning?: The Agency Allocation Framework. *Proceedings of the Thirteenth ACM Conference on Learning@Scale*. 출처>