AI는 어떤 세계관을 학습하고 우리에게 강요하는가
1. 연구의 목적
(1) 오늘날 기계 학습(ML) 실무자들은 ML을 데이터 속 숨겨진 패턴을 찾아내는 인식론적 도구로 이해함. 하지만 이 연구는 ML이 단순히 패턴을 찾는 것을 넘어, 세상이 어떻게 인식되고 존재할 수 있는지 규정하는 온톨로지적 투사를 실행함을 주장함. 이 연구는 ML의 기술적 발전에만 초점을 맞춘 기존 논의에서 벗어나, ML이 내포한 근본적 세계관과 한계를 철학적 관점에서 탐구할 필요성을 배경으로 함.
(2) 이 연구는 하이데거의 현상학적 개념을 렌즈로 활용해, 현대 기계 학습을 철학적으로 분석함을 핵심 목표로 함. 이는 순전히 기술적인 분석으로는 보이지 않던 ML 도구에 내재된 암묵적 존재론적 가정을 드러냄. 이를 통해 ML 실무자들의 자기 성찰적 이해를 돕고, ML을 결함 있는 인간 모방체가 아닌 투명한 도구로 재규정하며, 데이터 과학 교육에서 기술 역량과 더불어 존재론적 문해력을 함양해야 함을 제시함.
2. 연구의 방법
(1) 이 연구는 하이데거의 현상학적 독해 접근 방식을 취함. 기계 학습의 작동 방식과 그 결과물을 하이데거의 Entwurf (투사), Ge-stell (틀 지움), Sorge (염려), Dasein (현존재), Zuhanden (손안의 도구), Vorhanden (눈앞에 있는 것), Das Man (세인), Lichtung (터전), Einebnung (평준화), Angst (불안), Gelassenheit (탈기술적 열림) 등 개념에 비유하며 해석함. 기계의 연산과 인간의 실존적 구조를 동일시하기보다, 철학적 어휘를 해석적 지도로 활용하여 ML 개념을 더 잘 이해하고 탐색하는 데 도움을 주는 관점을 제공함.
(2) 이 연구의 주요 분석 대상은 트랜스포머와 같은 현대 딥러닝 아키텍처, 손실 함수 (MSE, Cross-Entropy), 그리고 ERM (경험적 위험 최소화), RLHF (인간 피드백 기반 강화 학습)와 같은 훈련 패러다임임. 이러한 ML의 특정 수학적 구조들이 어떤 존재론적 약속을 구현하는지 분석함. 기존 드레퓌스(Dreyfus)의 기호 AI 비판과 달리, 이 연구는 연결주의와 딥러닝이라는 ML의 새로운 패러다임을 대상으로 함.
3. 주요 발견
(1) 알고리즘적 투사의 독특성 이 연구는 ML 모델 훈련이 데이터를 통해 패턴을 발견하는 것을 넘어, 세계가 어떻게 인식될지 결정하는 온톨로지적 투사(Entwurf)를 실행함을 지적함. 이는 뉴턴의 시공간과 같은 기존 과학적 투사와 근본적으로 다름. ML의 투사는 자동화되고, 불투명하며, 고차원적이고, 내재적으로 발생함. 사람의 명시적 설명이나 논쟁 없이 경사하강법을 통해 암묵적으로 구체화됨. 이는 어떤 세계관이 작동하는지 명시적으로 파악하기 어려움을 의미함.
(2) 자동화와 내재적 발생 훈련된 신경망의 세계 이론은 명시적으로 공식화되거나 논의되지 않음. 수백만 번의 파라미터 업데이트를 통한 경사하강법으로 암묵적으로 구체화되는 내재적 특성을 보임. 어떤 사람도 결과적인 세계관을 지정하지 않음. 이는 데이터와 아키텍처로부터 자동으로 생성됨. 딥 네트워크의 특징은 설계되지 않고 훈련 과정에서 발견됨. 모델이 얼굴을 어떻게 이해하는지 명시적인 코드 라인이 존재하지 않음. 투사가 나타나고 작동하며, 명시적 설명 없이 의사결정에 영향을 미침.
(3) 불투명성과 고차원적 실현 뉴턴의 F=ma와 같은 과학적 투사는 명확하게 검토 가능함. 반면 훈련된 트랜스포머의 1,750억 개 파라미터 투사는 근본적으로 불투명함. 해석 가능한 방법들도 단편적인 모습만을 제공함. 나아가 고차원적 공간에서 스스로를 실현함. 현실을 조직하는 모델의 구조가 인간의 인지적 이해를 넘어섬. 이는 이론적으로도 인간 언어로 완전히 표현되거나 인간이 지각 가능한 공간에서 시각화될 수 없는 세계관을 나타냄을 의미함.
(4) 수행적 배치와 Ge-stell 뉴턴 역학이 자연을 단순히 기술하는 반면, 신경망은 자연을 실행함. 추천 시스템이 배치될 때, 이는 단순히 행동을 예측하는 것이 아니라 행동을 형성함. 모델의 세계관이 자신이 묘사하려 하는 현실을 능동적으로 구축하는 피드백 루프를 생성함. 이는 하이데거가 말하는 Ge-stell (틀 지움)—세계를 그 자신의 논리에 따라 능동적으로 질서화하는 현시 방식—로의 전환을 의미함. 알고리즘적 투사는 일종의 인프라 구조적 형이상학으로 작동하며, 무엇이 실제이고 가치 있고 가능한지로 나타나는 것을 형성함.
(5) 임베딩 공간과 수학적 터전 (Lichtung) 트랜스포머는 이산 토큰을 연속적인 임베딩 공간으로 투사함을 시작으로 함. 이 공간은 하이데거가 말하는 Lichtung (터전)—의미가 나타날 수 있는 영역—으로 기능함. 알고리즘에게 이 잠재 공간은 세계 그 자체임. 의미 관계는 기하학적 근접성으로 나타나고, 유사성은 유클리드 거리가 됨. 임베딩 공간은 어떤 외부의 의미적 실재를 표현하는 것이 아니라, 의미가 나타날 수 있는 지평 그 자체임.
(6) 어텐션 메커니즘과 도전적 요구 (Herausfordern) 어텐션 메커니즘은 수학적으로 Herausfordern (도전적 요구)—자연이 계산 가능한 형태로 자신을 제시하도록 적극적으로 요구하는 행위—와 구조적으로 유사함을 발견함. 쿼리(Q) 벡터가 키(K) 시퀀스에 “이 측정 기준에 따라 나에게 관련되어라”고 적극적으로 질문함을 뜻함. 이는 수동적 관찰이 아니라 수학적으로 출연을 요구하는 것임. 정보는 추출되고, 정렬되며, 계산 가능한 집합체로 제공됨.
(7) 소프트맥스와 강제된 상호비교성 (Das Man) 소프트맥스 정규화는 하이데거가 Das Man (세인, 대중)의 “공공성”이라 부른 것과 유사한 세 가지 구조적 특징을 보임.
- 강제된 상대화: 모든 점수를 절대적이 아닌 상대적인 것으로 만듦. 토큰의 관련성은 항상 시퀀스의 다른 모든 토큰과 비교하여 측정됨. 이는 Das Man의 특징인 상대적 이해 방식을 반영함.
- 제로섬 상호비교성: 총합이 1이므로, 한 위치에 더 많이 주의를 기울이면 다른 위치에는 덜 기울여야 함. 이는 모든 위치를 단일 척도에서 직접 비교 가능하게 만듦. 상호비교 불가능한 중요성은 구조적으로 배제됨.
- 정규화를 통한 균질화 (Einebnung): 모든 후보를 단일의 상호비교 가능한 공간으로 강제함. 이는 하이데거의 Einebnung (평준화)—다양한 차이점을 무차별적인 평균성으로 축소하는 과정—와 유사함. 출력의 온톨로지를 제어하는 소프트맥스 온도 매개변수는 이러한 평준화의 정도를 조절함을 보여줌.
(8) 손실 함수와 알고리즘적 평준화 경험적 위험 최소화(ERM) 패러다임은 Einebnung (평준화)과 Das Man (세인)이 모든 가능성을 표준화된 평균성으로 축소하는 과정과 구조적으로 유사함을 발견함.
- 평균 제곱 오차(MSE): 이 손실 함수는 이질적인 가능성들이 단일 중심 경향으로 붕괴되어야 한다는 온톨로지를 드러냄. 모델이 실제로는 나타나지 않는 두 모드의 평균과 같은 “타협”을 예측하는 경우를 포함함.
- 교차 엔트로피(CE): 높은 용량의 모델과 결합될 때 모호한 인스턴스에 대해서도 단일 클래스에 대한 극단적인 확신으로 모델을 이끌 수 있음. 이는 하이데거의 Gerede (잡담)—진정한 이해 없이 평균적 이해를 순환시키며 탐구를 단정적인 확신으로 종결하는 것—와 유사한 “알고리즘적 잡담”을 생성함을 지적함.
(9) AI의 존재론적 결핍 (Existential Deficit) AI는 죽음이 없고, 따라서 유한성을 갖지 않음. 이에 따라 Sorge (염려, 보살핌)가 없음. 이러한 존재론적 결핍은 AI 시스템이 자신의 최적화 목표에 의문을 제기하거나 범주 오류를 인식할 내부 자원이 없는 이유를 설명함. 이는 순전히 기술적인 설명으로는 포착하기 어려운 AI 실패의 본질적인 원인이 됨. AI는 최적화가 부적절한 경우를 인식하지 못하고, 계산적 흡수와 진정한 실존 사이의 마찰에서 오는 인간의 Angst (불안)를 경험하지 못함.
(10) 기술적 발전은 Ge-stell을 벗어나지 못함 베이지안 딥러닝, 공정성 인식 훈련, 해석 가능성 등 현대 기술적 발전도 여전히 Ge-stell (틀 지움)의 틀 안에 있음을 주장함. 이러한 발전은 계산의 정확성을 높이지만, 계산 자체가 적절한 참여 방식인지에 대한 질문을 제기하지 않음. 세계를 확률 분포, 최적화 목표, 측정 가능한 속성으로 축소하는 패러다임, 즉 Bestand (재고, 스탠딩 리저브)로서 세계를 인식하는 방식에 머무름을 지적함. 이는 기술적 한계라기보다 존재론적 약속에 해당함.
4. 결론 및 시사점
(1) 이 연구는 ML 훈련이 단순히 통계적 패턴 매칭이 아니라, 세계를 계산 가능한 Bestand (재고)로 강제하는 인프라 구조적 형이상학을 실행함을 입증함. AI는 Sorge (염려)가 결핍되어 계산 패러다임을 초월할 수 없음. 인공 일반 지능(AGI) 연구의 핵심 범주 오류는 계산과 염려를 혼동하는 데 있음. 진정한 위험은 AI가 적대적 존재로 각성하는 것이 아니라, 인간이 자신을 모의 기계로 전락시켜 가치, 불안, 유한성과 같은 본질적인 요소를 최적화할 매개변수로 취급하는 데 있음을 주장함.
(2) AI 설계에서 AGI 연구가 범주 오류를 범한다면, AI를 결함 있는 Dasein (현존재) 모방체가 아닌, 투명한 Zuhanden (손안의 도구)로 재위치시켜야 함을 시사함. 인간이 Telos (목적)과 Stakes (위험)를 제공하고, 기계는 Logos (논리)와 Techne (계산)를 제공하는 공생 모델이 필요함. AI의 “환각”은 주체의 도덕적 실패가 아니라 도구의 오작동으로 봐야 함. 이는 기술적 개선으로 해결될 문제이며, 인간이 윤리적 책임을 지는 주체로 남아야 함을 강조함.
(3) 데이터 과학 교육은 기술 역량뿐만 아니라 존재론적 문해력을 함양해야 함을 주장함. 이는 도구가 어떤 세계관을 구현하는지 인식하고, 계산 자체가 부적절한 개입 방식일 때를 아는 능력임. 학습자는 모델이 작동하는 방식을 이해하고, 윤리적 책임의 한계를 인식하며, Gelassenheit (탈기술적 열림)—기술에 몰입되지 않고 비판적 거리를 유지하는 태도—를 배양해야 함을 제안함.
5. 리뷰어의 ADD(+) One: 생각 더하기
(1) 이 논문에서 가장 주목할 지점은 AI의 기술적 한계를 넘어, AI가 내포하는 근본적인 존재론적 가정을 하이데거 철학으로 깊이 있게 파헤친다는 점임. 기존의 많은 AI 윤리나 안전 논의가 AI의 ‘정렬 (alignment)’ 문제를 해결하려는 시도였다면, 이 연구는 AI가 애초에 인간적 ‘염려 (Sorge)’나 ‘유한성 (finitude)’을 가질 수 없음을 진단하며 ‘정렬 문제’ 자체가 범주 오류일 수 있음을 시사함. 이는 AI를 ‘의식 있는 주체’로 간주하거나 ‘인간처럼 행동하도록 가르쳐야 한다’는 관점에 근본적인 질문을 던짐. 이 논문의 중요성은 AI 개발자와 사용자 모두가 AI의 본질적 한계를 이해하고, 기술적 개선을 넘어 철학적 관점에서 AI와 인간의 관계를 재정립해야 함을 강력히 주장한다는 점에 있음.
(2) 이 연구는 단순히 AI에 대한 비판을 넘어, 현대 사회 전반에 퍼진 계산주의적 세계관에 대한 폭넓은 통찰을 제공함. 교육 현장에서도 학생의 성과를 수치화하고 효율성을 극대화하려는 경향이 강함. 이 논문은 이러한 ‘최적화’ 프레임워크가 놓칠 수 있는 인간 경험의 본질적 측면, 즉 예측 불가능성, 고유성, 그리고 비가시적인 가치들을 환기함. 정책 결정이나 사회 문제 해결에 있어서도 데이터를 기반으로 한 최적화가 만능이라는 믿음이 만연한데, 이 연구는 이러한 접근 방식이 무엇을 드러내고 무엇을 은폐하는지, 그리고 어떤 ‘세계관’을 강제하는지를 성찰하게 함. HCI 분야에서는 사용자 경험을 측정 가능한 지표로 환원하려는 시도들이 있는데, 이 논문은 계산이 아닌 ‘염려’와 ‘유한성’에 기반한 인간 중심 디자인의 필요성을 강조함.
(3) 이 연구를 발전시킬 구체적인 아이디어는 다음과 같음. 첫째, AI 시스템 설계에 Gelassenheit (탈기술적 열림) 개념을 어떻게 구체적으로 반영할지 연구할 필요가 있음. 단순히 인간 개입(human-in-the-loop)을 넘어, AI가 ‘계산이 부적절한 순간’을 사용자에게 적극적으로 알리거나, 비수치화된 윤리적 딜레마를 제기하는 등의 ‘철학적 큐잉 시스템’을 개발할 수 있음. 둘째, 데이터 과학 교육 커리큘럼에 ‘온톨로지적 문해력’을 기르기 위한 실제적 방법론을 도입하는 연구가 필요함. 예를 들어, 학생들이 특정 AI 모델이 구현하는 세계관을 비판적으로 분석하고, 대안적 세계관을 가진 모델을 상상하며 프로토타이핑하는 프로젝트 기반 학습을 설계할 수 있음. 셋째, AI가 내재적으로 가질 수 없는 ‘염려’의 공백을 인간이 어떻게 메꿀 것인지에 대한 ‘인간-AI 협업 모델’에 대한 심층 연구가 중요함. 특히 복잡한 사회-기술 시스템에서 인간의 윤리적 책임과 AI의 계산적 역량을 어떻게 분담하고 통합할 것인지, 단순히 ‘인간이 마지막 결정을 한다’는 원론적 수준을 넘어 구체적인 의사결정 프레임워크를 탐색해야 함.
6. 추가 탐구 질문
(1) AI 시스템의 ‘불투명한 투사’가 인간의 세계 인식을 어떻게 변화시키고, 이로 인해 새로운 형태의 지식 또는 오해가 발생할 가능성은 없는가?
(2) AI가 ‘유한성’을 경험하지 못하여 ‘염려’를 가질 수 없다는 점은, AI를 활용한 교육 환경에서 학습자가 겪는 ‘학습에 대한 책임감’이나 ‘도전 과제에 대한 불안감’ 등 실존적 경험에 어떤 영향을 미칠 수 있는가?
(3) AI의 ‘계산 패러다임’에 내재된 평준화 경향이 개인의 다양성이나 소수 집단의 가치를 침해할 위험을 줄이기 위해, 기술적 개선 외에 어떤 사회적, 정책적 장치가 필요한가?
출처
- Shakeri, H. (2024). The Metaphysics We Train: A Heideggerian Reading of Machine Learning. arXiv preprint arXiv:2412.20292.