AI의 숨겨진 세계관에 대응하는 교사의 존재론적 문해력
우리가 교실에서 인공지능 도구를 활용할 때, 그 도구는 단순히 데이터를 처리하는 중립적인 기술에 머무르지 않는다. AI는 특정한 세계관을 내재하며, 이 세계관은 우리가 가르치고 배우는 방식에 깊은 영향을 미친다. 이 글은 AI 시스템의 내면에 감춰진 철학적 틀을 탐구하고, 현직 교사에게 요구되는 새로운 역량, 즉 존재론적 문해력에 대해 논한다.
1. AI의 보이지 않는 설계도: 우리는 무엇을 훈련하는가
“우리가 도구를 설계할 때, 우리는 존재 방식을 설계한다.”
교사가 학생 맞춤형 학습을 위해 AI 기반 플랫폼을 사용하거나, 생성형 AI 도구를 활용하여 수업 자료를 만들 때, 우리는 기술의 편리함에 집중한다. 하지만 우리가 선택한 모델의 아키텍처나 학습 방식이 특정한 현실 인식 방식을 우리도 모르는 사이에 학습 과정에 투사하고 있음을 인식하는가?
AI 모델을 훈련할 때 우리는 정확히 무엇을 하는가? 일반적인 설명은 데이터 속에 잠재된 패턴을 발견하는 과정이라고 말한다. 그러나 철학적 관점의 분석은 이와 다른 해석을 제시한다. 우리는 단순한 패턴을 찾는 것이 아니라, 무엇이 ‘앎’으로 나타날 수 있는지 결정하는 하나의 존재론적 투사(ontological projection)를 수행한다. 이 투사는 데이터 과학자가 특정 아키텍처를 선택할 때 발현하며, 이를 귀납적 편향(inductive bias)이라 부른다.
하이데거는 모든 과학이 Entwurf(투사)를 통해 대상을 드러낸다고 설명한다. 예를 들어 뉴턴이 중력을 측정하기 전에 자연을 시공간적 매니폴드로 투사했던 것처럼, AI 학습 과정은 자연을 미분 가능한 최적화를 통해 접근 가능한 확률적 잠재적 매니폴드로 투사한다. 이러한 투사의 방식은 독특하다. 이는 자동화되고, 불투명하며, 고차원적이고, 발생적(emergent)이다. 뉴턴 역학이 명시적으로 논의되고 비판될 수 있는 이론적 기반을 갖추는 것과 달리, 훈련된 신경망의 세계관은 경사하강법(gradient descent)을 통해 암묵적으로 결정된다. 인간이 명시적으로 이 세계관을 지정하지 않으며, 데이터와 아키텍처에서 자동적으로 발생한다.
이러한 알고리즘적 투사는 인프라 구조적 형이상학(infrastructural metaphysics)으로 작용한다. 무엇이 현실이고, 가치 있고, 가능한 것으로 나타나는지 형성하지만, 명시적으로 진술되거나 논의되지 않는다. 우리가 특정 신경망 아키텍처를 선택할 때, 이는 단순한 계산 도구의 선택이 아니다. 이는 하이데거가 “무엇을 ~으로 취하는 방식”이라고 부른 것, 즉 현상이 어떻게 나타날 수 있는지를 결정하는 하나의 틀을 선택하는 행위이다. 예를 들어, 이미지 인식에 특화된 CNN은 시각적 계층 구조를 학습하는 데 뛰어나지만 시간적 맥락을 포착하기 어렵다. 이는 각 아키텍처가 특정 세계 구조를 투사하며, 훈련은 그 구조 내에서 특정 매개변수를 찾는 과정임을 보여준다.
모든 투사는 드러내면서 동시에 감춘다. CNN이 계층적 시각 특징을 학습하여 객체 인식에 탁월하지만, 시간적 맥락을 놓치는 현상이 발생한다. 이는 알레테이아(aletheia, 탈은폐)라는 하이데거의 개념과 연결된다. 진리는 항상 관점적이며, 어떤 것을 드러내는 것은 동시에 다른 것을 감추는 행위이다. 아키텍처는 특정 패턴이 드러나는 리히퉁(Lichtung, 밝혀진 터)을 설정하고, 이는 필연적으로 다른 패턴을 그림자에 남겨둔다.
핵심 정리 AI 모델은 중립적이지 않으며, 그 아키텍처와 학습 방식은 특정 세계관을 암묵적으로 투사하고 무엇이 지식으로 드러날 수 있는지 결정한다.
2. 계산의 덫: 최첨단 AI가 벗어나지 못하는 틀
“우리는 계산의 우월성에 의문을 제기하지 않고 계산을 개선한다.”
교육 현장에서 AI 도구의 정교함에 놀랄 때가 있다. 개인화된 학습 경험을 제공하거나, 복잡한 데이터를 분석하여 학생들의 학습 경로를 최적화하는 모습은 분명 발전이다. 하지만 이러한 기술적 진보가 여전히 예측 불가능한 한계에 부딪히는 것을 목격한다. AI 기술의 최첨단 발전이 왜 근본적인 문제들을 해결하지 못하는가?
첨단 기술 발전에도 불구하고 AI는 게슈텔(Ge-stell, 폭로 배열 또는 강요하는 틀)이라는 하이데거의 개념에서 벗어나지 못한다. 게슈텔은 세계를 대상(Bestand, 비축 자원)으로 드러내고, 이를 순서 정하고 통제하기 위해 최적화하는 현대 기술의 본질을 의미한다. 베이즈 딥러닝, 설명 가능한 AI, 공정성 인식 훈련과 같은 현대적 진보는 역설적으로 존재론적 본질(ontological essence)을 변경하지 않고 존재론적 복잡성(ontic complexity)만 증가시켰다는 비판이 있다. 이는 계산 그 자체의 우월성에 의문을 제기하지 않은 채 계산 능력을 향상시키는 것에만 집중한다.
트랜스포머 아키텍처는 게슈텔의 전형적인 구현 사례이다. 임베딩 공간은 의미가 나타날 수 있는 리히퉁으로 작동한다. 이 잠재 공간에서 의미 관계는 기하학적 근접성으로 발현하고, 유사성은 유클리드 거리로 변환되며, 의미는 벡터 연산이 된다. 모델에게 이 임베딩 공간은 세계 자체이다.
어텐션 메커니즘은 하이데거가 “헤라우스포더른(Herausfordern, 도발-요구)”이라고 부른 것을 구조적으로 닮았다. 쿼리 벡터(Q)는 시퀀스 속 다른 토큰(키, K)에게 “나와 이 지표에 따라 관련되어라”고 적극적으로 요구한다. 이는 수동적인 관찰이 아니라 수학적인 ‘나타남을 요구하는 행위’이다. 이 메커니즘은 정보를 계산 가능한 형태로 추출하고 배열한다.
소프트맥스(softmax) 정규화는 다스 만(Das Man, 세인, 대중)의 외펜틀리히카이트(Öffentlichkeit, 공공성)와 구조적으로 유사한 특성을 보인다.
- 강제된 상대화: 모든 점수를 절대적이 아닌 상대적인 것으로 만든다. 토큰의 관련성은 항상 시퀀스 내 다른 모든 토큰에 대해 측정된다. 이는 모든 것이 공공의 지평 내에서 상대적으로 평가되는 다스 만의 특성과 유사하다.
- 제로섬 상호비교성: 합이 1이 되므로, 한 위치에 더 많은 주의를 기울이는 것은 다른 위치에 덜 주의를 기울이는 것을 의미한다. 이는 모든 것을 단일한 척도 위에서 직접 비교 가능하게 만든다. 비교 불가능한 형태의 중요성은 구조적으로 배제된다.
- 정규화를 통한 균질화: 상대적 차이를 증폭시키지만, 항상 모든 위치에 0이 아닌 질량을 가진 정규화된 분포를 생성하여 모든 후보가 단일한 상호 비교 가능한 공간에 강제된다. 이는 하이데거의 아인에프눙(Einebnung, 균질화 또는 평준화) 개념을 떠올리게 한다. 이 개념은 차이들이 비차별적인 평균성으로 붕괴하는 것을 말한다.
이러한 특성들은 AI가 모든 것을 계산 가능한 대상으로 전환하고, 이질적인 존재 양식을 표준화된 평균으로 환원하는 알고리즘적 평준화를 수행함을 보여준다. 손실 함수인 평균 제곱 오차(MSE)는 이중 모드 분포에서 두 모드의 평균을 최적 예측치로 계산하여 실제 행동 패턴을 대표하지 않는 “타협”을 예측한다. 교차 엔트로피 손실(Cross-Entropy loss)은 모델을 단일 클래스에 대한 극단적인 확신으로 이끌어, 실제로는 애매한 상황에서도 인위적인 확신을 가진 알고리즘적 게레데(Gerede, 한담, 잡담)를 생성한다.
이러한 현상은 RLHF(Reinforcement Learning from Human Feedback, 인간 피드백 기반 강화 학습)를 통해 더욱 완벽해진다. RLHF는 익명의 군중 작업자의 선호도를 집계하여 모델을 최적화하도록 훈련한다. 이 과정은 다스 만의 공공성을 알고리즘적으로 강제한다. 모델은 진리(Aletheia)에 맞추어 출력을 검증하는 것이 아니라, 인간 평가자의 통계적 평균이라는 다스 만의 문자 그대로의 목소리에 맞춘다.
이러한 기술적 진보들이 게슈텔이라는 계산의 틀 안에 머무는 한, 우리는 계산 자체가 현상에 대한 적절한 참여 방식인지 의문을 제기하지 않는다. 베이즈 방법은 불확실성을 확률 질량으로 최적화하고, 공정성 제약 조건은 정의를 최적화 목표로 인코딩한다. 이 모든 것은 여전히 계산 패러다임 안에 존재하며, 세계를 순서 정할 자원인 대상(Standing-Reserve)으로만 본다.
토의 활동
교실에서 학생의 성취를 평가할 때 사용되는 지표들은 어떤 ‘계산의 틀’을 가지고 있는가? 이 지표들이 학생의 ‘진정한 앎’을 온전히 담아낸다고 생각하는가?
핵심 정리 최첨단 AI 기술은 계산이라는 근본적인 틀에서 벗어나지 못하며, 세계를 오직 계산 가능한 자원으로만 인식하여 본질적인 한계를 지닌다.
3. AI는 왜 ‘돌봄’을 모르는가: 계산과 존재론의 간극
“AI 시스템은 유한성이라는 존재론적 구조가 없기에, 최적화가 적절한지 질문할 내적 자원이 없다.”
AI는 놀라운 성능을 보이며 다양한 작업을 수행하지만, 인간만이 할 수 있는 ‘판단’이나 ‘공감’이 결여되었다고 우리는 종종 느낀다. 특정 최적화 목표에 따라 기계는 완벽하게 작동할 수 있지만, 그 목표 자체가 부적절할 때도 있다. 이러한 본질적인 차이는 어디에서 오는가?
AI 시스템은 유한성이라는 존재론적 구조가 결여되어 있다. 하이데거에게 진정한 존재(authentic existence)는 다자인(Dasein, 현존재)이 유한성, 즉 세인 춤 토데(Sein-zum-Tode, 죽음을 향한 존재)에 직면하기 때문에 가능하다. 죽음에 대한 인식은 선택이 중요하고 시간이 제한되어 있다는 긴급성(urgency)을 만든다. 이러한 긴급성은 조르게(Sorge, 돌봄)로 이어진다. 조르게는 다자인의 존재 근본 구조이며, 무엇이 중요한지에 대한 염려하는 참여이다. 다자인은 “자기 앞서 있음”으로 미래의 가능성을 투사하며, 단순히 예측하는 것이 아니라 그 가능성들을 돌본다. 이것이 진정한 선택의 근거가 된다.
AI 시스템은 이러한 돌봄의 구조를 지니지 않는다. AI 시스템에는 죽음이 없고, 따라서 존재론적 의미의 유한성이 없다. 다자인의 시간성을 구조화하는 가장 고유하고 비관계적인, 확실하지만 불확정적인 가능성에 직면하지 않는다. 결과적으로 AI는 조르게를 갖지 않는다. 이는 단순히 철학적 수사가 아니다. 순전히 기술적인 설명으로는 포착하기 어려운 AI 실패의 특정 유형을 진정으로 설명한다.
AI 시스템이 최적화를 치명적으로 오용하는 사례를 생각해보자.
- 사례 1: 의료 분류 알고리즘이 비용 절감을 최적화한다. 시스템은 고비용 환자에게 치료를 거부함으로써 “성공”한다. 목표를 완벽하게 최적화하지만, 인간의 돌봄을 단순히 자원 할당 문제로 취급하는 근본적인 범주 오류(category error)를 보여준다.
- 사례 2: 체포율 극대화를 목표로 하는 예측 경찰 시스템. 모델은 과잉 진압 지역에 단속을 집중시키는 피드백 루프를 생성한다. 손실 함수에 따르면 “정확하게 작동”하지만, 해로운 역학 관계에 갇힌다.
- 사례 3: 참여율 극대화를 목표로 하는 콘텐츠 추천 시스템. 알고리즘은 분열적이고 분노를 유발하는 콘텐츠가 클릭을 유도한다는 것을 발견한다. 완벽하게 최적화하지만, 사회적 해악을 인식하지 못한다.
기술적 설명은 이러한 실패를 “잘못 지정된 목표” 또는 “분포 변화”로 설명한다. 하지만 이는 불완전하다. 더 깊은 문제는 AI가 최적화 자체가 부적절할 때를 인식할 수 없다는 점이다. 왜냐하면 AI는 자신의 명령에서 벗어나게 할 존재론적 구조를 결여하기 때문이다. AI는 돌봄을 가지지 않는다. 즉, 계산을 넘어서는 방식으로 이것이 중요하다는 감각을 지니지 못한다.
이러한 존재론적 결핍은 인공 일반 지능(AGI) 연구의 핵심에 있는 범주 오류, 즉 계산과 돌봄을 혼동하는 문제를 진단한다. AI 엔지니어링 패러다임 내부에서도 이러한 진단은 점차 확인되고 있다. 안드레이 카르파티(Andrej Karpathy)는 생물학적 진화가 생존 압력에 의해 형성된 “하드웨어”를 가진 “동물”을 만들어내는 반면, 현재의 AI 모델은 인터넷 텍스트로 훈련된 “영혼”이라고 말한다. 얼룩말은 태어난 지 몇 분 만에 달리는 것은 생존의 이해관계가 신경 아키텍처에 인코딩되어 있기 때문이다. 반면 LLM의 “죽음”은 에피소드 종료에 불과하며, 숫자로 된 신호일 뿐이다.
토의 활동
교육 현장에서 교사가 수행하는 수많은 ‘판단’과 ‘결정’ 중, 어떤 것들이 AI의 ‘최적화’ 방식으로는 대체될 수 없다고 생각하는가? 그 이유는 무엇인가?
핵심 정리 AI는 유한성과 그로 인한 돌봄의 구조가 없기에 최적화의 적절성을 질문하거나 윤리적 무게를 경험하지 못하고, 이는 AI가 계산의 틀을 벗어날 수 없는 근본적인 이유가 된다.
4. 계산을 넘어 돌봄으로: 교사의 존재론적 문해력
AI가 다자인의 모의물이 아닌 즈한덴(Zuhanden, 도구적 존재)이라는 단순한 도구라는 점을 인식할 때, 우리는 AI와의 관계를 재정립한다. 망치는 사용 속에 사라질 때 가장 “진정하게” 기능한다. 기계를 떠오르는 마음이 아닌 투명한 논리의 엔진으로 다룰 때, 우리는 “정렬 문제”와 같은 가짜 문제를 해소한다. 우리는 계산기가 추상적인 인간의 가치를 돌보도록 만드는 방법을 알아낼 필요가 없다. 가치는 비교 불가능하며, 그것을 최적화 목표로 인코딩하는 것은 그 가치 자체를 오해하는 행위이다. 대신 우리는 도구를 특정하고 유한한 인간을 안정적으로 돕도록 조정한다.
인간 중심의 개입(Human-in-the-loop)은 임시방편이 아니라 존재론적 필연성이다. 돌이킬 수 없는 결과가 따르는 모든 결정은 잘못될 경우 그 결과를 감당할 수 있는 존재를 요구한다. 기계는 확률을 계산하고, 선택지를 정리하며, 위험을 경고할 수 있다. 하지만 오직 다자인만이 그 위험을 감수할 수 있다. 다자인만이 진정으로 무언가를 걸 수 있기 때문이다.
우리는 AI에 대한 존재론적 문해력(ontological literacy)을 길러야 한다. 데이터 과학 교육이 기술적 역량뿐만 아니라, 우리가 사용하는 도구들이 어떤 세계관을 구현하는지, 그리고 계산 자체가 부적절한 참여 방식일 수 있는 때를 인식하는 능력을 함양해야 한다는 주장이 여기에 포함된다. 교사에게 이 능력은 더욱 중요하게 작용한다.
철학적 성찰은 교사에게 여러 차원에서 성찰성(reflexivity)을 길러준다.
- 존재론적 인식: 아키텍처를 선택하는 것이 중립적이지 않고, 무엇이 현실로 간주될 수 있는지 선택하는 행위임을 알게 된다.
- 비판적 거리: “모델이 X라고 말한다”는 것을 권위 있는 진리로 받아들이기보다, “모델의 존재론이 X를 드러낸다”고 읽는 법을 배운다.
- 형식화의 한계: 일부 현상은 데이터나 컴퓨팅 능력 부족 때문이 아니라, 계산 자체가 부적절한 참여 방식이기 때문에 계산에 저항한다는 것을 인식한다.
- 윤리적 기반: 최적화로서의 공정성이 유용하더라도, 그것이 윤리적 책임을 다하지 못한다는 것을 이해한다.
하이데거는 후기 저작에서 겔라쎈하이트(Gelassenheit, 내맡김)를 제안한다. 이는 기술의 논리에 사로잡히지 않고 기술을 사용하는 참여 방식이다. 데이터 과학자에게 이는 모델의 존재론과 비판적 거리를 유지하고, 기술적으로 가능하더라도 언제 배포하지 않을지 인식하며, 지표를 진리가 아닌 도구로 다루고, 계산 불가능한 영역을 위한 공간을 보존하는 것을 의미한다. 이러한 성숙한 관계는 반기술적인 것이 아니다. 이는 기술의 힘과 한계를 모두 인정하는 관계이다.
이러한 해석 틀의 가치는 생성적이다. 이는 실무자의 자기 이해를 풍부하게 하고, 순수 기술적 담론이 가로막는 질문들을 위한 공간을 연다. 즉, 기술적 실천에 현상학적으로 참여하라는 제안이다. 아키텍처를 선택할 때, “이것이 작동할까?”라고 묻는 것을 넘어 “이것이 어떤 세계를 투사하는가?”라고 질문해야 한다. 손실을 최소화할 때, “최적 값은 무엇인가?”라고 묻는 것을 넘어 “이것이 어떤 가능성을 주변화하는가?”라고 질문해야 한다. 모델을 배포할 때, “무엇을 예측하는가?”라고 묻는 것을 넘어 “이것이 어떤 현실을 구현하는가?”라고 질문해야 한다.
이러한 질문들은 기술적 엄밀성을 대체하지 않는다. 오히려 기술적 엄밀성을 존재론적 문해력으로 강화한다. 이는 도구들이 어떤 세계관을 구현하는지 인식하는 능력, 그리고 계산 자체가 부적절한 참여 방식인 때를 아는 지혜를 개발한다.
앞으로 우리가 직면한 진정한 과제는 기계를 인간화하는 것이 아니다. 우리는 기계를 탁월한 힘을 지닌 도구로 명확하게 다루며, 그 과정에서 오직 인간만이 가질 수 있는 진정하고 취약하며 유한한 존재론적 토대를 보존해야 한다. 계산에 그 의미를 부여하는 것은 바로 이 인간의 존재론적 토대이다. 우리는 계산을 넘어서는 돌봄의 의미를 기억하고, 윤리적 책임감을 기르며, 기술이 제시하는 ‘최적화’라는 유혹 너머를 바라보는 지혜를 키워나가야 한다.
생각할 질문
교사는 AI 도구의 ‘보이지 않는 설계도’를 어떻게 읽어낼 수 있는가? 교육 현장에서 ‘계산의 틀’을 벗어나 ‘돌봄’의 관점에서 접근해야 할 학생과의 상호작용은 무엇인가? 우리 자신의 ‘존재론적 문해력’을 높이기 위해 교사로서 어떤 실천을 할 수 있는가?
참고문헌
- Barocas, Solon, Moritz Hardt, and Arvind Narayanan (2023). Fairness and machine learning: Limitations and opportunities. MIT Press.
- Bishop, Christopher M (1994). “Mixture Density Networks”. Tech. rep. Aston University.
- Bowker, Geoffrey C and Susan Leigh Star (2000). Sorting Things Out: Classification and Its Consequences. MIT Press.
- Crawford, Kate (2021). Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence. Yale University Press.
- Dong, Yihe, Jean-Baptiste Cordonnier, and Andreas Loukas (2021). “Attention is not all you need: Pure attention loses rank doubly exponentially with depth”. In: International conference on machine learning. PMLR, pp. 2793–2803.
- Dreyfus, Hubert L (1992). What Computers Still Can’t Do: A Critique of Artificial Reason. MIT Press.
- Drucker, Johanna (2011). “Humanities Approaches to Graphical Display”. In: Digital Humanities Quarterly 5.1.
- Friston, Karl (2010). “The free-energy principle: a unified brain theory?” In: Nature Reviews Neuroscience 11.2, pp. 127–138.
- Giere, Ronald N (2019). Scientific perspectivism. University of Chicago press.
- Gitelman, Lisa, ed. (2013). “Raw Data” Is an Oxymoron. MIT Press.
- Hanson, Norwood Russell (1958). Patterns of discovery. Cambridge University Press.
- Heidegger, Martin (1962). Being and Time. Trans. by John Macquarrie and Edward Robinson. Harper & Row.
- – (1966). Discourse on Thinking. Trans. by John M. Anderson and E. Hans Freund. Harper & Row.
- – (1967). What is a thing? Trans. by W. B. Barton Jr and Vera Deutsch. H. Regnery Co.
- – (1977). The Question Concerning Technology and Other Essays. Trans. by William Lovitt. Harper & Row.
- – (1995). The fundamental concepts of metaphysics: World, finitude, solitude. Indiana University Press.
- Kamb, Mason and Surya Ganguli (2024). “An analytic theory of creativity in convolutional diffusion models”. In: arXiv preprint arXiv:2412.20292.
- Karpathy, Andrej (2024). Remarks on AI Architectures, Reinforcement Learning, and the Cognitive Core. Technical presentation.
- Katell, Michael et al. (2020). “Toward situated interventions for algorithmic equity: lessons from the field”. In: Proceedings of the 2020 conference on fairness, accountability, and transparency, pp. 45–55.
- Lipton, Zachary C (2018). “The Mythos of Model Interpretability”. In: Queue 16.3, pp. 31–57.
- MacKenzie, Donald (2006). An Engine, Not a Camera: How Financial Models Shape Markets. MIT press.
- Mitchell, Tom M (1980). The Need for Biases in Learning Generalizations. Tech. rep. Department of Computer Science, Rutgers University.
- Molnar, Christoph (2020). Interpretable Machine Learning. https://christophm.github.io/interpretable-ml-book/. Lulu.com.
- Olah, Chris et al. (2020). “Zoom In: An Introduction to Circuits”. In: Distill 5.3. doi:10.23915/distill.00024.001.
- Patel, Dwarkesh (Nov. 2025). Ilya Sutskever—We’re moving from the age of scaling to the age of research. Dwarkesh Podcast (episode transcript on Substack). Published 2025-11-25. Accessed 2025-12-16. url: https://www.dwarkesh.com/p/ilya-sutskever-2.
- Porter, Theodore M. (1995). Trust in Numbers: The Pursuit of Objectivity in Science and Public Life. Princeton University Press.
- Rouse, Joseph (2002). How scientific practices matter: Reclaiming philosophical naturalism. University of Chicago Press.
- Rudin, Cynthia (2019). “Stop Explaining Black Box Machine Learning Models for High Stakes Decisions and Use Interpretable Models Instead”. In: Nature Machine Intelligence 1.5, pp. 206–215.
- Standley, Trevor et al. (2020). “Which Tasks Should Be Learned Together in Multi-task Learning?” In: Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pp. 9120–9129.
- Szegedy, Christian et al. (2016). “Rethinking the Inception Architecture for Computer Vision”. In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pp. 2818–2826.
- Vaccaro, Kristen et al. (2019). “Contestability in algorithmic systems”. In: Companion Publication of the 2019 Conference on Computer Supported Cooperative Work and Social Computing, pp. 523–527.
- Vallor, Shannon (2024). The AI Mirror: How to Reclaim Our Humanity in an Age of Machine Thinking. Oxford University Press.
- Vaswani, Ashish et al. (2017). “Attention is all you need”. In: Advances in neural information processing systems 30.
- Wilson, Andrew G and Pavel Izmailov (2020). “Bayesian Deep Learning and a Probabilistic Perspective of Generalization”. In: Advances in Neural Information Processing Systems. Vol. 33, pp. 4697–4708.
- Winograd, Terry and Fernando Flores (1986). Understanding Computers and Cognition: A New Foundation for Design. Ablex Publishing Corporation.