중국어 방 논증에 대한 의문점

중국어 방 논증에서 중국어 방은 다음과 같이 동작합니다.

시험자가 질문을 방에 던지고, 방은 응답을 내놓습니다. 시험자는 그 응답이 적당하다고 생각하면 중국어 방이 중국어를 잘 이해한다고 판단합니다.

(중국어 방 논증은 이 판단이 상당히 반직관적이라는 것으로 보입니다.) 그런데, 이것은 우리가 누군가 어떤 지식을 잘 이해했는지 판단하는 과정과 동일합니다. 이 과정에 맹점이 있다면, 우리는 어떻게 누군가, 그리고 자신의 이해 여부를 판단할 수 있을까요?

오히려 실용적으로 중국어 방 테스트를 통과하면 이해한 것으로 하자는 것이 더 좋을 수도 있지 않을까요?

2개의 좋아요

'중국어를 이해하지 못하는 사람도 "이러이러한 질문에는 이러이러한 문자를 써서 답변하여 제출한다"는 종이가 제공된 방에 갇힌채 모든 중국어 질문에 옳은 답변을 한다'라는 시나리오는 상상 가능합니다. 님의 제안대로 모든 중국어 질문에 옳은 답변을 하는 사람을 중국어를 이해한 것으로 규정하더라도 '중국어를 이해하지 못하는 사람'에서의 '이해'라는 개념은 (설령 그 개념을 '이해'가 아닌 다른 이름으로 부르더라도) 그대로 남아있습니다. 결국 바뀌는건 없습니다.

1개의 좋아요

[이 답변은 전문적인 답변이 아니니 절대 신뢰하지 말아주세요. 작성자는 고2이며 전문지식이 없습니다.]

그런 개념이 사실 이미 존재합니다. 모방게임(imitation game), 튜링 테스트(Turing Test)라고도 불리는 일종의 실험입니다. 기계가 생각을 하는 것인지, 이해를 하는 것인지를 추상적인 차원에서 난해하고 엄밀하게 따지기보다는 "기계가 구분 못 할 정도로 사람같이 잘 하면 그냥 통과시키자(텍스트 대화에서)" 라는 실험인데, 물론 처음에는 공학적인 성능테스트의 의도를 가지고 설계되었다기 보다는 튜링의 입장에서 "생각하는가의 기준을 관찰이 확실히 가능한 차원에서 따지자"라는 의도로 설계된 실험입니다. 이후에는 철학적 의미보다는 성능테스트 목적으로 자주 사용됩니다.

말씀하시는 "기계는 생각하는가 아니면 그냥 확률인가" 에 대해서는 여러 입장과 그에 대한 논박이 존재하지만 널리 알려진 "Ai는 어디까지나 확률모델일 뿐"이라는 입장 외에도 "기계는 정말로 사람과 똑같이 이해한다" 라는 입장도 존재합니다. 연결주의(Connectionism)라 불리는 입장인데, 대표적 인물로는 AI 딥러닝의 대부인 제프리 힌튼(Geoffrey Hinton) 교수가 있습니다. 지식과 이해의 본질은 신경망의 연결패턴이고 노드(node)들 사이의 연결들이라는 입장입니다. AI역시 가중치, 확률 백터 공간과 같은 인공신경망을 통해 작동하니, 인간의 사고 작동 원리와 근본적으로 동일하고, 그들은 진실로 개념을 이해하고 있다는 입장입니다.

[이 답변은 전문적인 답변이 아니니 절대 신뢰하지 말아주세요. 작성자는 고2이며 전문지식이 없습니다.]

1개의 좋아요

심리철학 전공은 아니지만, 몇 자 적어보겠습니다.

중국어방 논증은 이것보다 조금 더 복잡합니다. 일단 방에 있는 사람은 중국어를 하나도 못하며, 중국어로 된 문장을 봤을 때 단 하나도 이해하지 못합니다. 하지만 방에 있는 사람은 중국어로 된 질문이 주어졌을 때 어떤 글자를 써서 낼지에 대한 답안이 주어졌습니다. 그리고 그 사람은 중국어를 단 하나도 못하기 때문에 자신이 쓰는 글자들이 어떤 의미를 갖는지도 모르죠. 그냥 주어진 질문의 모양들을 보고, 답안에서 맞는 모양들을 찾아서 그에 따른 모양들을 생성해낼 뿐입니다. 예를 들어, "你叫什么名字?"란 질문 ("당신의 이름은 무엇입니까" 란 질문)이 주어졌다고 해봅시다. 방에 있는 사람은 중국어를 하나도 모르기 때문에 이 질문의 뜻을 모릅니다. 하지만 답안에는: "'你叫什么名字'란 질문이 주어졌을 경우, '我的名字叫约翰'라고 써서 내시요" ("제 이름은 존입니다"라는 답안)와 같이 써있을 겁니다. 그렇다면 그 사람은 "我的名字叫约翰"라고 쓸 겁니다. 이때 이 사람의 답안만 봤을 때는 적절한 문장을 써서 낸 것처럼 보이지만, 사실 이 사람은 자신이 어떤 질문을 받았고, 어떤 문장을 써서 냈는지는 모릅니다. 그냥 모양들을 대조해서 모양들을 생성해낸 것 뿐이지요. 이런 의미에서 방에 있는 사람은 중국어를 이해하지 못한다고 할 수 있지요.

작성자님께서는 다음과 같이 말씀하셨습니다:

작성자님께서는 응답에 기반해서 이해의 여부를 판단해야한다고 말씀하시는 것 같습니다. 중국어방 논증은 이에 대한 반례를 보여준다고 할 수 있습니다. 중국어방에 있는 사람은 대화를 이해하고 있지 않습니다. 하지만 이 사람은 중국어 질문에 적절한 응답을 제시하고 있습니다. 이름이 무엇이냐는 질문에 자신의 이름은 존이라고 답하였죠. 그렇기 때문에 적절한 응답을 제시한다고 해서 그것이 이해를 했다는 것의 충분조건이 되지 않습니다. 그것이 중국어방의 논증입니다.

물론 중국어방 논증이 논란이 많고, 꼭 동의해야하는 것은 아닙니다. 예를 들어 방 안에 있는 사람은 중국어를 이해못하지만 사실 방 전체를 하나의 개체로 둔다면 그 방은 중국어를 이해하고 있다고 답을 하는 사람도 있지요 (존설이 이에 대한 답을 하지만 이 답이 만족스럽다고 생각하는 사람은 별로 없는 것 같습니다). 다만 존 설에 대한 답을 하기 위해서는 논증을 조금 더 자세하게 이해하고, 정확히 논증의 어떤 부분에 문제가 있는지 살펴보셔야할 것 같습니다.

3개의 좋아요

중국어방 논증을 이해하기 위해서는 인공지능에 대한 두가지 충돌하는 아키텍쳐가 있다는걸 먼저 아셔야 합니다.

첫번째로는 고전적인 물리적 기호 시스템이 있습니다. 프로그래머들이 무수히 많은 규칙들을 입력하고, 기계가 그렇게 미리 입력받은 규칙들을 그대로 따르기만 하면 마치 논리학이나 수학에서 몇몇개의 공리와 규칙만 갖고 여러 정리들을 증명하듯 인간의 마음을 흉내낼 수 있다는 입장이죠.

반대 입장으로는 연결주의가 있습니다. 이 연결주의 입장은 현재 LLM 등으로 구현된 방법론으로 인간의 뉴런의 정보처리를 추상화하여 학습을 하는 방식을 따온 것으로 지능을 구현할 수 있다는 입장이에요.

80년대 정도에 한창 두 입장의 대립이 첨예하게 나뉘던 때가 있습니다. 대표적인 학자로는 고전적 입장을 대변하던 제리 포더와 제논 필리쉰이 있고 그 반대에는 뎁 스몰렌스키 등이 있습니다.

중국어방 논증은 첫번째의 고전적 물리적 기호 시스템에 대한 반론으로 제시된 것입니다. 입력된 규칙만 따르는 것이 과연 우리가 생각하는 이해에 부합하는 것이냐는거죠. 규칙따르기가 이해와 동떨어진 것이라는건 사실 일상에서도 쉽게 알 수 있는게 처음 가는 곳을 네비게이션 따라 도착하다보면 거기가 어딘지 정확히 모르는 경우가 많죠.

규칙따르기라는게 우리가 생각하는 이해와 잘 부합하지 않는다는 것도 이러한 고전적인 아키텍쳐에 기반을 둔 사고실험이라 그렇습니다.

또한 저 논증은 기능주의라는 입장에 대한 반발로 등장한 겁니다. 기능주의는 우리의 심적 상태들을 인과적인 입출력으로 정의하고자 하는 것인데, 이를 지능에 적용해서 우리 지능도 인과적인 입출력 (가령 어떤 입력을 집어넣으면 이러저러한 출력을 뱉어내는 식으로)으로 정의를 해버린다면 기계가 지능을 갖는다는걸 보여주는게 그리 어려운 일은 아니라는걸 생각해볼 수 있죠. 그런데 중국어 방 논증은 인과적인 입출력이 동등한 상황에서 조차 우리의 직관에 따르면 기계에 지능을 부여하는 것에 어떤 긴장이 있다는 것을 보여주는 사례입니다.

보다 현대적인 버전으로 연결주의 아키텍쳐에 대한 거의 동일한 사고실험으로 문어 테스트를 벤더와 콜러라는 사람이 제시했습니다.

9개의 좋아요