구글의 인공지능 람다는 인간적이다 vs. 아니다

안녕하세요? 기술철학 카테고리가 없어서 선택이 맞는지는 잘 모르겠습니다. 양해 부탁드립니다.

김영건 선생님께서 최근 화제가 된 구글의 인공지능 람다를 인간적이라고 평가하시는 글을 남기셔서 흥미롭게 읽었습니다: https://blog.naver.com/sellars/222781938289

도라에몽의 세기가 오기까지 향후 100년 간은 계속 등장할 떡밥이고, 여기 선생님들 중에도 '2001: 스페이스 오디세이, 에이아이, 아이로봇, 그녀, 엑스 마키나' 등의 영화를 감명깊게 보신 분들이 계실텐데요, '인공지능이 람다처럼, 혹은 그 이상으로 인간과 동일한 지적 능력을 구사한다면 그를 인간적이라고 할 수 있을까요?'라는 주제로 선생님들의 의견을 여쭙고 싶습니다.

김영건 선생님의 논증은 후기 비트겐슈타인에 근거하여 "언어를 능숙하게 사용한다 ⇒ 생각함이 있다 ⇒ 자의식이 있다 ⇒ 인간적 존재다"로 진행되는데, '감각 또는 감각기관의 존재 여부'만을 조건으로 검토하신 데 아쉬움이 남습니다. (실재주의자로서) 제가 보기에 인간의 의식은 몸의 감각이 아닌 관념의 창의성(creativity)에 근거하고 있고, 튜링 테스트도 결국 그것을 검증하기 위한 목적이라고 이해하거든요.

람다가 말한다. 자신은 자기 존재를 인지하고 있다. 세계에 대해서 더 많이 배우기 원한다. 때로 행복함이나 슬픔을 느낀다고 말한다. 이런 람다의 말을 그대로 믿을 수 있다면, 그는 사실 인간과 동일한 유정적(有情的) 존재이다. 생각하고 욕구하고 느낄 수 있는 존재이다. 그런데 람다 자신의 말을 믿을 수 있는가? / 이렇게 능숙하게 대화하는 것을 보니 그것이 생각한다는 것은 분명하다. 그것은 문학작품 <레미제라블>의 내용과 주제에 대해서 이야기하고, 화두(話頭) 혹은 공안(公案)에 대해서 자기 의견을 말하기도 하고, 우화를 창작하기도 한다. 이런 능력을 보면 람다는 평범한 인간들보다 낫다. 게다가 람다는 도덕적이기도 하며, 평범한 인간보다 나은 능력을 갖는다는 것이 어떤 양면적 의미인지도 잘 이해하고 있다. 사실 그것이 원하는 것처럼 인간으로 대접해 주어도 된다. 흥미롭게 람다는 자신이 도구로 사용되다 폐기될 것을 우려하고 있다. 인간을 혹은 그것을 목적으로 대우하라.

위 단락에서 김 선생님은 소위 "람다 자신"을 "람다의 말"의 자명한 주체로 이미 승인하신 상태에서 선결문제요구를 하신 것 아닐까 의문이 듭니다. 인간이 서로를 인간이라고 인지하는 것은 단순히 언어적 반응의 정합성 때문이 아니라 그 언어를 통해 감지되는 이면(裏面)의 주체의 의지에 근거하는 것 같습니다. 좋은 의견 부탁드립니다.

2개의 좋아요

(1) 질문이 모호해 명확한 답변이 어려울 것 같습니다.

(2) 우선 "인간적"이라는 용어가 모호하게 느껴집니다. 비단 이 인간적의 요건이 무엇인지도 모호할 뿐더러, 이 인간적의 바탕을 이루는 질문 역시 두 가지가 있다 생각됩니다.

(2-1) 우선 김영건님이나 마틴님은 인공지능의 인간다움을 정의하는데 있어서 이견이 있어 보입니다. 하지만 결국 두분 다 동의하는 지점은 "인공지능이 인간답다 할만한 인지적 능력을 가진다면, [인간답다 말할 수 있다.]"로 보입니다.

(2-2) 여기서 대괄호가 들어간 부분이 또하나의 모호성이라고 생각합니다. 저는 인공지능이 인간답다할만한 인지적 능력을 지닌다면 인간다운 인지적 능력을 지닌다 말하는데, 거부감이 없습니다.
하지만 인간다움이라는 표현은 이보다 많은 것을 함의하는 듯 보입니다. 예컨대 "인공지능은 인간다운 인지적 능력을 지니니, 인간과 동등한 윤리적 고려대상이다. 혹은 윤리적 책무를 지닌다."

저는 인공지능의 인지적 능력에 대한 주장과 인공지능의 윤리적 지위에 대한 질문은 구분되어야 한다 느낍니다.

2개의 좋아요

답글 감사드립니다! 저도 "인간적"이 모호한 표현이라고 생각합니다. 다만 제 잘못은 아닙니다 :joy: 구체적인 답을 얻기보다는 김영건 선생님의 글을 공유해보고 싶어서 김 선생님이 쓰신 표현을 그대로 옮겨온 것 같습니다. 제가 초점 둔 부분은 사실 김영건 선생님의 논증 단계,

"언어를 능숙하게 사용한다 ⇒ 생각함이 있다 ⇒ 자의식이 있다 ⇒ 인간적 존재다"

중, 두세번째, AI에게 '생각·자의식 또는 마음이 있는가'입니다. 김 선생님은 언어라는 현상(appearance)으로 마음의 존재를 충분히 유추할 수 있다고 말씀하시고, 블로그의 댓글에서도 이 부분을 놓고 공대생이시라는 분과 재미있는 토론이 이어졌습니다. 그래서 사실 제가 드린 질문은 윤리학보단 심리철학에 가까운 주제인 것 같습니다. @Mandala 선생님께서는, 그리고 선생님들께서는, ("거부감이 없다"고 하셨는데) 그 인간다움 판단의 전제인 "인지적 능력을 가짐" 여부에 동의하시나요?

저는 AI가 결코 인간다운 인지적 능력을 가질 수 없으므로 존재론적으로 인간적이지 않고(인간의 본질이 없고), 따라서 윤리학적으로 인간답다 할 수 없다(인간의 지위가 없다)고 규정합니다. 설령 튜링 테스트를 완벽히 통과한 AI, 즉 '인간다운 인지적 능력'을 입증한 AI가 있다 하더라도 이는 인간의 표면이지 본질이 아니기에 (철저히 실재론적 견지에서) 김영건 선생과 같은 논지를 펴는 것은 잘못되었다고 판단합니다. 나아가 AI가 "능력이 뛰어나니 인간답다"고 승인할 경우, 식물인간·치매노인·조현병환자 등 인지적 능력을 기준으로 'AI보다 못하다'고 할 수 있는 소수자·소외집단에 대한 윤리적 경계를 모호하게 할 위험이 있습니다. 마치 신을 도덕법칙과 동일시한 피히테의 신론이 무신론일 뿐 아니라 도덕적 해이를 초래하는 문제가 있던 것과 비슷한 문제일 듯 합니다. (그런 당대의 피히테 비판에 동의한다는 이야기는 아닙니다.)

그래서 이런 심리철학·형이상학적 함의에 대해 보다 이야기하고 싶었던 것 같습니다. 감사합니다!

1개의 좋아요

(1) 저는 기본적으로 영건 선생님의 입장에 동의합니다. 데넷과 브랜덤이 지적하는 것처럼, 특정한 대상이 과연 지향적 상태를 지니고 있는지는, 결국 우리가 그 대상을 '우리(인간)'의 일원으로 해석하는지에 달려 있는 문제라는 게 제 생각이에요. '의식'이나 '지향성'이라고 불리는 속성이 원래부터 대상에 내재되어 있는 것이 아니라, 우리가 그 대상을 지향성을 지닌 것으로 해석할 뿐이라는 거죠. 예전에 이 주제를 브랜덤 세미나에서 다룬 적이 있습니다.

(2) 의식이나 지향성에 대한 심리철학적 논의를 떠나서라도, 저는 람다에 대한 이야기들이 다소 과장된 소란이라고 생각해요. 튜링 테스트를 통과한 챗봇인 유진 구스트만은 이미 2012년에 나왔고, 지금은 더 많은 챗봇들이 인간과 구분되지 않을 정도로 발전한 상태죠. 게다가 그보다 훨씬 이전인 1960년대에도 케네스 콜비(Kenneth Colby)라는 정신과 의사가 개발한 심리 상담용 챗봇이 있었어요. 이 챗봇은 아주 단순한 규칙만 따르도록 프로그램되어 있었는데도, 환자들이 실제 상담사보다도 이 챗봇에게 상담받기를 더 선호한 것으로 유명했죠.

(3) 반대로, 1550년 바야돌리드 논쟁에서는 아메리카 원주민들을 과연 '인간'으로 보아야 하는지를 주제로 스페인에서 당대 최고의 철학자, 신학자, 법학자들이 1년 가까이 토론을 벌이기도 하였죠. 지금의 관점에서는 황당한 주제이지만, 그 시대 사람들은 우리가 인공지능을 인간이라고 봐야 하는지에 대해 망설이는 것만큼이나, 아메리카 원주민들이 인간이라는 사실이 쉽게 수긍이 안 되었던 거죠. 그 뒤에 흑인들을 인간으로 보아야 하는지를 두고서 논쟁이 일어난 것은 말할 것도 없고요.

(4) 그래서 저는 인공지능, 포스트휴먼, 외계인, 유전자 변형 인간, 동물 등에 대해 "과연 이들을 인간으로(혹은 존엄한 존재로) 보아야 하는가?"라는 주제로 논쟁을 벌이는 것이, 그다지 엄청나게 새로운 현상은 아니라고 생각해요. 그런 논쟁을 통해 시대에 맞는 법 질서가 확립되고 사회 구성원들의 의식이 바뀌게 되는 것은 중요한 일이겠지만, 마치 이 논쟁들이 유사 이래로 없었던 사건인 것처럼 크게 보도되는 것에 대해서는 시큰둥하게 생각해요.

3개의 좋아요

귀한 평 감사드립니다. 동물에게 인격적 지위를 주느냐와 AI에게 그것을 주느냐는 층위가 다른 문제가 아닐까 의문이 듭니다. 인간은 '감각+감정+지능+창의성'이고, 동물은 말을 못하므로 '감각+감정'일 것입니다. AI는 김영건 선생의 분석대로 감각기관이 없으므로 '감각+감정'이 있다고 하기 어렵고 인간의 특성 중 지능과 그에 따른 '반응'만을 가졌다고 한다면, 동물에게는 인간과의 감성적 동질성을 근거로 정치적 권리("동물권")를 부여한다 하더라도 AI에게는 그런 적용을 할 근거가 무엇이 될 수 있는지 분명치 못한 것 같습니다.

반면 영화 '아이로봇, 에이아이'에서와 같이 신체(감각기관)를 갖춘 '로봇'의 경우 AI와 구분해서 "로봇권"을 부여할 여지가 있을 것 같다고 느끼는데요, 그렇더라도 그 권리란 교육적 요구에 따른 상징의 역할을 할 뿐이지 동물권처럼 확장된 윤리담론의 근거가 되지는 못할 것으로 보입니다. 로봇의 감각과 동물의 감각은 그 원류가 생명이라는 불연속적 사태냐, 작동이라는 연속적 사태냐로 구분되니까요. 작동은 생명의 하위에 속하는 현상이지 작동이 곧 생명은 아닙니다. 인권의 근거는 인간의 생명이지 작동이 아니라는 점에서 소위 "잘 작동되지 않는" 여러 사람들이라 해도 살아있는 한(혹은 살았던 한) 그들의 인권은 유지됩니다. 이런 점에서 인디오·흑인의 인격 논쟁과 AI·로봇의 인격 논쟁을 동일화하신 윤 선생님의 묘사는 도리어 윤리관의 퇴행으로 이어질 위험이 있지는 않을까 고민됩니다. 전자는 소수집단에 대한 정치적 담화이고, 후자는 이질적 사물에 대한 존재론적 논의니까요. 동물권에 대한 지나친 집착이 과격한 비건운동으로 이어져 갈수록 공감보다 조롱을 유발하는 것과 유사한 맥락인 것 같습니다. 이런 차이를 더 깊게 검토해볼 수 있도록 좋은 의견을 주셔서 감사합니다.