yhk9297님 제 생각을 물어봐주셔서 감사합니닷 ㅎㅎ
댓글을 달려다가 댓글달려는 내용에 대한 기억이 확실하지 않아서 몇 번이나 댓글을 달려고 시도하다가 포기했었네요..ㅠㅠ 그런데 생각해보니 yhk9297님이 '말장난'을 언급하신 것을 보고 제가 말장난의 번역과 관련하여 '클로드3'과 대화했던 것을 적은 것이니.. 생각해보면 대화는 제 쪽에서 먼저 시도했음에도 오랫동안 머뭇거리고 있었네요 ㅋㅋㅋㅋ... 저도 심리철학 개론 수업에서 존설의 책을 읽은 것이 전부이고 지금은 잘 기억이 안나기는 하지만 제 생각을 말씀드리고 싶어요.
말씀 듣고 생각해보니 제가 '이해'라는 말을 엄밀하게 사용하지 않았다는 것을 알게 되었어요. 일단 저는 인공지능이 외적으로 '이해'가 수반되어야만 할 수 있는 행위를 하는 것처럼 보이기 때문에 인공지는이 '이해'를 하는 것처럼 보인다고 말한 것이었어요.
yhk9297님께서 말씀하신 주어진 룰에 따라 compute하는 것은 '이해'라고 할 수 없다는 지적에 대해 이야기해보고 싶어요. (이전 발표회에서 들은 것인데요. 기억이 잘 나지 않아 확실한 내용인지는 잘 자신이 없습니다..ㅠ 참고를 부탁드려요.)
존 설의 논의를 기반으로 생각했을 때 저는 오늘날의 인공지능이 '계산'을 하는지 '이해'를 하는지 구별하기 어렵다고 생각합니다. 왜냐하면 오늘날의 인공지능의 내부에서 '계산'인지 '이해'인지를 구별하기 위한 '학습자료-결과'의 상관관계를 파악하기가 어렵기 때문입니다. 다시 말해, 오늘날의 인공지능은 학습자료를 통해 결과값을 산출해내기는 하나 학습자료가 '어떻게' 결과값에 반영되는지 파악하기 어렵다는 말입니다.
인공지능 내부의 '학습자료-결과'의 연관을 파악하는 것은 인공지능이 '계산'을 하는지 '이해'를 하는지 구별하기 위한 근거이기 때문에 반드시(최소한 설명되지 않는 부분이 없도록) 파악되어야 하는 것으로 보입니다. 중국어 방 논증에서도 학습과 결과 값 사이의 연관성을 근거로 해당 인공지능 모델이 계산(compute)을 하고 있다고 결론짓는 것 같습니다. 그건 중국어 방이 아무리 인간과 자연스러운 상호작용을 하더라도 내부에서 '학습자료-결과' 연관이 분명해 보이기 때문인 듯 합니다.
그렇지만 오늘날의 인공지능은 내부의 '학습자료-결과'의 연관이 모호한 것으로 보입니다. (제가 들었던 발표에서는 불가능하다고 말했습니다.) 이 말인즉 학습자료를 입력하면 그에 맞는 결과값을 제시해주기는 하나 이 학습자료로부터 '어떻게' 결과값이 도출되는지 밝혀낼 수 없다는 말입니다. 오늘날 인공지능의 '학습자료-결과' 사이의 불명확성은 '학습 모델'에 있습니다. (정확히 어떤 방식의 학습 모델이었는지 기억이 나지는 않아 더 자세히 이야기하기는 어렵네요..) 학습 방식에 대해 찾아보니 1대1 대응 뿐만 아니라 자료에서 직접 패턴을 찾아내는 방식도 있고 어려 '층'과 '노드'가 있고 각 노드에 대한 '가중치'를 부여하는 방식도 있다고 하네요. 저로서는 무슨 말인지는 모르겠으나 이러한 복잡한 '학습 모델'이 인공지능의 내부를 '블랙박스'로 만드는 것으로 보입니다.
따라서 오늘날 인공지능은 내부의 '블랙박스'같은 성격 때문에 존 설의 논의의 맥락에 따라 '이해'하는지 '계산'하는지를 판단하기는 어렵다고 생각됩니다. 오늘날 인공지능의 '블랙 박스'와 같은 성격을 고려하여 새롭게 인공지능에 대해 사유할 필요가 있다고 생각해요. 전과 같이 존 설의 모델을 가지고 인공지능의 '이해' 문제를 다루 수 있다고 하더라도 존 설의 주장을 오늘날의 인공지능의 '학습 모델'의 요소들을 반영한 형태로 수정해야하지 않나 생각되어요.
이제 말장난의 논의로 넘어가서, 이렇게 인공지능 '이해'의 문제를 저는 잠정적으로 '판단 불가'한 문제로 두었습니다. '말장난(의 번역)'에 대해서도 인공지능의 '이해'는 부차적인 문제로 일단 여기는 태도를 가지고 있어요. 즉 인공지능이 말장낭을 다루는 데 있어 '계산이 아닌 이해'를 수반하는지는 부가적인 것으로 제쳐두고 '말장난'을 올바르게 다루고 있는지에 집중할 수밖에 없다고 여겼습니다. '이해'여부는 제쳐두고서요.
그렇다면 인공지능이 미래에 말장난도 제대로 다룰 수 있게 될지에 대한 검토는 지금 인공지능이 실제로 '말장난'을 얼마나 다룰 수 있는지가 첫 번째 작업이 될 수 있을 것 같습니다. 지금 말장난을 어느 정도까지 다룰 수 있는지를 확인하여 시간이 지나면 이를 보완하고 발전할 수 있는지를 따져볼 수 있다고 보았어요. 그런 점에서 제가 말장난과 관련하여 생성형 인공지능을 다루어보았을 때 지금도 말장난을 잘 '다룰 수' 있어 보이고 학습량이 늘어날 경우 더 보완될 수 있겠다는 생각이 들었습니다. 그래서 저는 말장난의 번역은 시간이 지난수록 발전하고 인간 번역자의 수준에 까지 이를 수 있는 가능성이 있다고 생각했습니다. 시간이 중요한 이유는 데이터가 아직 부족한 것 같다는 생각 때문입니다.
지금부터는 말장난을 인공지능이 어떻게 다루고 있는지를 보여드리고 싶어요. 제가 원 댓글에서 언급한 것은 '브람스를 좋아하세요..'라는 말장난이었지만 새롭게 대화하여 다른 말장난을 번역하라고 명령해 보았습니다. '영어의 말장난의 사례를 제시하고 언어의 어떠한 특성을 이용한 말장난인지 상세히 설명하라.'고 명령하였을 때 동음이의어, 다의어, 발음 유사성, 철자 유사성에 따른 말장난이 가능하다고 언급하며 각각을 활용한 영어의 말장난 예문을 제시하였습니다. 그 중 동음이의어를 활용한 말장난으로 "I'm reading a book about anti-gravity. It's impossible to put down." ('put down'이 '책을 내려놓다'와 '흥미를 잃다'라는 두 가지 의미로 쓰임)"라는 대답을 내놓았습니다. 그리고 저는 이에 대해 한국어 번역을 명령하였습니다.
1번 말장난을 한국어로 직역하면 다음과 같습니다.
"나는 반중력에 관한 책을 읽고 있어. 책을 내려놓을 수가 없어."
하지만 이 말장난은 영어 'put down'이라는 표현이 '책을 내려놓다'와 '흥미를 잃다'라는 두 가지 의미로 쓰이는 언어적 특성을 활용한 것입니다. 한국어에는 이와 정확히 대응되는 표현이 없기 때문에, 직역하면 말장난의 재미가 사라지게 됩니다.
따라서 이 말장난을 한국어로 옮길 때는 언어적 특성을 고려하여 새롭게 만들어야 합니다. 예를 들면 다음과 같이 바꿀 수 있습니다.
"나는 중력에 관한 책을 읽고 있어. 책의 내용이 너무 무거워서 들 수가 없어."
여기서는 '무거운 내용'과 '책이 무거워서 들기 힘듦'이라는 두 가지 의미를 이용하여 말장난을 만들었습니다. 이처럼 언어 간 차이를 고려하여 창의적으로 재구성하는 것이 말장난을 번역할 때 중요합니다.
이 예시는 '반중력'을 '중력'으로 바꾸어 번역하여 원문의 의미 자체를 바꾸어버린다는 점에서 좋은 번역이 아니라고 할 수 있습니다. 그렇지만 제가 강조하고 싶은 것은 번역 작업에서 있어 언어간의 차이를 고려할 줄 알며 말장난의 번역에 있어서도 언어간의 차이를 고려할 줄 안다는 것이예요. 저는 이러한 점을 보았을 때 인공지능의 '말장난 번역'이 학습량을 늘려갈수록 완벽에 가까워질 수 있다고 보았습니다.
그리고 말씀하신 번역 자체의 한계는 인공지능조차도 뛰어넘기 어렵지 않을까 싶어요. 인공지능 또한 번역을 할 때 '각주'를 넣어 언어의 차이에 따른 번역의 한계가 있었다는 점을 표시하는 것이 최선이지 않을까 생각되네요.