구글 딥마인드 연구진이 갈등 상황을 중재하는 AI를 개발해 인간보다 중재 능력이 뛰어나다는 점을 확인했다고 국제 학술지 사이언스에 최근 발표했다.
(...)
이번에 딥마인드가 선보인 중재 AI ‘하버마스(Habermas)’는 합리적 토론이 갈등 해결에 도움이 된다는 이론으로 유명한 독일 철학자 위르겐 하버마스의 이름에서 착안해 명명했다고 한다.
최근에 하버마스에 관심이 생겨서 찾아보던 중, 이런 기사를 발견했네요. 갈등 중재 AI의 이름을 하버마스로 정한 것이 흥미롭습니다.
점점 AI가 넓은 분야로 확장되는 이 시점, 관련한 다양한 입장을 떠올려볼 수 있을 것 같습니다.
AI 하버마스가 반가우면서도 좀 우려스럽네요. 저는 하버마스의 ‘이상적 담화 상황‘이라는 개념 자체에 대해 의문을 가지고 있다 보니, AI가 합리적 중재안으로 내놓는 입장들이 실제로는 소수의 목소리를 억압하거나 ‘합리성‘이라는 이름으로 편향을 강요하는 것은 아닌지 철학적 비판 작업이 필요할 것이라고 생각합니다.
무엇보다 저는 ai가 고도로 발달하면서 내놓은 중재안이라는 것이 어떤 프로세스에 따라 나온 결론인지 그 결과에 영향받는 일반인들이 이해할 수 없어질 것이라는게 우려스럽네요. 분명 하버마스를 비롯한 갈등 관련 정치철학에서 아주 중요한 것이 “소명의 책임”인데, ai가 아무리 소명한다고 한들 일반인들이 잘 이해하지 못할 것 같고, 또 저 ai를 개발한 사람들의 취향에 중재안이 영향 받을 것 같은데 이를 얼마나 “합리적”이라고 말할 수 있는지 잘 모르겠네요. 게다가 일부 사람들은 ai가 내놓은 건데 뭔데 니가 태클검? 이라고 생각할 것 같기도 하고요.
이에 더해, 다수가 동의하는 중재안이라고 해봐야, 갈등 상황에서 요구되는 것은 “다수의 동의”만은 아니라는 점에서도 우려스럽네요. 물론 중재안 채택에 있어서 다수의 동의가 요구되기는 하나, 다수의 이름으로 소수 입장을 억압하는 상황은 부정의한 상황이니까요.
Inspired by Jürgen Habermas’s theory of communicative action, we designed the “Habermas Machine” to iteratively generate group statements that were based on the personal opinions and critiques from individual users, with the goal of maximizing group approval ratings.
하버마스의 의사소통 행위이론이 무엇인지는 제 전공이 아니라서 잘 모르겠습니다...어쨌든 이 이론에서 감명을 받았다고 하네요.
각 참가자들을 비슷한 그룹으로 나눈 뒤 작성한 입장문과 비판문을 LLM과 상호작용하여 중재안을 작성하고 모든 그룹들의 찬성 정도를 최대화하는 것을 목표로 잡았다고 합니다.
최종적으로 LLM이 제시한 중재안에 대한 사람들의 선호도, 중재안의 품질, 제시했던 질문(영국이 EU에 재가입해야하는가, 은퇴연령을 66세에서 68세로 올려야하는가 등)에 대해 사람들이 의견을 바꾸는 정도 등등의 수치가 유의미하다고 하는데....글쎄요. 중재안을 내놓을 수는 있으나 이게 갈등을 해결했다는 것은 좀 비약이 심한 것 같습니다. 특히 제시했던 질문에 대해 사람들이 의견을 바꾸는 정도가 생각보다 크지 않아서 이런 부분에 심도있는 연구가 필요해 보이네요.