구글이 만든 ai '하버마스'

구글 딥마인드 연구진이 갈등 상황을 중재하는 AI를 개발해 인간보다 중재 능력이 뛰어나다는 점을 확인했다고 국제 학술지 사이언스에 최근 발표했다.
(...)
이번에 딥마인드가 선보인 중재 AI ‘하버마스(Habermas)’는 합리적 토론이 갈등 해결에 도움이 된다는 이론으로 유명한 독일 철학자 위르겐 하버마스의 이름에서 착안해 명명했다고 한다.

최근에 하버마스에 관심이 생겨서 찾아보던 중, 이런 기사를 발견했네요. 갈등 중재 AI의 이름을 하버마스로 정한 것이 흥미롭습니다.

점점 AI가 넓은 분야로 확장되는 이 시점, 관련한 다양한 입장을 떠올려볼 수 있을 것 같습니다.

아래는 사이언스지에 올라온 기사 원문입니다.
https://www.science.org/doi/10.1126/science.adq2852

12개의 좋아요

AI 하버마스가 반가우면서도 좀 우려스럽네요. 저는 하버마스의 ‘이상적 담화 상황‘이라는 개념 자체에 대해 의문을 가지고 있다 보니, AI가 합리적 중재안으로 내놓는 입장들이 실제로는 소수의 목소리를 억압하거나 ‘합리성‘이라는 이름으로 편향을 강요하는 것은 아닌지 철학적 비판 작업이 필요할 것이라고 생각합니다.

10개의 좋아요

무엇보다 저는 ai가 고도로 발달하면서 내놓은 중재안이라는 것이 어떤 프로세스에 따라 나온 결론인지 그 결과에 영향받는 일반인들이 이해할 수 없어질 것이라는게 우려스럽네요. 분명 하버마스를 비롯한 갈등 관련 정치철학에서 아주 중요한 것이 “소명의 책임”인데, ai가 아무리 소명한다고 한들 일반인들이 잘 이해하지 못할 것 같고, 또 저 ai를 개발한 사람들의 취향에 중재안이 영향 받을 것 같은데 이를 얼마나 “합리적”이라고 말할 수 있는지 잘 모르겠네요. 게다가 일부 사람들은 ai가 내놓은 건데 뭔데 니가 태클검? 이라고 생각할 것 같기도 하고요.

이에 더해, 다수가 동의하는 중재안이라고 해봐야, 갈등 상황에서 요구되는 것은 “다수의 동의”만은 아니라는 점에서도 우려스럽네요. 물론 중재안 채택에 있어서 다수의 동의가 요구되기는 하나, 다수의 이름으로 소수 입장을 억압하는 상황은 부정의한 상황이니까요.

11개의 좋아요

설계자들도 처리과정을 이해할 수 없는 블랙박스 AI가 아니라 처리 프로세스를 인간에게 납득할 수 있는 방식으로 설명할 수 있는 설명가능 AI(Explainable AI)에 관한 연구가 있다고 하더라구요. 철학자들도 연구하는 주제라고 하구요.

5개의 좋아요