챗gpt를 어떻게 사용하시나요?

불과 1~2년 전까지만해도, 챗 지피티에게 철학문헌이나 논문 내용을 설명 해달라 요청하면, 이상하게 말해주는 경우가 다반사였기 때문에 단순히 번역이나 직역으로만 사용을 해왔고 지금도 거의 그렇게 하곤 있습니다.

그런데 요즘은 가끔 이해 안되는 내용을 물어보면 기가 막히게 대답을 해주는 경우가 많고, 또 그 말이 옳게 생각되는 경우가 많아요.

예전에는 내놓는 답이 허술하다보니, 답변에 대해 아닌건 아니라는 걸 쉽게 찾을 순 있었는데, 요즘엔 그렇게 되기가 쉽지 않습니다.

모르니까 물어보기 때문에, 모르는 것에 대해 그럴듯한 답변을 내놓으면 그게 정말 정답처럼 생각되는 경우가 많습니다. 물론 그게 정말 정답이니 정답으로 생각되는 경우도 있겠지만, 만일 정답이 아닌데도 정답이라 생각된다면 이것은 문제가 될텐데, 모르는걸 물어보기 때문에 이를 생각하긴 당연히 힘듭니다

그래서 저는 개인적으로 직역, 번역 용도로만 되도록 쓰고, 내 사고를 아예 gpt에게 맡기는게 찝찝하다는 보수적인 사고를 갠적으로 가지고 있어서 다른 용도로는 안쓰려 노력은 하는데, ai에 익숙해져야 하고 잘 다뤄야 성공한다는 말이 흔히 나오는 이 시대에 괜히 역행하고 있나 하는 생각이 종종 들기도 하네요..

다른 분들은 어떻게 활용하시나요??

4개의 좋아요

전 개인적으로 챗 지피티가 사고에 도움된 적은 없는 것 같습니다. 오히려 제가 한 질문에 동문서답만 해서 질문을 다르게 하다보니 그러면서 이해가 느는 정도더라고요.

저는 챗 지피티를 영어 첨삭, 번역, 그리고 문헌/학자 찾기 정도로 쓰고 있습니다. 특히 예전에 쇼펜하우어 에세이 독어본을 찾느라 애를 먹고 있었는데, 챗 지피티에 물어보니깐 바로 독어본 알려줘서 쉽게 찾을 수 있었네요.

2개의 좋아요

저도 윗분과 비슷하게 철학서적을 이해하는데에 직접적인 도움이 된 적은 없는것 같아요. 초기버전 (대략 1-2년전)에서는 원서 번역해서 보거나 영작하는데에 도움 많이 받았었습니다.

요즘은 그래도 많이 개선된것 같아서 책을 읽고 제 나름 이해한 것(하지만 무언가 논리적 결함이 있는 것 같은 사유들)을 쥐피티한테 말해주면 어느 부분에서 논리적 연결이 약하다고 말해주거나 혹은 구어체로 정리해놓은 것을 문어체로 풀어서 다시 말해준다거나 확실히 이런 부분에서는 과거보다는 효용이 더 좋은 것 같다고 느낍니다.

특히 논문 작성하다보면 일단 뭔가를 쓰기는 써야하니까 뭐라도 쓰는데 본인 스스로도 뭔가 논리적으로 불충분하다고 느낄때가 있습니다. 그럴때 정확히 어느 부분에서 논리적 결함이 있는지, 이런 부분 가려내는데에 생각보다 쓰임이 좋다고 느껴요. 비문이나 윤문하는데에만 써도 (개인적으로는 비문이 발생하는 이유가 아직 스스로 해당 내용을 완전히 소화하지 못했기 때문에 발생하는 경우도 있다고 생각합니다.) AI 활용도는 무궁무진하다고 생각하네요. 요즘은 결제해서 쓸까.. 하는 생각도 하고 있습니다.

3개의 좋아요

(작성자가 삭제한 게시물)

1개의 좋아요

왠지는 모르겠지만, 제가 그래멀리(Grammarly)를 이용하다가 한 문장 말고 한 문단 전체를 다듬으라고 생성형 AI에 지시하면, AI가 제 글 내용을 왜곡하더군요.

3개의 좋아요

어떤 분야를 잘 이해하지 못했을 때는 GPT 도움 받아서 빠르게 진입할 수 있었는데, 제가 그 분야를 어느 정도 이해하고 나서 미묘한 질문을 하면 도움을 예전만큼 못 받는 것 같아요.

6개의 좋아요

저도 새로운 분야나 모르는 부분에 문턱을 넘는 용도로는 좋은거 같은데 깊은 디테일은 확실히 떨어진다는 느낌을 받아요

4개의 좋아요

저는 철학에 대해 아는 것이 많이 없고 생각을 문자화하는 것에 약하다보니 그럴 땐 인공지능의 도움을 받습니다. 막 발을 들인 입문용으로는 적당하다고 생각합니다.
인공지능마다 강점이나 성향 차이가 있어 다양하게 접하려고 하는 경향이 있는데, 오늘 사용한 중국의 DeepSeek R1은 생각하는 과정을 공개해줘서 읽는 재미가 있었습니다. 나중에 대화를 올려서 다른 분들은 어떻게 생각하시는지 의견을 듣고 싶네요.

2개의 좋아요

너무 늦게 답글을 단 것 같아서 죄송하네요. 저는 GPT를 제가 모르는 개념에 대한 도출자로 사용하는 듯 합니다.
제가 여러 이야기를 난립해놓으면, GPT는 그 이야기가 어떤 철학적 키워드? 같은 것에 연결되는지를 소개합니다. 그러면 저는 그 키워드를 직접 참고하거나, 설명을 부탁하고, 제 사고가 거기에 어떻게 연결되는지-혹은 반박하는지-를 판단하고 GPT에게 그에 대한 생각을 다시 난립합니다. 그리고 GPT는 그 생각을...

이것을 반복하는 용도, 라기 보다는 형태로 쓰는 것 같네요.

1개의 좋아요

저는 최근부터 GPT를 대단히 유용하게 사용하고 있어요. 영문 첨삭은 물론이고, 글에 숨어있던 버그를 기가 막히게 잡아내는 능력이 있어서 글쓰면서 놓친 부분을 확인하는 데에 사용하고 있습니다. 또, 프로젝트 파일에 지금까지 써놓은 글들을 올려두면 제 연구에 대한 이해도도 높일 수 있어서, 어지간한 석박사과정생 절친 하나 두는 것보다 나은 시너지를 내는 중이에요. 불과 작년 말까지만 해도 GPT가 헛소리를 자꾸 해서 화났는데, 저도 제 태도가 이렇게 바뀔 줄 몰랐습니다…;

6개의 좋아요

pie 님의 트윗:

최근 읽은 기사가 생각난다. 하버드 비지니스 스쿨에서 나온 칼럼. “여성은 남성보다 AI를 비윤리적이라고 생각해서 덜 쓴다”는 연구결과. 그럼 얼마나 AI가 비윤리적인가 알아보자가 아니라, 여성이 덜 쓴다면 여성이 시대/경제적으로 뒤떨어진다라는 결론으로 가는게.. 굉장히 남성적인 시각이지만

소프트웨어 개발자 드루 디볼트의 블로그 글:

위의 두 글을 읽고 난 뒤, 제가 인공 지능 모형을 이용하는 것이 윤리적인가 하는 고민이 더 깊어졌어요. 그동안 저는 그래멀리 말고는 인공 지능 기능을 지속적으로 쓴 적이 별로 없는데, 때마침 그래멀리의 무료 버전에서 인공 지능을 활용한 윤문 기능이 사라졌더군요.

2개의 좋아요