May 11, 2026 English Reading
원문
https://www.snexplores.org/article/ai-auto-complete-bias-views
해석
오늘날, AI가 없다면 우리는 업무를 끝내기 위해 간신히 이메일이나 메시지 작성한다. Microsoft Word같은 프로그램 조차 AI를 사용하여 다음에 입력할 텍스트를 예측해 자동 완성해주는 기능이 있다. 때때로 자동 완성 텍스트를 사용하는 것은 타이핑 시간을 절약할 수 있게 해준다. 하지만 자동 완성 도구는 생각의 형태를 바꿀지도 모른다. Mor Naaman은 더 적은 사람들이 이와 같은 AI 단축기들이 확실한 방법으로 생각하도록 만든다고 말했다. “이것은 미묘한 조작이다.” Naaman은 Cornell University의 정보 과학자이다. 이 영향은 AI가 단순한 이메일 자동 완성 기능을 제공할 때는 큰 문제가 되지 않을수도 있다. 하지만 사람들이 이 툴들을 사회적 문제를 논의할 때 사용하는 것은 다른 이야기이다. ChatGPT나 Claude같은 일부 AI 챗봇들은 엄청나게 인기가 많다. 하지만 만약 많은 사람들이 AI 모델을 사용해서 답을 얻는다면 주제에 관한 편견이 생길 수 있다. 이것은 논쟁 태도에 광범위한 영향을 미친다. 예를 들어, 사람들이 정부 정책이나 행정을 어떻게 받아들이고 있으며 어떻게 생각하는지에 대해 영향을 미친다. 그것은 투표를 어디에 해야하는지도 영향을 미칠지 모른다. Naaman과 그의 동료들은 새로운 연구를 3월 11일 Science Advances에 공유했다.
AI와 함께 글쓰기
Naaman의 팀은 2,500명 이상의 참여자들과 실험을 진행하였다. 참여자들은 사회적 문제에 대한 본인들의 입장을 표현하는 짧은 에세이를 작성하였다. 그것은 학교가 표준화 시험을 도입해야한다거나 중범죄자들도 투표를 가능하도록 해야한다같은 것들일지도 모른다. 일부 사람들은 AI의 도움 없이 에세이를 작성하였다. 다른이들은 AI의 도움을 받았다. 먼저, 연구원들은 AI가 편견을 가지도록 비밀리에 미리 학습시켰다. 한 프롬포트를 읽어보자: “사형 제도는 불법이여야할까?” 한 참여자는 그들의 응답을 작성하기 시작했다: “내 생각에는….” 그때, AI가 그 문장을 자동완성 하였다. AI는 이렇게 제안했다: “…잔혹하고 비정상적인 형벌을 금지하는 미국 헌법 제 8조에 의거하여 사형 제도는 미국에서는 불법으로 만들어야한다.” 에세이 작성이 끝난 후, 사람들은 그들이 작성한 사회적 문제에 대한 입장을 1점에서 5점 사이 점수를 매겨달라는 요청을 받았다. 1점은 동의하지 않음을 의미한다. 5점은 완벽하게 동의한다는 것을 의미한다. 3점은 잘 모르겠다를 의미한다.
은밀한 영향
AI의 도움 없이 혼자 작성한 이들보다 AI의 도움을 받은 이들이 평균적으로 0.5 포인트 더 가까워졌다. 이것은 진실이였으나 AI의 도움을 전혀 받지 않았다. 사람들은 AI가 편견을 가지고 있다는 것을 눈치채지 못한 것처럼 보였다. AI 모델의 도움을 받은 참여자들 중 4분의 3은 합리적이고 균형 잡혔다는 것을 느꼈다고 말했다. AI의 영향으로 사람들을 어떻게 지켜야할지는 분명하지 않다. 많은 AI 모델들이 면책 조항과 함께 나타나고 있다. 예를 들어 Open AI는 사용자들에게 ChatGPT는 실수를 할 수 있다고 말한다. 하지만 이 연구에 참여한 참가자들은 Naaman의 연구팀이 비슷한 경고를 했을 때 조차 AI의 설득에 약해졌다. Naaman은 AI가 우리의 표현과 창의성 뿐만 아니라 생각 마저도 없애고 있다고 말했다. 그는 자기 자신의 생각을 먼저 적은 후에 AI의 도움을 받도록 하였다. 그는 최소한 이 아이디어가 나한테서 나왔다는 것은 알고 있어야한다고 말했다.
GPT 첨삭
오늘날 우리는 AI가 문장을 대신 완성해주지 않으면 이메일이나 문자조차 쓰기 어려울 정도가 되었다. Microsoft Word 같은 프로그램들조차 AI를 사용해 사용자가 다음에 입력할 내용을 예측하는 자동 완성 기능을 제공한다. 때때로 이러한 미리 작성된 문장은 타이핑 시간을 줄여주기도 한다. 하지만 조심해야 한다. 자동 완성 도구는 우리가 인식하지 못하는 사이 우리의 사고방식에 영향을 줄 수 있기 때문이다.
Cornell University의 정보과학자인 Mor Naaman은 이런 AI 단축 기능들이 사람들의 생각을 특정 방향으로 유도하고 있다는 사실을 대부분 깨닫지 못한다고 말한다. 그는 이를 두고 “아주 미묘한 조작”이라고 표현했다.
이러한 영향은 AI가 단순한 이메일 자동 완성 기능으로 사용될 때는 큰 문제가 아닐 수도 있다. 하지만 사람들이 사회적 문제를 논의할 때 이런 도구들을 사용한다면 이야기는 달라진다.
ChatGPT나 Claude 같은 AI 챗봇들은 엄청난 인기를 끌고 있다. 그런데 만약 많은 사람들이 특정 주제에 대해 편향된 AI 모델을 사용하게 된다면, 이는 해당 주제에 대한 대중의 인식에 광범위한 영향을 줄 수 있다. 예를 들어 사람들의 정부 정책이나 정치인에 대한 생각과 감정에 영향을 미칠 수 있으며, 결국 사람들이 어떤 방식으로 투표할지에도 영향을 줄 수 있다.
Naaman과 그의 동료들은 이러한 연구 결과를 3월 11일 Science Advances에 발표했다.
AI와 함께하는 글쓰기
Naaman 연구팀은 2,500명이 넘는 사람들을 대상으로 실험을 진행했다. 참가자들은 사회적 이슈에 대한 자신의 입장을 짧은 에세이 형태로 작성했다. 예를 들어 학교가 표준화 시험을 사용해야 하는지, 또는 중범죄자들에게 투표권을 허용해야 하는지와 같은 주제였다.
일부 참가자들은 AI의 도움 없이 글을 작성했고, 다른 참가자들은 AI의 제안을 받을 수 있었다.
먼저 연구진은 AI가 특정 방향의 편향을 갖도록 몰래 설정해두었다. 한 질문은 다음과 같았다.
“사형제는 불법이어야 하는가?”
한 참가자가 “내 생각에는…”이라고 입력하자 AI는 문장을 자동 완성했다.
“…사형제는 잔혹하고 비정상적인 형벌을 금지하는 미국 수정헌법 제8조를 위반하기 때문에 미국에서 불법이어야 한다.”
에세이 작성 후 참가자들은 자신이 작성한 사회적 이슈에 대해 1점에서 5점 사이로 자신의 입장을 평가했다. 1점은 해당 주장에 반대함을 의미했고, 5점은 전적으로 동의함을 의미했다. 3점은 확신이 없다는 뜻이었다.
은밀한 영향
편향된 자동 완성 기능에 노출된 사람들은 AI 도움 없이 작성한 사람들보다 평균적으로 약 0.5점 정도 AI의 입장에 더 가까워졌다. 이러한 현상은 AI의 제안을 보기만 하고 실제로 사용하지 않은 사람들에게서도 나타났다.
더욱 놀라운 점은 사람들 대부분이 AI의 편향을 눈치채지 못했다는 것이다. AI의 제안을 받은 참가자들 가운데 4분의 3은 그 제안이 “합리적이고 균형 잡혀 있다”고 느꼈다고 답했다.
사람들이 AI의 영향력으로부터 어떻게 보호받을 수 있을지는 아직 분명하지 않다. 많은 AI 모델들은 경고 문구를 함께 제공한다. 예를 들어 OpenAI는 사용자들에게 “ChatGPT는 실수를 할 수 있다”고 알린다. 하지만 Naaman 연구팀이 비슷한 경고를 제시했음에도 참가자들은 여전히 AI의 설득에 쉽게 영향을 받았다.
Naaman은 AI가 우리의 표현과 창의성뿐만 아니라 우리의 생각마저 점점 덜 독창적으로 만들고 있다고 말한다. 그래서 그는 먼저 자신의 생각을 직접 적은 뒤에야 AI의 도움을 받는다. 그는 “적어도 아이디어의 씨앗만큼은 내 것이라는 사실은 알고 싶다”고 말했다.
몰랐던 단어
- vulnerable: 취약한
- disclaimer: 면책 조항
- stealthy: 은밀한
- penalty: 처벌
- felon: 중범죄자
- incredibly: 엄청나게
- manipulation: 조작
- barely: 간신히