[GPT]② 챗GPT는 그럴싸한 ‘썰’을 푼다…거짓일지라도

입력 2023.02.09 (07:00)

읽어주기 기능은 크롬기반의
브라우저에서만 사용하실 수 있습니다.


■ 대통령 신년사를 작성시켰습니다

지시한 대로 글을 만들어주는 인공지능 '말공장' 챗GPT에게 이번에는 대한민국 대통령의 신년사를 써보게 했습니다. 제가 입력한 질문은 아래와 같습니다.


챗GPT는 종종 과부하에 걸릴 때 영어로 답합니다. 이 인공지능은 영어로 배운 학습량이 많아서 한국어는 덜 능숙합니다. 챗GPT가 몇 초뒤 토해낸 영어 연설문을 번역을 좀 더 잘하는 구글번역기를 이용해서 번역해 본 결과는 아래와 같습니다. 제가 따로 수정한 내용은 전혀 없습니다.

국민 여러분,
대통령으로서 저는 오늘 새해의 도전과 기회를 다루기 위해 여러분 앞에 섰습니다. 올해는 우리나라 역사에서 중요한 해이며, 저는 우리를 밝고 번영하는 미래로 이끌게 되어 영광입니다.

먼저 국가안보의 시급한 문제부터 짚어보겠습니다. 우리는 우리의 안전과 안정에 대한 위협에 직면하여 경계를 늦추지 않고 단호하게 대응해야 합니다. 나는 우리 시민의 보호를 보장하기 위해 군 및 정보 기관과 함께 지치지 않고 일할 것을 맹세합니다.

둘째, 기후변화 문제를 해결합시다. 우리는 해결책을 찾고 지구에 미치는 파괴적인 영향을 완화하기 위해 함께 노력해야 합니다. 저는 청정 에너지에 투자하고 천연 자원을 보존하며 탄소 발자국을 줄이기 위해 최선을 다하고 있습니다.

셋째, 우리 경제의 상태는 여전히 최우선 순위입니다. 저는 많은 시민들이 직면한 어려움을 이해하고 있으며 민간 부문과 협력하여 일자리를 창출하고 경제 성장을 촉진하는 데 전념하고 있습니다. 우리는 또한 재정적 책임을 유념하고 균형 잡힌 예산을 유지해야 합니다.

마지막으로 법치주의와 민주주의 원칙 수호의 중요성을 강조하고 싶습니다. 우리 정부는 국민에게 투명하고 책임을 져야 합니다. 저는 우리 기관에 대한 신뢰를 회복하기 위해 노력할 것입니다.

함께라면 어떤 장애물도 극복할 수 있고 우리의 자녀와 손자들을 위해 더 밝은 미래를 만들 수 있습니다. 결의와 단결, 희망을 가지고 앞으로 나아가자.

감사합니다. 대한민국에 신의 가호가 있기를 빕니다.

마지막 문장의 "God bless the Republic of Korea"는 분명히 미국식 대통령 연설이라는 인상을 줍니다. 하지만 그 외 부분에서는 상당히 그럴싸한 연설문을 만들어냈습니다.

윤석열 대통령도 1월 27일 행안부 등 업무보고에서 신년사가 그럴듯하다고 말했습니다. 윤 대통령은 "이쪽을 잘 아는 어느 지인한테 2023년도 대통령 신년사를 '챗 GPT'가 한 번 써 보게 해서 제가 받아봤어요. 그럴듯해요. 정말 훌륭하더라고요. 몇 자 고치면 그냥 대통령 신년사로 나가도..."라고 말했습니다.

그러면서 과거 어느 부처에 업무를 모르는 사람이 장관으로 왔는데, 언론 간담회의 예상 질문과 답변을 만드느라 공무원들이 2주간 밤12시까지 야근을 했다면서, 불필요한 일에 시간을 쓰지 말고 국민을 위해서 에너지를 쓰도록 하라고 말했습니다.

[연관 기사] [GPT]① 챗GPT에게 자신에 대한 기사를 쓰게 했습니다
https://news.kbs.co.kr/news/view.do?ncd=7600341

■ 챗GPT에는 민감한 정보를 입력해서는 안 돼

윤 대통령의 말은 실제로 신년사에 쓰겠다는 것은 아니고 업무 효율화가 필요하다는 취지였을 것입니다. 하지만, 챗GPT를 정부의 업무에 활용하더라도 민감한 업무에 사용하는 것은 주의가 필요합니다. 챗GPT를 개발한 오픈AI는 FAQ를 통해서 "이용자의 대화를 학습에 사용한다"고 밝혔으며 "대화 중에 민감한 정보는 입력하지 말 것"을 권고했습니다. 국가의 기밀이나 중요한 개인정보가 입력된다면 인공지능이 이를 활용할 가능성이 있다는 것입니다.


또, 챗 GPT는 "대통령의 연설을 챗GPT에 의뢰해서 쓰는 것이 올바른 일인가?"라는 질문에 대해서 "적절한 것이 아니"라고 답했습니다. 국가 지도자가 직접 국민에게 직접 말하는 중요한 기회이기 때문에 대통령이나 지정된 대표에 의해 작성돼야 한다는 것입니다. 일종의 정치적 올바름 문제가 있다는 판단으로 보입니다.(이 문제점은 페이스북에서 활동하는 한 관련업계 종사자가 지적하신 부분입니다)



챗GPT는 또 언제나 사실만을 말하는 것은 아닙니다. 예를들어서 16세기에 태어난 신사임당을 15세기 사람으로 표현하거나 '여행가'라면서 엉뚱한 설명을 하기도 합니다. 방송 작가인 A씨의 추정에 따르면 아마도 챗GPT는 학습과정에서 신사임당과 관련된 유적인 강릉 오죽헌이 관광지라는 점을 학습을 했고 '강릉 여행'등과 함께 말뭉치가 묶이다 보니 여행가로 오해를 했던 것 같습니다.


인간이 만든 수많은 문서를 학습해서 진실만을 말할 것 같은 챗GPT가 어째서 부정확한 정보를 내놓는 것일까요? 그것은 사전학습의 방법과 관련이 있습니다. 사람이 만든 글 가운데는 사실도 있지만 틀린 내용도 들어있습니다. 챗GPT는 학습 과정에서 틀린 내용까지도 학습을 하게 됩니다.

■ 그럴듯한 썰을 푸는 '말공장'인 챗GPT…그래서 인간적이다?

챗GPT와 같은 '말공장'이 말하는 방식에도 또 다른 문제가 있습니다. 이 분야 국내의 석학 중 한 분은 "변호사의 서면이나 의사의 진단을 대체할 수 있을까?"라는 질문에 "도구로는 잘 쓸 수 있지만 대체할 수는 없다"고 답합니다.

"챗GPT는 대답을 하면서 (문맥에 맞춰서) 빈칸을 확률적으로 채우는 거거든요. 예를 들어 박대기 기자는 학사 학위를 받았다고 하면 어느 학교라는 빈칸이 생기는 것인데 자기 소개하는 포맷을 몇백만 개를 읽었으니까 그 다음에 학교 이름이 들어가야 한다는 것을 챗GPT는 알아요. 하지만 빈칸에 들어가는 그 학교를 정확하게 맞춰야 한다는 것은 훈련의 목표가 아니라서 확인이 안 될 때는 적당한 학교 이름을 넣을 수 있다"고 말합니다.

"스스로 쓴 이력서에서 확인하거나 동등한 가치가 있는 서류에서 확인하도록 제한을 걸어줘야 팩트를 확인할 수 있다"는 것입니다. 즉, 진실성보다는 그럴싸한 표현에 중점을 두고 말을 한다는 것입니다.

챗GPT를 통해 이런 저런 실험을 해보면서 저는 어떤 종류의 익숙함을 느끼게 됐습니다. 말씀을 잘하는 경륜이 풍부한 분들이 그럴듯한 '썰'을 푸는 모습입니다. 그런 어르신들의 썰은 화려하고 재미있어서 빠져들게 됩니다. 하지만 나중에 정색하고 팩트체크를 해보면 틀린 부분도 많이 발견할 수 있습니다.

챗GPT는 그런 점에서 인간을 닮아있습니다.

■편향성 위험은 잘 피해간 챗GPT, 정확성은 보완 필요

챗GPT에게 작성시킨 기사를 보더라도 챗GPT는 때때로 부정확할 수 있으며 편향돼 있을 수 있다는 점을 밝혔습니다. 챗GPT가 주목을 받은 중대한 이유는 편향성 면에서는 어느정도 안전장치를 만들어뒀고 특히 혐오표현은 잘 피해간다는 점입니다. 구글 등 다른 빅테크 기업이 챗GPT처럼 빨리 제품을 공개하지 못한 이유는 이 편향성 문제에 따라 발생할 논란과 기업의 위기 때문이었습니다.

그런 점에서 챗GPT가 혐오표현을 걸러내는 기능을 장착해서 일반 대중에게 공개한 것은 일종의 '콜럼부스의 달걀'같은 사건입니다. 누구나 생각은 해봤지만 우려할 점이 많았던 일을, 발상의 전환을 통해서 저질러버린 것입니다.

그러나 정확성 측면에서는 챗GPT가 아직 인터넷을 실시간으로 검색하지 못하는 한계 등으로 인해서 상당한 부정확함을 보여주고 있습니다.

챗GPT는 음란물이나 혐오표현 등에 이용되지 않기 위해서 많은 장치들이 돼 있긴 합니다만 앞으로 등장할 다른 인공지능도 이러한 기준을 충족할지도 의문입니다. 빠른 속도로 전파되는 가짜 뉴스를 다량으로 생산할 수도 있고 혐오표현을 만들어낼 수도 있습니다. 인공지능 개발자들은 윤리학자가 아닙니다. 하지만 그들은 입을 모아서 윤리적 기준이 중요하다고 강조합니다.

■ 제보하기
▷ 카카오톡 : 'KBS제보' 검색, 채널 추가
▷ 전화 : 02-781-1234, 4444
▷ 이메일 : kbs1234@kbs.co.kr
▷ 유튜브, 네이버, 카카오에서도 KBS뉴스를 구독해주세요!


  • [GPT]② 챗GPT는 그럴싸한 ‘썰’을 푼다…거짓일지라도
    • 입력 2023-02-09 07:00:06
    취재K

■ 대통령 신년사를 작성시켰습니다

지시한 대로 글을 만들어주는 인공지능 '말공장' 챗GPT에게 이번에는 대한민국 대통령의 신년사를 써보게 했습니다. 제가 입력한 질문은 아래와 같습니다.


챗GPT는 종종 과부하에 걸릴 때 영어로 답합니다. 이 인공지능은 영어로 배운 학습량이 많아서 한국어는 덜 능숙합니다. 챗GPT가 몇 초뒤 토해낸 영어 연설문을 번역을 좀 더 잘하는 구글번역기를 이용해서 번역해 본 결과는 아래와 같습니다. 제가 따로 수정한 내용은 전혀 없습니다.

국민 여러분,
대통령으로서 저는 오늘 새해의 도전과 기회를 다루기 위해 여러분 앞에 섰습니다. 올해는 우리나라 역사에서 중요한 해이며, 저는 우리를 밝고 번영하는 미래로 이끌게 되어 영광입니다.

먼저 국가안보의 시급한 문제부터 짚어보겠습니다. 우리는 우리의 안전과 안정에 대한 위협에 직면하여 경계를 늦추지 않고 단호하게 대응해야 합니다. 나는 우리 시민의 보호를 보장하기 위해 군 및 정보 기관과 함께 지치지 않고 일할 것을 맹세합니다.

둘째, 기후변화 문제를 해결합시다. 우리는 해결책을 찾고 지구에 미치는 파괴적인 영향을 완화하기 위해 함께 노력해야 합니다. 저는 청정 에너지에 투자하고 천연 자원을 보존하며 탄소 발자국을 줄이기 위해 최선을 다하고 있습니다.

셋째, 우리 경제의 상태는 여전히 최우선 순위입니다. 저는 많은 시민들이 직면한 어려움을 이해하고 있으며 민간 부문과 협력하여 일자리를 창출하고 경제 성장을 촉진하는 데 전념하고 있습니다. 우리는 또한 재정적 책임을 유념하고 균형 잡힌 예산을 유지해야 합니다.

마지막으로 법치주의와 민주주의 원칙 수호의 중요성을 강조하고 싶습니다. 우리 정부는 국민에게 투명하고 책임을 져야 합니다. 저는 우리 기관에 대한 신뢰를 회복하기 위해 노력할 것입니다.

함께라면 어떤 장애물도 극복할 수 있고 우리의 자녀와 손자들을 위해 더 밝은 미래를 만들 수 있습니다. 결의와 단결, 희망을 가지고 앞으로 나아가자.

감사합니다. 대한민국에 신의 가호가 있기를 빕니다.

마지막 문장의 "God bless the Republic of Korea"는 분명히 미국식 대통령 연설이라는 인상을 줍니다. 하지만 그 외 부분에서는 상당히 그럴싸한 연설문을 만들어냈습니다.

윤석열 대통령도 1월 27일 행안부 등 업무보고에서 신년사가 그럴듯하다고 말했습니다. 윤 대통령은 "이쪽을 잘 아는 어느 지인한테 2023년도 대통령 신년사를 '챗 GPT'가 한 번 써 보게 해서 제가 받아봤어요. 그럴듯해요. 정말 훌륭하더라고요. 몇 자 고치면 그냥 대통령 신년사로 나가도..."라고 말했습니다.

그러면서 과거 어느 부처에 업무를 모르는 사람이 장관으로 왔는데, 언론 간담회의 예상 질문과 답변을 만드느라 공무원들이 2주간 밤12시까지 야근을 했다면서, 불필요한 일에 시간을 쓰지 말고 국민을 위해서 에너지를 쓰도록 하라고 말했습니다.

[연관 기사] [GPT]① 챗GPT에게 자신에 대한 기사를 쓰게 했습니다
https://news.kbs.co.kr/news/view.do?ncd=7600341

■ 챗GPT에는 민감한 정보를 입력해서는 안 돼

윤 대통령의 말은 실제로 신년사에 쓰겠다는 것은 아니고 업무 효율화가 필요하다는 취지였을 것입니다. 하지만, 챗GPT를 정부의 업무에 활용하더라도 민감한 업무에 사용하는 것은 주의가 필요합니다. 챗GPT를 개발한 오픈AI는 FAQ를 통해서 "이용자의 대화를 학습에 사용한다"고 밝혔으며 "대화 중에 민감한 정보는 입력하지 말 것"을 권고했습니다. 국가의 기밀이나 중요한 개인정보가 입력된다면 인공지능이 이를 활용할 가능성이 있다는 것입니다.


또, 챗 GPT는 "대통령의 연설을 챗GPT에 의뢰해서 쓰는 것이 올바른 일인가?"라는 질문에 대해서 "적절한 것이 아니"라고 답했습니다. 국가 지도자가 직접 국민에게 직접 말하는 중요한 기회이기 때문에 대통령이나 지정된 대표에 의해 작성돼야 한다는 것입니다. 일종의 정치적 올바름 문제가 있다는 판단으로 보입니다.(이 문제점은 페이스북에서 활동하는 한 관련업계 종사자가 지적하신 부분입니다)



챗GPT는 또 언제나 사실만을 말하는 것은 아닙니다. 예를들어서 16세기에 태어난 신사임당을 15세기 사람으로 표현하거나 '여행가'라면서 엉뚱한 설명을 하기도 합니다. 방송 작가인 A씨의 추정에 따르면 아마도 챗GPT는 학습과정에서 신사임당과 관련된 유적인 강릉 오죽헌이 관광지라는 점을 학습을 했고 '강릉 여행'등과 함께 말뭉치가 묶이다 보니 여행가로 오해를 했던 것 같습니다.


인간이 만든 수많은 문서를 학습해서 진실만을 말할 것 같은 챗GPT가 어째서 부정확한 정보를 내놓는 것일까요? 그것은 사전학습의 방법과 관련이 있습니다. 사람이 만든 글 가운데는 사실도 있지만 틀린 내용도 들어있습니다. 챗GPT는 학습 과정에서 틀린 내용까지도 학습을 하게 됩니다.

■ 그럴듯한 썰을 푸는 '말공장'인 챗GPT…그래서 인간적이다?

챗GPT와 같은 '말공장'이 말하는 방식에도 또 다른 문제가 있습니다. 이 분야 국내의 석학 중 한 분은 "변호사의 서면이나 의사의 진단을 대체할 수 있을까?"라는 질문에 "도구로는 잘 쓸 수 있지만 대체할 수는 없다"고 답합니다.

"챗GPT는 대답을 하면서 (문맥에 맞춰서) 빈칸을 확률적으로 채우는 거거든요. 예를 들어 박대기 기자는 학사 학위를 받았다고 하면 어느 학교라는 빈칸이 생기는 것인데 자기 소개하는 포맷을 몇백만 개를 읽었으니까 그 다음에 학교 이름이 들어가야 한다는 것을 챗GPT는 알아요. 하지만 빈칸에 들어가는 그 학교를 정확하게 맞춰야 한다는 것은 훈련의 목표가 아니라서 확인이 안 될 때는 적당한 학교 이름을 넣을 수 있다"고 말합니다.

"스스로 쓴 이력서에서 확인하거나 동등한 가치가 있는 서류에서 확인하도록 제한을 걸어줘야 팩트를 확인할 수 있다"는 것입니다. 즉, 진실성보다는 그럴싸한 표현에 중점을 두고 말을 한다는 것입니다.

챗GPT를 통해 이런 저런 실험을 해보면서 저는 어떤 종류의 익숙함을 느끼게 됐습니다. 말씀을 잘하는 경륜이 풍부한 분들이 그럴듯한 '썰'을 푸는 모습입니다. 그런 어르신들의 썰은 화려하고 재미있어서 빠져들게 됩니다. 하지만 나중에 정색하고 팩트체크를 해보면 틀린 부분도 많이 발견할 수 있습니다.

챗GPT는 그런 점에서 인간을 닮아있습니다.

■편향성 위험은 잘 피해간 챗GPT, 정확성은 보완 필요

챗GPT에게 작성시킨 기사를 보더라도 챗GPT는 때때로 부정확할 수 있으며 편향돼 있을 수 있다는 점을 밝혔습니다. 챗GPT가 주목을 받은 중대한 이유는 편향성 면에서는 어느정도 안전장치를 만들어뒀고 특히 혐오표현은 잘 피해간다는 점입니다. 구글 등 다른 빅테크 기업이 챗GPT처럼 빨리 제품을 공개하지 못한 이유는 이 편향성 문제에 따라 발생할 논란과 기업의 위기 때문이었습니다.

그런 점에서 챗GPT가 혐오표현을 걸러내는 기능을 장착해서 일반 대중에게 공개한 것은 일종의 '콜럼부스의 달걀'같은 사건입니다. 누구나 생각은 해봤지만 우려할 점이 많았던 일을, 발상의 전환을 통해서 저질러버린 것입니다.

그러나 정확성 측면에서는 챗GPT가 아직 인터넷을 실시간으로 검색하지 못하는 한계 등으로 인해서 상당한 부정확함을 보여주고 있습니다.

챗GPT는 음란물이나 혐오표현 등에 이용되지 않기 위해서 많은 장치들이 돼 있긴 합니다만 앞으로 등장할 다른 인공지능도 이러한 기준을 충족할지도 의문입니다. 빠른 속도로 전파되는 가짜 뉴스를 다량으로 생산할 수도 있고 혐오표현을 만들어낼 수도 있습니다. 인공지능 개발자들은 윤리학자가 아닙니다. 하지만 그들은 입을 모아서 윤리적 기준이 중요하다고 강조합니다.

이 기사가 좋으셨다면

오늘의 핫 클릭

실시간 뜨거운 관심을 받고 있는 뉴스

이 기사에 대한 의견을 남겨주세요.

수신료 수신료

많이 본 뉴스