챗GPT의 특징과 그 함의들

[ 3월특집 ] 챗GPT와 기독교 1. 챗GPT란 무엇인가

손화철 교수
2023년 02월 27일(월) 08:06
아직 챗GPT(Chat GPT)를 써 보지 않은 분은 구글에서 '챗GPT'를 검색해서 첫 번째로 나오는 결과를 클릭해 오픈(Open)AI 로고가 있는 웹페이지에 들어갈 수 있다. 중간 즈음에 'TRY CHATGPT'라 쓰인 작은 박스를 누르면 다음 페이지로 넘어가고, 'Sign up'을 선택한 후 이메일 주소와 비밀번호를 등록하면 바로 사용 가능하다. 챗봇이 작동하는 새 창 아래쪽 박스에 질문을 써 넣으면 곧 답이 나온다. 질문 언어에 맞추어 답을 하는데, 영어에 비해 한국어 실력은 조금 떨어진다.

아마 챗GPT가 가장 많이 받는 질문 중 하나가 '챗GPT란?'일텐데, 이런 답이 제시된다.

"저는 챗GPT라는 이름의 인공지능 챗봇입니다. GPT는 'Generative Pre-trained Transformer'의 약자로, 오픈AI가 개발한 자연어 처리를 위한 딥 러닝 알고리즘 중 하나입니다. 저는 이러한 GPT 알고리즘을 기반으로 학습되었으며, 이를 통해 자연어 이해, 문장 생성, 대화 기능 등 다양한 자연어 처리 작업을 수행할 수 있습니다. 제 목적은 사용자들과 대화를 통해 질문에 답변하거나 정보를 제공하며, 그들의 필요에 맞게 가장 적합한 답변을 제공하는 것입니다."

사실 비슷한 정보를 구글 검색으로도 얻을 수 있다. 그러나 이 기술은 몇 가지 점에서 단순 검색과 다르다. 챗GPT 스스로 제시한 자기 소개에 숨어있는 특징들을 나열해 보면 다음과 같다.



1. 챗봇 - 하나의 물음에 하나의 대답만

우선 챗GPT는 채팅을 하는 프로그램이니까 사람과의 채팅처럼 하나의 물음에 하나의 대답만 제시한다. 인터넷 검색은 다양한 검색결과 중 그 중 사용자가 원하는 바를 선택하는데, 챗GPT는 엄청난 양의 데이터를 분석, 종합, 요약해서 그 선택 과정을 스스로 수행한다. 다시 말해 검색 결과를 나열하는 것이 아니라 '생성'한다. 그 결과 사용자는 여러 자료 중 하나를 선택하는 것이 아니라 챗GPT가 제시한 답을 수용할지 여부를 선택하고, 필요하면 추가 물음을 통해 정보를 찾아나간다.

일단 그 대답의 수준이 매우 높고 적절해서 주목을 받고 있다. 긴 글의 요약 정도는 쉽게 하고, 복잡한 요구에도 곧잘 적당한 답을 내 놓는다. 예를 들어 "기독교인은 챗GPT에 대해 어떻게 생각해야 하나?" 같이 다소 막연한 물음에도 납득할 만한 수준의 답을 제시한다. 또 "데카르트의 '순수이성비판'의 골자가 무엇인가?"라고 물으면 "'순수이성비판'은 데카르트가 아니라 칸트가 쓴 책"이라는 점을 먼저 지적한 뒤에 데카르트도 인식론에 대한 책을 썼고, 그 책의 골자는 무엇이라 대답한다. 잘못된 물음을 고치고 나름대로 해석해서 질문한 사람이 원할 것 같은 대답을 내는 것이다.



2. 자연어 처리 알고리즘 - 일상어 구사

이런 일이 가능한 이유는 챗GPT가 '자연어 처리 알고리즘'이기 때문이다. 수많은 자연어 데이터를 모아 어떤 단어와 표현이 서로 연결되는 패턴을 분석하고 반복적으로 오류를 잡아내어 정교한 알고리즘이 만들어졌다. 그리하여 사람이 하는 일상어의 의미를 파악할 수 있고, 대답도 일상어처럼 표현할 수 있다. 여기에는 사람이 실수하거나 잘못 말하는 것까지 다 포함된다. 이렇게 사용자의 물음에 답을 주면서 사람이 쓴 것 같은 문장으로 제시하니 더 믿음직하게 느껴진다.

그러나 챗GPT 자신이 자주 언급하는 것처럼 챗GPT가 제공하는 정보 중에는 오류가 있고, 때로는 덧셈과 같은 간단한 문제를 틀리기도 한다고 한다. 많은 데이터에서 패턴을 찾아내는 딥러닝 방식으로 작동하다 보니 정확한 답을 찾는 것보다 자연어에 가까운 그럴듯한 문장의 답을 만들어내는 것에 더 특화되어 있기 때문이다. 그러나 이 문제들이 어떤 식으로든 개선되면 주어지는 정보의 신뢰성이 높아질 것이고, 그러면 사람들이 챗GPT에 의존하는 정도는 심해질 것이다. 설교나 기도문, 글쓰기 과제문을 곧잘 써내기 때문에 이미 잘 활용하는 이들도 많다.



3. '적절한' 중립성 - 누군가의 그림자

챗GPT의 또 다른 특이점은 논란이 될 만한 의견을 제시하지 않는 것이다. 예를 들어 "김정은을 어떻게 생각하느냐"고 물으면 "나는 AI 언어 모델이기 때문에 의견이 없으며, 김정은에 대한 여러 사실만 제시한다"는 대답과 함께 여러 사실관계가 나열된다. 중립적 입장을 취하면서 객관적 정보만 전달하도록 설계한 것이다. 과거에도 여러 챗봇이 있었지만 사용자가 유도하면 부적절한 대답을 내놓는 사고가 일어난 경우가 많았다. 그러나 챗GPT는 민감한 이슈에 대해서는 다양한 입장을 나열만 하고, 거친 표현을 쓰지 않으며, 일반적인 사안에도 가장 안전하고 보편적인 대답을 제시한다. 앞서 언급한 설교문이나 기도문도 정갈하지만 도드라지지는 않는 적당한 내용으로 구성된다.

그런데 이런 특징이 과거의 챗봇의 한계를 극복한 진보라고만 볼 수는 없다. 어떤 사안이 민감하고 그렇지 않으며, 어떤 글이 중립적이거나 편파적인지에 대한 판단은 보편적인 것이 아니기 때문에, 챗GPT의 중립성 판단은 이미 중립적이지 않다. 챗GPT는 2021년까지의 인터넷 데이터를 '지도학습' 방식의 기계학습을 통해 만들었다고 한다.

이 말은 AI가 일차 제시한 대답이 적합한지를 사람이 판별해서 피드백을 주는 방식으로 AI를 학습시켰다는 말이다. 정답이 있고 정해진 임무를 수행하는 AI의 지도학습은 기본적인 오류를 사람이 잡아주는 것에 그치지만, 챗GPT처럼 다양한 질문에 답을 해야 하는 경우는 중립성, 민감성, 도덕성 등에 대한 기준이 반드시 필요하다. 챗GPT의 놀라운 '적절함'은 기계적이 아니라 '누군가의' 인간적인 판단에 의한 것이다.

어떤 질문에도 유창한 언어로 자신 있게 대답을 내놓는, 그러나 그 속을 알 수 없는 사람을 만나자마자 신뢰하지는 않는다. 기술도 마찬가지다. 챗GPT의 놀라운 기능에 대해 감탄할지 경계할지는 시간을 두고 판단해도 좋겠다. 섣불리 사용 여부와 방법을 논하기 전에 이 기술의 원리와 함의가 무엇인지 고민해야 한다.

손화철 교수 / 한동대학교, 기술철학 전공
이 기사는 한국기독공보 홈페이지(http://www.pckworld.com)에서 프린트 되었습니다.