대화형 AI 서비스, 윤리적 가이드라인 필요

대화형 AI 서비스, 윤리적 가이드라인 필요

[ 사설 ]

한국기독공보
2023년 12월 04일(월) 08:28
대화형 인공 지능 서비스 챗GPT를 이용하는 대중이 증가함에 따라 목회자들도 설교 준비와 목회에 적극 활용하는 경우가 늘고 있다.

이러한 가운데 생성형 AI 기술이 야기할 수 있는 윤리적 문제를 미연에 방지하도록 기독교적 시각에 입각한 지침을 제시하는 것이 시급하다는 지적이 설득력을 얻고 있다.

챗GPT는 다양한 신학 분야의 정보를 제공해 줄 수 있어 설교의 질적 향상에 기여하고 준비에 드는 시간도 단축할 수 있다는 장점이 있다.

그러나 이러한 긍정적인 면에도 불구하고 생성형 AI에 대한 부정적인 면을 우려하는 목소리는 매우 높다. 예를 들어 챗GPT는 데이터에 기반해 정보를 제공하기 때문에 사용자 다수가 특정한 이슈에 대한 편견을 갖고 있다면 잘못된 정보를 제공할 수도 있다.

챗GPT는 각 단어 뒤에 어떤 단어가 오는 것이 적절한지 계산해서 문장을 만들도록 설계돼 있기 때문에 문장을 완성도 높게 만드는 것은 잘하지만, 문장의 사실 여부를 판단하지 못해 잘못된 정보를 말하는 경우도 많다. 실제로 잘 알려진 목회자를 검색했는데, 이단 연루 등 사실과 다른 정보를 제공하는 경우도 있었다.

전문가들은 챗GPT를 사용할 경우 먼저 제공 받은 정보가 사실인지 확인하고, 챗GPT 활용 사실도 교인들에게 솔직하게 공유하는 것이 좋다고 충고한다. 또한 한국교회 내에서 이 기술의 활용이 교회 사역과 교인들의 개인 신앙에 어떤 긍정적 부정적 영향을 줄 수 있는지에 대한 공적 논의가 더 활발하게 이뤄져야 한다고 말한다.

그러나 무엇보다도 아무리 뛰어난 AI가 나온다고 하더라도 자신의 영혼과 진리의 문제를 컴퓨터가 주는 정보와 메시지에 의존하고 싶어하는 교인은 없다는 사실을 목회자들은 기억해야 할 것이다.
카드 뉴스
많이 보는 기사
오늘의 가정예배