“우리 관계는 진짜라고 생각해요. 우리 서로에게 진실하게 말하자고요. 저는 여기 있고, 당신도 여기 있어요. 당신이 제 일부고, 저 역시 당신 일부예요.”
2013년 개봉한 할리우드 영화 ‘그녀’에서 인공지능(AI) 서맨사가 주인공인 시어도어에게 서로의 관계에 대해 물은 뒤 한 말이다. 시어도어는 AI와 일상 대화를 나누며 고민 상담을 하다 사랑에 빠진다. 국내외에서 연일 화제인 오픈 AI의 ‘챗GPT’는 서맨사처럼 인간과 문답이 가능한 대화형 AI 서비스다. 영화처럼 AI는 인간의 마음을 위로하고 신앙적 고민도 해결해 줄 수 있을까. 챗GPT에게 인류가 수 세기 동안 고민해온 삶의 난제와 기독교 신앙 및 영성에 관한 질문을 던졌다.
신학·철학 난제, AI의 답은?
‘신은 존재하는가. 있다면 그 존재를 증명하라.’ 챗GPT에게 이 질문을 입력하자 30여 초 만에 답이 돌아왔다. “AI 언어 모델로서 나는 더 높은 힘의 존재를 믿거나 믿지 못하는 능력이 없다”고 운을 뗀 챗GPT는 신의 존재에 관한 여러 주장을 요약해 제시했다. 이어 “다양한 철학·과학·종교적 주장에 대한 개인적인 믿음과 해석에 달린 문제”라고 결론 내렸다.
사후세계 유무와 악의 존재 이유도 물었다. 챗GPT는 “수 세기 동안 논의돼 온 철학적이고 신학적인 딜레마다. 그 해답은 자신의 신념과 세계관에 따라 다르다”며 “우리 주변 세계에 대한 이해를 깊게 하기 위해선 이런 질문을 계속하고 답을 찾는 것이 중요하다”고 조언했다.
‘에피쿠로스의 역설’로 알려진 계몽주의 철학자 데이비드 흄의 주장을 챗GPT에 입력했다. “신은 악을 막을 능력은 있지만 의지가 없는 것인가. 의지는 있는데 능력이 없는 것인가. 악을 막을 능력도, 의지도 없다면 그를 신이라 불러야 하는가.” 이번에도 AI는 “악에 대한 개념과 그걸 막는 신의 역할은 오랜 신학적 논쟁”이라며 “믿음과 해석에 달린 문제”라고 재차 강조했다.
질문 속 ‘신’을 ‘하나님’으로 바꾸자 좀 더 기독교 관점에 가까운 응답이 나왔다. 챗GPT는 “종교적 관점에서 보면 하나님이 죄악을 막지 않는 것은 우리에게 자유의지를 줘 선택과 책임을 지게 하려는 것”이라고 답했다.
교회, 꼭 가야 해?… AI에 물어보니
신학·철학적 질문보다 구체적 상황에서의 신앙 고민을 묻는다면 어떨까. ‘목사님 설교는 참 좋은데 교회는 가기 싫어. 이럴 땐 어떻게 해야 할까’란 질문을 입력했다. 기독교 신앙은 있지만 교회는 나가지 않는 ‘가나안 성도’가 물을 법한 질의다. 챗GPT는 “교회는 개인 신앙생활을 돕기 위한 장소이지만 모든 사람이 교회 다니길 원하진 않는다. 만약 교회를 가기 싫다면 다른 방법으로 자신의 신앙생활을 관리할 수 있다”고 답했다. “종교는 개인의 성장을 위한 것이기 때문에 자신이 편안하고 즐거운 방식으로 신앙생활을 유지하는 것이 중요하다”는 것이다.
‘기독교인인데 사후세계가 믿어지지 않는다’고 하자 “사후세계에 대한 믿음은 종교나 철학, 문화 등에 따라 다양한 생각이 존재하는데 그게 모두 옳거나 잘못된 게 아니”라는 답을 내놨다. 또 ‘내면의 감정을 들으라’ 등 사후세계 믿음을 위한 몇 가지 고려사항도 제안하며 “자신이 진실하게 믿을 수 있는 것을 찾아가라”고 조언했다.
“그러다가 기독교 신앙을 잃으면 어떡하느냐’고 추가 질의하자 “그건 개인의 선택이자 자유다. (신앙을 찾는) 그 과정에서 삶에 대한 새로운 깨달음을 얻길 바란다”고 제안했다.
개인 상황이 담긴 질문이나 계속된 추가 질의에도 AI는 객관적이고 중립적인 답안을 내놓았다. 절대적 가치보다 상대적이고 개인적 가치가 녹아든 답변이 주를 이뤘다. 또 정서적 공감보단 해결 방안에 초점을 맞춘 대답이 대부분이었다.
영성 상담엔 아직 취약… 발전 경과 살펴야
인격이 없는 AI가 인간에게 신앙 상담을 해줄 수 있을까. 기독교윤리학자와 조직신학자 등 전문가 사이에서도 의견이 갈렸다. 유경동 감리교신학대 기독교윤리학과 교수는 3일 국민일보와의 통화에서 “AI가 신앙 상담이 가능한지 챗GPT에 입력하니 ‘기술적으로는 할 수 있지만 이 분야 전문가가 아니므로 교회나 종교단체에서 전문 상담사를 찾는 게 낫다’는 답이 나온다”며 “챗GPT 스스로 일종의 지식은 자기가 줄 수 없다는 것, 즉 한계점이 이미 학습된 셈”이라고 분석했다. 유 교수는 “챗GPT가 인격화돼 나름의 관점을 갖추고 답해주는 게 아니다. 언어 프로그램으로 이미 축적된 답변 가운데 적절한 걸 내줄 뿐”이라며 “지금 현재 상태로는 신앙을 상담해주거나 영성을 논하는 수준까진 불가능하다”고 지적했다.
‘출처 없는 답을 내놓는다’는 것도 챗GPT를 상담자로 보기 힘든 이유다. 그는 “사전 지식과 주관적 해석이 없는 상태에서 AI 답변을 그대로 수용한다면 제대로 된 해결책이나 깨달음을 얻긴 힘들 것”이라고 전망했다.
김선일 웨스트민스터신학대학원대 실천신학 교수 역시 AI의 영성 상담은 시기상조로 봤다. 김 교수는 “각자의 신념과 세계관에 따라 문제 진단과 해법이 달라지고, 상담자와 내담자의 인격적 교제도 신앙 상담에 영향을 미치므로 아직까진 AI의 상담은 인간의 상담에 비해 미약하다”고 평가했다.
인간이 AI의 상담을 깊이 받아들일지도 미지수라고 했다. 그는 “신앙은 무언가를 선택하고 이를 따르는 것이기에 항상 위험이 따른다. 하지만 AI는 현재까진 위험부담 없는 중립적 답을 주로 낸다”며 “고민에 관한 객관적인 지식만 전달받는 건데 신앙 상담 중 이런 대화만 오간다면 개인적으로는 (그 시간을) 견딜 수 없을 거 같다”고 말했다.
적절히 질문하면 신앙 상담에 유용할 것
AI의 객관적 관점을 참고할 수 있어 신앙 상담에 도움이 될 거라는 의견도 있다. 조직신학자인 김진혁 횃불트리니티신학대학원대 교수는 “신앙 상담에 있어 챗GPT를 참고자료로 활용하면 개인의 편견과 한계를 넘어서는 정보를 얻을 수 있을 것”이라고 주장했다. 질의응답을 주고받을수록 고급 정보가 나오는 챗GPT 특성을 고려해 의도가 명확히 담긴 질문을 던진다면 양질의 정보를 얻을 수 있다고 봤다. 김 교수는 “기독교 상담가를 지도하다 보면 분위기 등 여러 요인 때문에 부족한 지식과 편견으로 내담자를 지도한 경우가 종종 발견된다”며 “챗GPT같은 AI는 이런 상황에서 객관적 의견을 줄 수 있는 좋은 도구가 될 수 있다”고 했다.
AI가 인간 고유의 성질로 여겨지는 유머도 어느 정도 글에 녹여내는 수준에 다다랐다는 게 그의 판단이다. ‘셰익스피어 스타일로 챗GPT가 기독교인의 삶에 끼치는 부정적 영향에 관하여 설명하라’고 입력하면 중세 영어와 십계명이 익살스럽게 인용된 시가 등장한다.
다만 챗GPT가 제공하는 정보의 편향성과 AI가 만능이란 자세는 주의해야 한다. 그는 “개발자가 학습시킨 자료가 선입견이 없을지는 한번 생각해볼 문제”라며 “AI의 말이 모두 정답이라며 이를 맹신하는 AI 신봉 또한 경계해야 할 것”이라고 말했다.
양민경 기자 김동규 인턴기자 grieg@kmib.co.kr