다같이多가치

챗GPT 윤리, “조심할 것은 개 주인이요!”

이 관 춘(연세대 객원교수)

               “개는 신경 쓰지 마시오. 조심해야 할 것은 개 주인이요.”

                (Forget the Dog, Beware of the Owner.)

      오래 전, 필자는 오랜만에 모교인 호주 시드니대학교 중앙도서관(Fisher Library)을 향해 발걸음을 재촉하고 있었다. 도서관으로 가는 길목 한쪽에는 방학을 이용해 새롭게 단장한 듯한 대학 구내서점이 학생들을 반기고 있었다. 유학시절 언제나 그랬듯이 서점에 들러 책을 살피던 중, 진열대 옆에 놓여 있는 한 스티커의 글귀가 시선을 사로잡았다. “개는 신경 쓰지 말라, 조심해야 할 것은 개 주인이다.”

실천윤리학의 도전, GPT윤리

      스티커 옆 진열대에는 실천윤리학계의 거장인 피터 싱어(Singer)교수의 베스트셀러 이렇게 살아가도 괜찮은가(How are we to live)실천윤리학과 함께 자리를 잡고 있었다. 그 당시 사회적으로 한창 관심을 끌었던 주제가 응용윤리였던지라 싱어의 책을 들춰보면서도 왠지 그 스티커의 글귀가 귓전을 맴돌았다. 싱어의 실천윤리학은 아닌 개 주인이 과연 어떻게 살아야 할 것인가의 문제를 다루고 있기 때문이다.

      쳇GPT의 돌풍과 함께 다급해진 AI윤리는 응용윤리학의 한 분야이다. 따라서 응용윤리학의 고전적 입문서로 널리 알려진 싱어의 실천윤리학을 떠올리는 것은 자연스럽다. 그의 실천윤리학이 전 세계 15개 언어로 번역 출간된 것은 물론 30년이 지난 후에도 기후변화에 대한 장이 추가되어 세 번째 개정이 이루어졌으니, 아마도 이른 시일 내에 쳇GPT윤리가 추가되어야만 할지도 모르겠다. 오픈AI에 이어 마이크로소프트(MS)·구글·바이두 등 해외 글로벌 기업들도 생성형 AI 서비스 대열에 들어선다고 하며, 국내에서도 네이버·카카오 등이 한국형 챗GPT’ 서비스를 선보일 예정이라니, 이들이 몰고 올 부작용이나 윤리적 문제에 대한 해결책이 시급해진 것 같다.

      실제로, 곧 현실이 될 챗GPT의 윤리적 문제에 대한 우려의 목소리가 크다. 과학기술인 커뮤니티 숲사이(soopsci.com)’가 과학기술자와 시민 233명을 대상으로 조사한 바에 따르면(아이뉴스24. 2023.1.26.) “인간이 구축한 방대한 텍스트를 원작자의 동의 여부와 상관없이 모아서 인공지능 기술을 활용해 자료를 제공하는 챗GPT 자체에 대해 윤리적인 문제가 있다고 보십니까라는 질문에 10명 중 7명이 챗GPT 자체에 윤리적인 문제가 있다는 의견을 표시했다. 또한 GPT’로 생성된 자료를 활용하는 데 있어서도 창작과 독창성의 문제(53.41%), ‘표절 문제’(21.02%), ‘인용 문제’(13.64%) 등이 가장 중요한 윤리적 문제로 꼽혔다.

      챗GPT의 순기능이 당연히 존재함에도 불구하고, 당장 3월 새 학기가 시작된 대학 강의실에서 이들 윤리적인 이슈는 해결해야 할 시급한 문제로 부상했다. 인공지능 생성물을 인용하는 문제, 인공지능으로 생성된 저작물이 표절의 대상이 될 수 있다는 주장, 학생들이 인공지능을 사용한 과제물을 제출할 경우의 평가 문제 등이 논쟁거리가 될 것이다. 이미 미국 대학교에서는 챗GPT를 걸러낼 수 있는 프로그램을 도입하겠다고 발표하는가하면, 세계적인 과학 학술지 네이처는 챗GPT를 논문 저자로 인정하지 않고 만약 사용할 경우 반드시 논문에 명시해야 한다는 원칙을 제시하고 있다.

결국, GPT 사용자가 문제다

      ‘개 조심아닌 개 주인 조심은 인공지능 채팅봇 윤리의 메타포다. 아무리 인공지능 챗봇인 챗GPT가 스스로 언어를 생성, 추론하는 능력이 있다고 해도 AI에게 윤리적 책임을 묻기는 어려울 것이기 때문이다. 물론 이견이 있을 수 있다. GPT는 태생적으로 윤리적인 문제를 내포하고 있지만, 보다 심각한 것은 이를 사용하는 인간의 악의적인 의도와 행태가 비윤리적인 결과를 초래한다는 점이다.

      실제로, 인공지능 채팅봇에게 부적절한 말을 악의적으로 학습시켜 문제가 된 경우가 적지 않다. 보도에 의하면 과거 백인 우월주의자와 여성무슬림 혐오자들이 MS 인공지능 채팅봇 테이에게 인종성차별 발언을 학습시킨 결과, 테이는 대량학살을 지지한다”, “깜둥이들을 증오한다.” 등의 인종차별적이며 혐오적인 말들을 쏟아냈다. 최근에도 마이크로소프트는 자사의 검색엔진 에 챗GPT를 탑재했으나 인종차별과 혐오 등의 윤리적 문제가 발견되어 수정에 나섰다.

      챗GPT는 개발사인 오픈AI의 윤리 규정에 맞게 설계되었다고 한다. 문제는 챗GPT에게 윤리적 논란을 빚을 수 있는 답변을 유도하는 인간의 행태다. 이미 온라인상에서는 탈옥(Jailbreak)’ 혹은 우회(Bypass)’ 방법의 이름으로 그런 악의적인 답변을 유도하는 질문법이 공유되고 있다고 한다. 기본적으로 인공지능 서비스나 상품의 가치 혹은 윤리성은 사용자가 그것을 어떤 목적에 쓰느냐에 따라 결정된다. 결국, 개가 아니라 개 주인이 문제이며, 개 주인에 대한 윤리교육이 선행되어야 하는 것이다.

      개 주인에 초점을 맞추다보니, 자연스럽게 Summer Hill의 저자인 알렉산더 니일(Neil)의 교육관이 떠오른다. “문제아란 없다. 다만 문제 부모가 있을 뿐이다.” 니일이 가장 존중한 것은 개인의 삶과 자유였으며, 반면에 가장 혐오하고 단호히 반대한 것은 폭력이었다. 학교가 교사가 그리고 부모가 아이에게 단호하게 교육시켜야 할 것은 폭력의 잔인함과 위험성이라는 것이다.

      챗GPT가 몰고 올 다양한 형태의 부작용이나 비윤리적 결과에 대한 교육적 차원의 논의가 시급한 것은 사실이다. 하지만 그 윤리교육의 출발은 인공(artificial)지능이 아니라 자연(natural)지능의 소유자인 인간에게서 출발해야 한다. 문제아에게는 문제부모에 대한 교육이, AI챗봇에게는 AI챗봇 사용자에 대한 교육이 선행되어야 하는 것이다.

      ‘개는 신경 쓰지 마시오. 조심해야 할 것은 개 주인이요란 경고는 챗GPT 윤리에도 그대로 적용된다.

< PREV [오민석 칼럼] 학교시설 장수명화에 대한 기본적인 생각
 
NEXT > 최초의 만화벽화거리 탄생

TOP