[뉴스]10명 중 7명 인공지능 챗봇 'ChatGPT' 윤리적인 문제 있다.

숲지기
2023-01-26


10명 중 7명 인공지능 챗봇 'ChatGPT' 윤리적인 문제 있다.


- 인공지능 생성물을 인용하는 것에 대해서 절반 이상 '가능하다' 응답
- 응답자 65% 인공지능으로 생성된 저작물이 '표절의 대상'이 될 수 있다.
- 인공지능을 사용한 과제물에 대해서 엄격한 평가 기준 적용 다수 
- 인공지능 생성물의 가장 큰 윤리적 문제는 '창작과 독창성'
- 인공지능 저작물의 바람직한 활용을 위해서는 '관련 종사자들의 자율적이고 국제적인 기준 마련' 필요

 

최근 공개된 인공지능(AI) 챗봇 'ChatGPT'에 대한 관심도가 높다. 성능과 기능에 관한 관심뿐만 아니라 실제 사회 전반에 활용이 가시화되면서 인공지능의 윤리적인 측면의 관심도 높아지고 있다. 시민단체 '변화를 꿈꾸는 과학기술인 네트워크(ESC)'에서 운영하는 과학기술인 커뮤니티 '숲사이(soopsci.com)'에서 과학자와 시민을 대상으로 인공지능의 윤리적인 부분의 한 단면인 인용, 표절, 저작권 등의 문제에 대해서 최근 주목받고 있는 ‘ChatGPT’ 인공지능 챗봇의 사례를 바탕으로 글쓰기 저작물 활용에 대한 윤리 인식에 대해서 설문조사를 진행했다.

 

설문에 참여한 233명 중 전체 문항에 대해 응답 완료한 176명을 대상으로 분석하였다. 우선 ‘ChatGPT’를 사용해 본 경험 질문에 절반 이상(57.39%)이 사용 경험이 있는 것으로 응답했다. 37.5%는 사용은 해보지 않았지만 ‘ChatGPT’에 대해서 알고 있는 것으로 조사되었다.

 

‘ChatGPT’ 사용 목적은 ‘기능 테스트 용도’가 71.29%로 가장 높았으며, 특정한 목적을 갖고 사용한 경우는 28.71%로 조사되었으며, 주로 ‘지식을 알아보기 위한 용도’와 ‘저작물 작성에 활용’하기 위해 사용했다.  

 


@ 숲사이 Survey


‘ChatGPT’로 생성된 자료를 본인의 저작물로 사용할 수 있는지에 대한 질문에 '사용하더라도 재해석, 재구성해서 사용해야 한다'라는 응답이 44.89%로 가장 높았으며, 다음으로 '합의된 인용 표기 후 사용해도 된다'가 33.52%로 나타났다. 반면 '사용하면 안 된다'라고 응답한 경우는 10.8%로 조사되었다. 



@ 숲사이 Survey


‘ChatGPT’로 생성된 내용을 인용할 수 있는지에 관한 질문에 ‘합의가 이루어진다면 사용할 수 있다’라는 응답이 절반 이상(52.27%)으로 가장 높았으며, ‘인용할 수 없다’라고 응답한 사람도 34.09%로 나타났다. 인공지능으로 생성된 저작물을 인용하는 것에 대해서는 아직 이용자들의 간에도 다양한 의견 차이가 있어 보였지만, 현재 상태에서는 인용이란 방식으로 활용하는 것에는 전반적으로 문제가 있다는 반응이 많았다.


인용이 가능하다면 어떤 방식으로 인용하는 것이 좋은지에 대해서, 기존의 일반적인 인용 방식과는 달리 인공지능으로 생성된 자료의 특성을 고려해 다양한 인용 방법들이 제안되었다.

 

‘ChatGPT’로 생성된 저작물이 표절에 대상이 될 수 있는지에 관한 질문에 64.77%가 ‘표절의 대상이 될 수 있다’라고 응답하였다. 이는 ‘표절의 대상이 아니다(18.18%)’와 비교해 3.5배 이상 높은 응답을 보였다.

 

만약 본인이 가르치는 학생이 ‘ChatGPT’로 생성한 자료를 이용해 과제물로 제출하였다면, 과제물 평가에 영향을 미치는지에 관한 질문에 77.27%가 ‘평가에 영향이 있다’로 응답해 인공지능을 사용한 저작물에 대한 평가에 대해서 다수가 엄격한 평가 기준을 가진 것으로 나타났다. 


 

@ 숲사이 Survey


‘ChatGPT’로 생성된 자료를 활용 함에 있어 가장 중요한 윤리적 문제는 ‘창작과 독창성의 문제’로 응답한 사람이 53.41%로 가장 높았다. 다음으로 ‘표절 문제’(21.02%), ‘인용 문제’(13.64%)로 조사되었다.

 


@ 숲사이 Survey


‘ChatGPT’는 원작자의 동의 여부와 상관없이 인공지능 기술을 이용해 자료를 제공하는 것이 윤리적인 문제가 있는지에 관한 질문에 10명 중 7명 이상이 문제가 있다고 보는 것으로 조사되었다.

 

인공지능으로 생성되는 자료를 활용하는 면에서 윤리적인 문제(저작권, 인용, 표절 등)를 해결하기 위해서 바람직한 사회적 합의 방식을 묻는 질문에서는 절반 이상(53.41%)이 ‘국제적인 기준을 마련해야 한다’로 응답하였고, 다음으로 ‘분야별 종사자들의 자율적인 기준을 마련해야 한다’라고 응답한 사람은 34.66%로 나타났다. 따라서 답변을 통해 ‘국제적으로 분야별 종사자들의 커뮤니티를 통해 자율적인 기준을 마련하는 방향’을 선호하는 것으로 조사되었다.

 

@ 숲사이 Survey


'ChatGPT'에 대한 자유 의견으로는 ‘합의’, ‘활용’, ‘사용’, ‘마련’, ‘윤리’, ‘논의’, ‘사회적’ 등의 단어들이 많이 사용되었다. 내용 중에는 '미래 지향적으로 인공지능의 활용에 초점을 맞추어야 한다'는 의견, '인공지능이 어떤 자료를 근거로 학습하는지에 따라 오류/왜곡 정보들이 생산되고 활용될 수 있다는 우려'의 목소리도 있었다. '인공지능에 사용되는 자료는 인류가 함께 구축한 자료이니만큼 활용과 혜택에서도 공정하게 돌아가야 한다'는 의견 등 인공지능으로 생성된 저작물에 대해서 다양한 의견들이 제시되었다.

 

급속히 발전하는 인공지능 시대에 혼란을 최소화하면서 바람직한 활용 방향을 찾기 위해서는 윤리적인 측면에 대한 깊은 논의와 의견 수렴이 함께 수반되어 할 것으로 보인다.

 

설문 결과 보고서 보기


#인공지능윤리를묻다



ESC 진행 (예정)행사 (참여하면 넓어지는 과학 이야기)


7월 27일(토) 10:00


8월 18일(일) 15:00


8월 31일(토) 14:00

숲사이는 ESC에서 운영하는 과학기술인 커뮤니티입니다.
용약관   |   개인정보처리방침   |   공지 
(04779) 서울특별시 성동구 뚝섬로1나길 5, G601 (성수동1가, 헤이그라운드 성수 시작점) 

Copyright ⓒ 사단법인 변화를 꿈꾸는 과학기술인 네트워크(ESC) All rights reserved.    


운영진 게시판 


숲사이는 ESC에서 운영합니다.

이용약관  |  개인정보처리방침  |  공지

(04768)  서울특별시 성동구 뚝섬로1나길 5, G601

Copyright ⓒ 사단법인 변화를 꿈꾸는 과학기술인 네트워크(ESC) All rights reserved.
운영진 게시판