[에세이]대학 현장에서 chatGPT 활용 시 예상되는 문제들

권석준
2023-02-15


대학 현장에서 chatGPT 활용 시 예상되는 문제들


요즘 그야말로 전 지구적으로 chatGPT 열풍이 불고 있다. 작년의 메타버스, 재작년의 NFT, 그리고 그 이전의 블록체인이나 딥러닝 등의 버즈워드로 점철된 신기술과는 사뭇 다른 양상이다. chatGPT (GPT 3.5 기반)을 공개한 openAI에 따르면 공개 직후 약 2개월 반의 짧은 시간 동안 chatGPT user는 전 세계적으로 1억 명을 훌쩍 넘어가고 있고, 심지어 유료로 전환된 서비스에 대해서도 월 20달러의 구독료를 내는 구독자가 100만 명을 넘어가고 있다. 당연히 무료든 유료든 가입자, 구독자 수는 앞으로도 거의 지수함수적으로 성장할 것이고, 이는 이전의 IT 신기술과 비교해보면 양적인 측면은 물론, 질적인 측면에서도, 즉, 드디어 수익다운 수익을 '안정적으로' 낼 수 있는 수준에서의 인공지능 서비스 출현을 의미한다.

chatGPT는 기본적으로 LLM (large-language model)에 기반한 프로그램으로서, 이름에서 유추하듯 대화형 text 자동생성 프로그램이다. openAI가 학습시킨 초거대 자연어 뉴럴넷 서버가 사용자들이 입력하는 자연어 명령문을 처리한다. 그것은 특정 알고리즘을 코딩해 달라는 요청, 논문을 요약해 달라는 요청, 한국어 문서를 영어로 혹은 불어로 번역해 달라는 요청, 외로우니까 그냥 대화 좀 해달라는 요청, 비서처럼 일정 관리해 달라는 요청 등으로 사용자의 목적에 맞게 다변화될 수 있다. 물론 자연어 기반으로 작동하기 때문이다. 당연히 이를 비즈니스 측면에서 이용하려는 여러 API들도 매일 같이 등장하고 있으며, 학생들은 자신의 학습 효과를 배가시키기 위한 목적으로도 다양한 시도를 하고 있다. IT 산업 뿐만 아니라 산업 전반에 걸쳐서도 chatGPT가 가져올 충격이 예상되지만, 대학 교육 전반에 걸쳐서도, 나아가 대학원 과정에서도 큰 파급력이 생겨날 수 밖에 없음은 자명하다.

chatGPT가 대학 교육 현장에서 활용되는 것은 이미 현재진행형이다. 지난 1월에 개강한 많은 미국 대학에서는 학부생들이 과제에 chatGPT를 적극 활용하고 있음이 속속 공개되고 있으며, 교수들은 이 결과물이 chatGPT 생성물을 ctrl+c/v 한 것인지 여부를 체크하는데 평소보다 더 많은 시간과 에너지를 쓰고 있다. 대학원생들은 코앞으로 닥쳐온 학회 초록 제출 마감을 앞두고 자신의 실험 결과를 묘사한 후 그것을 논문으로 만들어 달라는 등의 목적으로 chatGPT를 적극 활용하고 있고, 어떤 연구자는 아예 자신의 논문 공저자에 chatGPT를 명시하기도 했다. Nature나 Science 등의 저명 저널들은 chatGPT를 공저자로 인정하지 않겠다는 방침을 세우기도 했고, ACS (American Chemical Society) 같은 거대 학회는 chatGPT의 활용을 제한적으로만 인정하겠다는 방침을 발표하기도 했다. 아마도 대부분의 학회나 저널의 리뷰어들은 기존에 하던 것처럼 제출된 연구 논문의 데이터와 연구 진실성을 검토하는 것에 더해, 이 논문이 chatGPT로 자동 작성된 것인지도 들여다 봐야 하는 부담이 생기고 있다. 이는 결과적으로는 더 많은 논문의 양산, 더 제한된 리뷰 과정, 그리고 결과적으로는 더 불확실한 논문의 출판으로 이어지게 될 것이다. 이는 학계의 지속가능성을 더 약하게 만드는 원인이 될 수도 있다.

대학 현장에서 chatGPT가 가져올 파급력은 연구 측면에서든, 교육 측면에서든 당연히 우리의 예상보다 더 커질 것이다. 그렇지만 교수든 학생이든, 대학원생이든, 이를 활용하기 전에 우리가 검토하고 정리해야 하는 몇 가지 포인트들이 있다. 이 글에서는 그에 대해 같이 고민하기 위해 열린 질문과 답을 공유하고자 한다. (TMI: 당연히 이 글은 chatGPT로 작성된 것은 아니다.)

1. chatGPT를 기본적인 학습 도구로 활용하는 것에 대해

-당연히 교수는 학생들이 학습을 위해 구글링하는 것을 막을 수 없듯, 이제 chatGPT를 사용하는 것을 막을 방법이 없으며, 그럴 권리도 없다. 일단 chatGPT 같은 LLM 기반의 모형을 학생들이 사용하는 것은 기정사실로 간주해야 한다.

-유료/무료 모델의 격차: 학생들 중, 월 구독료 20불 수준의 유료 모델을 사용하는 학생과 그렇지 않은 학생들 사이에 접근할 수 있는 web-materials, transformed materials, functions 등에 대한 격차가 생길 수 있다. 이는 마치 상업용 계산 패키지를 이용하여 숙제를 할 수 있는 학생과 자신이 일일이 코딩하여 숙제를 해야 하는 학생의 격차 수준으로 발전할 것이다.
-유료 모델의 기관 차원에서의 구독 문제: 기관 차원에서 다양한 scientific computation package를 구독하는 것처럼, 아마 chatGPT 역시 아카데믹 버전이 나올텐데, 기존의 package는 동시 사용자 숫자가 제한된 상태에서도 서비스에 큰 문제는 없었다. 그렇지만 chatGPT는 거의 학내 구성원 전체가 상시로 사용하게 될 것인데, 웬만한 대학 구성원이 1만 명을 넘어가는 것을 생각해 보면 기관에서 월 20만불 수준의 구독료를 감당할 수 있을 것인지가 관건이 된다.
-유료 모델의 다변화: chatGPT 무료 버전에 비해, 유료 버전은 다양한 기능에 따라 차등화 될 가능성이 높다. 예를 들어 팩트 체크 95% 이상된 버전, 80% 이상된 버전, 출처를 메타 분석하여 재정리한 버전, 그림이나 비디오를 같이 생성해주는 버전 등, 다양한 버전이 출시될 수 있다. 이는 사용자의 경제적 수준에 따라 생성된 결과물의 퀄리티, 신뢰도, 정보량에 차별을 가져올 것인데, 이를 어디까지 학생의 작업물 범위로 볼 것인지를 고민해야 한다.

2. chatGPT를 이용하여 과제 제출하는 것에 대해

-당연히 인문학이나 사회과학, 일부 이공계에서 학생들에게 내주는 writing 과제들은 대부분 chatGPT의 도전을 받게 될 것이다. 모든 term paper는 chatGPT의 도전을 받게 될 것이다. 

-학생들이 비슷한 query를 chatGPT에 입력했을 경우, 내놓는 결과물은 대동소이할 것이므로, 이들이 ctrl+c/v를 했을 경우, 그것을 잡아내는 것은 이론적으로는 가능하다.

-chatGPT가 내놓은 결과물을 스스로 혹은 quilbot 같은 다른 인공지능 소프트웨어를 이용하여 paraphrase 했을 경우, 결과물은 조금씩 달라질텐데, 그럼에도 불구하고 문장의 진행 sequence, 주요 논지, 핵심 keyword의 출현 빈도, word vector 들의 복잡도 등을 지표로 삼아 종합적인 copy rate를 평가하는 것은 가능하다. 지금도 이러한 방법으로 chatGPT 생성문을 detect하는 알고리즘은 있는데, 그 판정 결과를 어디까지 믿을 것인지, 혹은 판정 기준을 어떻게 설정할 것인지가 문제가 될 것이다.

-관건은 학생들이 chatGPT로 생성된 1차 자료를 어떻게 활용할 것인가에 대한 것. 그것을 참고하여 본인의 논지를 새로 구성하는 것까지를 인정할 것인지 혹은 어떤 범위까지 인정할 것인지가 관건이 될 것이다.

-또한 chatGPT가 제한된 토큰을 사용하여 내놓은 결과물은 대부분 출처가 불분명하며, 출처가 있는 경우에도 연결되지 않는 경우가 빈번하다. 이는 학생들로 하여금 잘못된 정보를 학습하게 만들 수 있기 때문에 문제가 될 수 있다.

-또한 chatGPT가 내놓은 결과물 자체가 잘못된 정보들의 짜깁기일 가능성이 있다. 마치 와인을 만들 때 여러 품종의 포도를 쓸 경우, 이도저도 아닌 와인이 나오는 것과 유사하다. 좋은 품종의 포도에 안 좋은 품종의 포도가 섞이면 명품 와인으로 인정받지 못 한다. 마찬가지로 잘못된 정보가 섞인 결과물은 역시 학생들의 학습에 큰 지장이 만들 수 있다. 이에 대한 크로스체크 장치가 필요하며, 기관 차원에서 기본적인 base를 공유할 필요가 있다.

3. chatGPT의 결과물 신뢰도에 대해

-학부생들의 과제는 해당 분야를 전공하고 수십 년 이상 연구한 교수들이라면 아마도 대부분 그 내용의 false/true를 판별할 수 있으나, 대학원생들이 학회 혹은 저널에 제출하기 위한 용도로 사용하는 결과물을 일일이 검지하기는 어렵다. 예를 들어 대학원생들이 논문 작성을 위해 기존 선행 연구 결과를 정리하기 위한 목적으로 literature survey를 한 결과는 문제가 될 수 있다. 선행 연구 조사는 저널에서 논문 자체의 신뢰도와 성실성을 판별하는 주요 factor가 될 수 있는데, 잘못된 선행 연구 조사는 대학원생 뿐만 아니라, PI의 reputation, 나아가 기관의 reputation을 깎아먹는 주범이 될 수 있다.

-chatGPT가 내놓은 정보의 출처가 불분명할 경우, 혹은 잘못된 정보가 citation 되었을 경우, 그것을 판별하는데 거의 동일한 혹은 그 이상의 시간과 에너지가 소모될 수 있다. 그리고 학생들, 특히 대학원생들이 1차적으로 수집된 자료를 처리하는 능력이 감퇴될 수 있다. 이는 학자로서 훈련받아야 하는 대학원생들에게는 큰 장애가 될 수 있다.

-논문 작성에 chatGPT를 활용할 수는 있으나, technical problem외에, 윤리적 문제 (예를 들어 생명과학 페이퍼) 등이 생길 경우, 어디까지 책임 소재를 물을 것인지가 관건이 될 수 있다. 기관도 이 책임에서 자유롭지 못 하다. 

-특허 작성에 chatGPT를 활용할 수 있으나, 선행 특허 조사 과정에 많은 헛점이 있으며, 이로 인해 선행 특허 조사가 부실해질 경우, 특허 거절이 될 가능성이 높다. 운좋게 특허로 등록되더라도 나중에 창업하거나 기술 이전을 할 경우 문제가 될 수 있다.

4. chatGPT의 현재성에 대해

-현재 버전의 (GPT 3.5) chatGPT는 사전에 학습된 (pre-trained) DB와 알고리즘을 기반으로 하기 때문에, 최근 (예를 들어 최근 몇 개월 정도)에 업데이트된 주요 연구 결과, 시사 상황, 환경 변화, 관계 변화 등의 정보가 제대로 업데이트되지 않을 수 있다. 새로운 것을 보고해야 하는 특성이 중요한 연구 논문에서는 이러한 문제가 생각보다 더 커질 수 있다.

-이로 인해 주요 의사결정을 업데이트 되지 않은 상황을 기반으로 내릴 경우 기관, 학생, 기업 등이 큰 피해를 볼 수 있다.

5. chatGPT의 노이즈 생산에 대해

-예를 들어 지금도 chatGPT를 이용하여 자동적으로 블로그 랜덤글이나 기사, 논문, 기술 문서 등을 수백, 수천 개씩 만들어내는 API가 나오고 있다. 

-이 과정에 생성된 글의 내용을 일일이 체크하기는 어려운데, 악화가 양화를 구축하듯, 랜덤 생성된 chatGPT 글들은 웹 상에서 노이즈를 증가시키는 요인이 될 수 있다.
-객관적인 글이 아니라, 그냥 심심풀이 문학작품을 표방할 경우, 혼란이 가중될 수도 있다.

-이 경우 기존의 구글링에 의해 올바른 정보를 찾아내는데 더 많은 시간과 에너지가 소모될 수 있다.

-오히려 chatGPT-free original web-materials 인증을 받는 것이 해당 자료의 값어치를 높여주는 역설적인 상황이 생길 수 있다.

6. chatGPT를 이용한 학생들의 창업 혹은 개발자 커리어 개발

-지금도 chatGPT는 copilot과 비슷한 수준의 일부 코딩 능력이 있다.

-그러나 복잡한 문제나 다층에 걸친 알고리즘 조합, 혹은 외부 소스에 의존해야 하는 모듈 등에 대해서는 제한 성능을 보여준다. 이 문제가 다음 버전에서 해결될 수 있을지는 불확실하다.
-수리물리학, 수치해석, 계산과학 등의 과정에서 다루는 문제들에 대해 chatGPT는 여전히 작동이 되지 않는 코드를 생성하는 경우가 빈번하다.

-chatGPT나 copilot 등으로 자동 생성된 코드들의 작동 여부, 설사 작동하더라도 올바른 결과물을 내는지 여부, 올바른 결과물을 내더라도 그것이 현재 프로젝트와 호환되는지 여부는 불확실하므로 사용자가 스스로 지속적인 체크를 할 필요로 있다. 그런데 학생 창업의 경우 고액을 받는 개발자 고용이 어려우므로, 인터넷 서비스 혹은 SaaS 기업을 창업하려는 학생들은 chatGPT를 더더욱 적극적으로 개발자처럼 활용할 것인데, 학교의 지원으로 창업하는 경우라면 이에 대한 검토가 필요하다.

-교원 창업에 대해서도 chatGPT를 활용하는 창업에 대해 책임의 소재 한계를 어디까지 설정할 것인지에 대한 고민이 필요하다.

7. chatGPT를 활용한 실험 설계

-생명 윤리와 관련된 실험 설계일 경우, chatGPT 활용에 주의를 기울일 필요가 있다. query에 이에 대한 confinement를 줄 수 있으나, 생성된 결과는 그 confinement를 만족하지 않는 경우가 빈번하다.

-생명 윤리와 관련이 없는 실험이더라도, 안전의 문제가 잠재적인 실험은 연구 책임자의 검토가 필요하다. 예를 들어 특정 화합물을 만들어내는 실험 레시피를 생성해달라는 query에 대해 chatGPT가 내놓은 recipe를 따라하다가 폭발 사고 등의 사고가 발생할 경우, 책임 소재가 불분명하다. chatGPT는 생성된 reciple에 대해 책임을 회피한다. 결국 책임 소재는 그것을 그대로 따라는 사용자가 온전히 지게 될 가능성이 높다.


8. chatGPT를 활용한 수업 설계

-교강사의 수업 설계에 대해 교육 서비스의 수요자인 학생들이 chatGPT를 이용하여 크로스체크할 가능성이 높아진다. 교강사들이 준비하는 materials에 대해 스스로 체크하는데 더 주의를 기울여야 하며, 최신 내용의 update를 더 신경쓸 필요가 있다.

-교강사가 수업 준비할 때 chatGPT를 활용하여 text-to-image, text-to-video, text-to-something의 다양한 입체적 자료를 만드는 것은 훨씬 용이해질 것이므로, 교육 효과의 배가를 위해 이를 더 적극적으로 활용할 필요는 있다.


* 본 게시물은 권석준 님이 얼룩소에 게재한 글로, 작성자의 공유 허락을 받았습니다. 게시물 사용을 허락해 주신 권석준 님께 감사드립니다.
 

#인공지능윤리를묻다



ESC 프로젝트50 (매주 넓어지는 과학 이야기)

숲사이는 ESC에서 운영하는 과학기술인 커뮤니티입니다.
용약관   |   개인정보처리방침   |   공지 
(04779) 서울특별시 성동구 뚝섬로1나길 5, G601 (성수동1가, 헤이그라운드 성수 시작점) 

Copyright ⓒ 사단법인 변화를 꿈꾸는 과학기술인 네트워크(ESC) All rights reserved.    


운영진 게시판 


숲사이는 ESC에서 운영합니다.

이용약관  |  개인정보처리방침  |  공지

(04768) 서울특별시 성동구 왕십리로 115 G410 

Copyright ⓒ 사단법인 변화를 꿈꾸는 과학기술인 네트워크(ESC) All rights reserved.
운영진 게시판