네이처·사이언스 등 "AI, 저자 인정 안 할 것"
ESC 챗봇 윤리문제 설문 실시 "표절 대상 될 수 있어, 기준 마련해야"

오픈 AI가 개발한 ChatGPT 등장으로 과학기술계가 술렁이고 있다. 논문 공동저자로 공식데뷔까지 마쳤는데, 사이언스와 네이처 등은 이를 인정하지 않겠다고 입장을 발표하기도 했다.[사진=오픈 AI] 
오픈 AI가 개발한 ChatGPT 등장으로 과학기술계가 술렁이고 있다. 논문 공동저자로 공식데뷔까지 마쳤는데, 사이언스와 네이처 등은 이를 인정하지 않겠다고 입장을 발표하기도 했다.[사진=오픈 AI] 

논문 쓰는 AI(인공지능) 챗봇 'ChatGPT'등장으로 과학기술계가 술렁이는 가운데 논문작성에 AI활용을 우려하는 연구자가 많은 것으로 나타났다. ChatGPT로 생성된 자료를 사용했을 때 표절의 대상이 될 가능성이 높고 연구자의 창작과 독창성에 안 좋은 영향을 끼칠 것이라는 것이 이유다. 

하지만 우려 속에도 AI는 계속 진화 중이다. 거스를 수 없는 대세인 만큼, AI챗봇 인용이나 출처를 제대로 밝히고, 사용하더라도 재해석, 재구성해 활용하는 가이드라인 마련 및 교육이 필요하다는 입장이 대립하고 있다. 

◆ 논문저자로 공식데뷔 마친 AI, 고심 깊어지는 출판계

오픈 AI가 개발한 ChatGPT는 질문을 받으면 자연스럽게 답변한다. 사람이 작성한 듯 문장이 유연하고 콘텐츠 생성과 텍스트 요약 등 강력한 성능으로 검색엔진을 대체할 차기 기술로 주목을 받고 있다. 주제를 던져주고 가사를 써달라 요청하면 작사도 한다. 입소문을 타고 ChatGPT는 출시된지 5일 만에 100만 명, 2주일 만에 200만 명의 사용자를 모았다. 이는 인스타그램이 2.5개월, 페이스북이 10개월, 넷플릭스가 3년 5개월 만에 모은 이용자와 같은 숫자다. AI서비스에서 전례 없는 기록이다. 

ChatGPT 등장으로 바빠진 곳 중 하나가 학술지다. 지난해 12월 의학 논문 사전 공개사이트인 메드아카이드 공저자 12명 중 한명으로 AI(인공지능) 챗봇 'ChatGPT'가 이름을 올렸다. 영국 맨체스터대 간호과의 시오반 오코너 교수의 국제 학술지 발표논문에도 ChatGPT가 공동 교신저자로 등재했다. 스페인 연구자들이 논문 사전공개 사이트 아카이브를 통해 공개한  신약개발에서 AI 역할 논문에도 ChatGPT가 활용됐다.

AI가 공저자로 포함된 논문.[사진=한국지능정보사회진흥원 보고서 일부]
AI가 공저자로 포함된 논문.[사진=한국지능정보사회진흥원 보고서 일부]
논문저자로 AI가 공식데뷔를 하면서 저널 편집자와 연구원, 발행인 등은 AI를 저자로 인정하는 것이 공정하느냐를 두고 논란이다. ChatGPT가 제작한 논문은 표절검사기로도 탐지하기 어렵다고 알려지며  과학기술계 고심이 깊어지고 있다. 
 
최근 네이처와 사이언스 등은 AI를 저자로 인정하지 않겠다는 입장을 발표하기도 했다. 네이처는  'ChatGPT가이드라인'을 제시하며 'ChatGPT같은 AI도구는 과학의 투명성을 위협한다. 논문저자는 연구에 대한 책임이 따르지만 AI는 그런 책임을 질 수 없다'면서 ChatGPT를 논문의 공동저자로 인정하지 않으며, AI도구를 사용하는 연구자는 방법 또는 감사의 글에 사용 여부를 밝혀야한다고 명시했다. 

사이언스편집장인 홀든 소프 교수는 네이처 인터뷰를 통해 "우리는 AI가 우리가 출판한 논문의 저자로 등재되는 것을 허용하지 않을 것이며 AI가 생성한 텍스트를 적절한 인용 없이 사용하는 것은 표절로 간주될 수 있다"고 말했다.

◆ 사용은 해봤지만···韓 과기계 "윤리 문제 우려"
 

ESC가 최근 설문을 통해 AI생산 저작물 활용에  대한 윤리인식 조사 결과를 발표했다.[사진=ESC]
ESC가 최근 설문을 통해 AI생산 저작물 활용에  대한 윤리인식 조사 결과를 발표했다.[사진=ESC]
ESC(변화를 꿈꾸는 과학기술인 네트워크)는 최근 설문을 통해 AI생산 저작물  활용에 대한 윤리인식 조사를 실시했다. 설문에는 176명이 참여했으며 과학기술자(40%), AI관련 과학기술자(6%), 일반시민(30%) 등이 응답했다. (설문 URL) 설문자 대부분은 AI 활용 논문에 대해 윤리적인 문제가 있다고 지적했다.

응답자 중 절반 이상인 57.3%는 ChatGPT를 사용해본 경험이 있다고 답했다. 그 중 상당수인 71.2%가 기능테스트 용도로 활용했으며, 일부(6.9%)는 논문이나 리포트, 보고서, 기사 등 작성에 사용하기 위해 활용한 것으로 나타났다. 

ChatGPT는 인간이 구축한 데이터를 원작자 동의여부와 상관없이 AI기술을 활용해 자연스럽게 답변한다. 이에 응답자의 19.8%가 문제가 많다고 지적했고, 51.1%가 ChatGPT 자체가 윤리적 문제가 어느 정도는 있다고 봤다.

ChatGPT로 생성된 자료를 활용했을 때 표절의 대상이 될 수 있다는데 64.7%가 동의했으며, ChatGPT 잦은 사용이 연구자의 창작과 독창성에 안 좋은 영향을 끼칠 가능성이 있다고 53.4%가 답했다. 

설문 결과 ChatGPT 자료 인용에 대해 같은 질문이라도 조건과 시간에 따라 결과물이 달라지는 만큼 당장은 어렵지만 합의가 이뤄진 후에 인용하는 방향으로 가야한다는 답이 52.2%로 가장 많았다.[사진=ESC]
ChatGPT 과학논문 공식 데뷔에 ChatGPT로 제작한 논문을 구분할 수 있는지에 대한 연구도 진행되고 있다. 한국지능정보사회진흥원의 'ChatGPT 혁신의 도구가 될 수있을까' 보고서에 따르면 일리노이주 시카고 노스웨스턴 대학연구팀은 ChatGPT로 제작한 의학연구 초록 50개를 발견할 수 있는지 테스트 한 바 있다. 결과적으로 표절검사기는 1건도 발견하지 못했고, AI출력탐지기는 66%, 과학자는 68%비율로 ChatGPT생성 초록을 확인했다.

ChatGPT 활용여부를 제대로 확인하기 어려운 만큼 응답자들은 AI로 생성된 콘텐츠를 활용하는 과정에서 생길 수 있는 저작권, 인용, 표절 등을 해결하기 위해 53.4%가 국가적인 기준이 마련돼야한다는데 공감했다. 분야별 종사자들이 자율적인 기준을 마련해야한다는 대답도 34.6%로 많았다.

특히 ChatGPT 자료를 본인의 저작물에 사용하는 것에 대해 44.8%가 '사용하더라도 재해석, 재구성해서 사용해야한다'고 봤다. ChatGPT 자료 인용에 대해서는 같은 질문이라도 조건과 시간에 따라 결과물이 달라지는 만큼 당장은 어렵지만 합의가 이뤄진 후에 인용하는 방향으로 가야한다는 답이 52.2%로 가장 많았다. 특히 인용을 하려면 최소한 ChatGPT를 활용했다 표기하거나 인용시간을 명시하는 방안 등이 제시됐다. 

이 외에도 응답자들은 챗봇 AI에 대해 "거부할 수 없는 인공지능 세상이 다가오는 만큼 이에 맞게 윤리문제도 합의해 새로운 기준을 마련해야한다", "아이디어를 얻고 활용하는 수준을 넘어 고스란히 사용해 완성된 콘텐츠를 만드는 것은 문제다", "창작이란 무엇인가에 대한 사회적 합의와 학계, 교육계의 허용 등 실질적 기준을 마련해야할 것" 등 의견을 제시했다.

저작권자 © 헬로디디 무단전재 및 재배포 금지