저널 출판 시 생성형 AI 활용에 대한 대략적인 가이드라인은 다음과 같습니다. 다만 상세 정책은 출판사별로 다르므로, 반드시 출판하고자 하는 출판사의 정책을 확인하시기 바랍니다. 책 출판 시의 정책은 별도로 명시되므로, 여기서는 저널 출판에 중점을 둡니다. 정책은 지속적으로 업데이트되오니, 최신 내용은 각 저널의 공식 링크를 참조하시기 바랍니다 (2025년 11월 기준).
1
AI 도구 사용 명시 의무
원고 작성 과정에서 생성형 AI 도구를 사용했다면, 반드시 방법론 섹션 또는 감사의 글 등에 이를 명확히 밝혀야 합니다.
어떤 도구를 사용했고, 어떻게 활용했는지 상세히 기술해야 합니다.
2
AI의 저자 등재 금지
대부분의 학술 출판사는 생성형 AI를 저자 또는 공동 저자로 인정하지 않습니다. 저자는 연구에 대한 책임과 설명을 할 수 있는 인간이어야 하며, AI는 이 기준을 충족할 수 없습니다.
3
데이터 분석 및 이미지 생성
AI를 활용하여 데이터 분석을 수행하거나 그림, 그래프 등 시각 자료를 생성한 경우, 이 역시 명확하게 밝혀야 합니다. 특히 이미지 생성 시에는 원본 데이터의 출처와 AI 적용 방식을 투명하게 공개해야 합니다.
다만 해당 내용은 출판사별 허용의 범위(불허~제한적 허용)가 다르니 반드시 확인 후 진행하시기 바랍니다.
4
윤리적 책임 강조
AI 사용 여부와 관계없이, 모든 저자는 연구의 정확성과 윤리적 책임을 지닙니다. AI가 생성한 내용에 오류나 편향이 있을 경우, 그 책임은 전적으로 저자에게 있습니다.
각 출판사의 정책은 지속적으로 진화하고 있으며, 연구의 투명성과 신뢰성을 확보하기 위한 노력이 계속되고 있습니다. 최신 정보를 확인하는 것이 중요합니다.
주요 학술 출판사별 AI 정책 요약
주요 학술 출판사들은 생성형 AI 활용에 대한 명확한 가이드라인을 제시하고 있습니다. 특히 저자의 책임, AI의 저자 인정 여부, 그리고 AI 생성 이미지 사용에 대한 정책이 강조됩니다.
엘스비어 (Elsevier)
AI 도구는 가독성 및 언어 향상에만 사용 가능하며, 저자는 사용 내역을 명시해야 합니다. AI는 저자가 될 수 없으며, AI로 인물/이미지/아트워크 생성 및 변경은 연구 설계의 일부인 경우를 제외하고 허용되지 않습니다. 저자는 모든 내용에 대한 윤리적 책임을 집니다.
스프링거 네이처 (Springer Nature)
ChatGPT와 같은 LLM은 저자로 인정되지 않습니다. AI 지원 사본 편집(가독성/스타일 개선) 목적 외 AI 사용은 방법 섹션에 명시해야 합니다. AI 생성 이미지 및 비디오는 법적 문제로 허용되지 않으나, 예외 사항은 개별 검토 후 명확히 표기하여 사용 가능합니다.
와일리 (Wiley)
저자는 AI 도구를 보조 수단으로만 사용해야 하며, 내용의 정확성에 대한 전적인 책임이 있습니다. AI 사용 기록을 유지하고 제출 시 공개해야 합니다. AI는 저자 역할을 수행할 수 없으며, 개인정보 보호와 윤리적 사용을 강조합니다. AI 도구에 원고 업로드 제한을 명시합니다.
IEEE
AI 생성 콘텐츠(텍스트, 그림, 이미지, 코드 등) 사용 시에는 감사의 글 섹션에 AI 시스템, 사용 부분, 사용 수준을 명시해야 합니다. 편집 및 문법 개선을 위한 AI 사용도 공개하는 것이 권장됩니다. 심사 중인 원고는 공개 플랫폼을 통해 AI 처리되어서는 안 됩니다.
APS (Physical Review Journals)
ChatGPT와 같은 AI 도구는 논문 다듬기, 요약, 간단한 편집에 허용되지만, 저자는 전적인 책임을 집니다. AI는 저자 자격이 없지만, 감사의 글에 명시할 수 있습니다. AI 생성/수정 이미지는 허용되지 않으나, AI 사용이 연구 설계의 일부인 경우 방법론 섹션에 상세 설명을 요구합니다.
한국연구재단
[생성형 인공지능(AI) 도구의 책임 있는 사용을 위한 권고사항 안내] [25.9.15 개정]
한국연구재단 과제 신청자·수행자, 평가자 대상으로 4가지 권고안을 작성하여 제시하고 있습니다. 1. (비밀유지) AI 도구에 평가자료 업로드 금지 2. (정보공개) AI 도구 사용 내역 표기 권장 ※ 사용 시 표기 방식(예시) 마련 3. (검증책임) AI 도구 사용 시 자료의 신뢰성, 타당성 확보를 위한 검증 책임 명시 3. (보안책임) AI 도구에 연구자료 업로드 시 정보 유출 주의, 유출 시 연구자 책임 명시
각 출판사의 정책은 연구의 투명성, 저작권, 윤리적 책임에 중점을 두며, AI 기술의 발전과 함께 지속적으로 업데이트되고 있습니다. 연구자들은 최신 정책을 확인하고 준수하는 것이 필수적입니다.
엘스비어 (Elsevier) 생성형 AI 정책
엘스비어는 저자, 리뷰어, 편집자 각 신분별로 생성형 AI 사용에 대한 구체적인 가이드라인을 제시합니다. 연구의 투명성과 윤리성을 최우선으로 합니다.
저자 가이드라인
가독성 및 언어 향상 목적의 AI 사용은 허용되나, 반드시 원고에 명시해야 합니다.
AI는 저자로 인정되지 않으며, 모든 내용에 대한 윤리적 책임을 저자가 집니다.
AI로 생성/수정된 인물, 이미지, 아트워크는 연구 설계의 일부인 경우 외에는 허용되지 않습니다.
예외 상황 시, 방법론 섹션에 사용 내역, 모델 정보 등을 상세히 기재해야 합니다.
리뷰어 가이드라인
검토 요청 받은 원고는 기밀 문서이므로 생성형 AI 도구에 업로드할 수 없습니다.
동료 평가 보고서 작성(Peer Review) 시에도 개인정보 및 기밀 정보가 포함될 수 있어 AI 도구 사용이 엄격히 제한됩니다.
편집자 가이드라인
제출된 원고는 기밀로 취급해야 하며, 생성형 AI에 업로드해서는 안 됩니다.
이는 원고의 보안과 저자의 지적 재산권 보호를 위한 중요한 정책입니다.
엘스비어의 정책은 연구의 독창성과 신뢰를 유지하며, AI 기술을 보조 도구로 활용하도록 유도합니다. 모든 참여자는 최신 지침을 숙지하고 준수해야 합니다.
와일리는 연구의 투명성과 무결성을 보장하기 위해 생성형 AI 활용에 대한 명확한 지침을 제시합니다. 저자, 리뷰어, 편집자 각 신분별로 세부 정책을 확인하세요.
저자 가이드라인
일반 지침:
AI 기술이 콘텐츠 소유권, 저작권에 제한을 두지 않는지 약관을 검토해야 합니다.
저자는 AI를 보조 수단으로만 사용하며, 내용의 정확성에 대한 전적인 책임을 집니다.
사용한 AI 기술의 목적, 영향, 검증 방법 등을 기록하고 제출 시 공개해야 합니다.
AI가 제출물 사용을 제한하거나 권리를 획득하지 않도록 권리 보호 조항을 확인합니다.
개인정보 보호, 기밀 유지 등 윤리적 사용이 필수이며, AI의 잠재적 편향을 인지하고 완화해야 합니다.
와일리 출판 계약 약관을 준수해야 합니다.
특정 지침:
AI 기술을 사용한 원고의 모든 부분은 방법론 또는 감사의 글 섹션에 명시해야 합니다.
COPE 지침에 따라 AI는 저자 역할을 수행할 수 없으며, 저자로 등재될 수 없습니다.
리뷰어 및 편집자 가이드라인
GenAI 도구를 사용하여 동료 평가 보고서의 서면 피드백 품질을 향상시킬 수 있으나, 제출 시 반드시투명하게 신고해야 합니다.
제한적인 사용 사례 외에, 편집자 또는 리뷰어는 원고(또는 그 일부)를 AI 기술에 업로드해서는 안 됩니다.
와일리의 정책은 AI를 책임감 있게 활용하면서 연구의 신뢰성과 저자의 윤리적 의무를 최우선으로 합니다. 모든 연구 참여자는 이 지침을 숙지하고 준수해야 합니다. 자세한 사항은 해당 가이드라인을 참고하시기 바랍니다.
IEEE 생성형 AI 정책
IEEE는 학술 연구의 신뢰성과 투명성을 높이기 위해 생성형 AI 사용에 대한 명확한 지침을 제공합니다. 저자 및 리뷰어를 위한 세부 정책을 확인하세요.
저자 가이드라인
연구 내용에 AI 생성 콘텐츠(텍스트, 그림, 이미지, 코드 등)가 포함된 경우, 감사의 글 섹션에 AI 시스템, 사용된 논문의 특정 부분, 활용 수준을 명시해야 합니다.
편집 및 문법 개선을 위한 AI 사용은 권장 사항이며, 투명하게 공개하는 것이 좋습니다.
리뷰어 가이드라인
심사 중인 원고에 포함된 정보 또는 내용은 공개 플랫폼의 AI에 업로드하여심사용 문장을 생성하는 데 사용되어서는 안 됩니다.
이는 원고의 기밀성 유지와 지적 재산권 보호를 위한 중요한 원칙입니다.
IEEE의 정책은 연구의 윤리적 사용과 학술적 무결성을 강조하며, AI 기술을 책임감 있게 활용하도록 권장합니다. 자세한 사항은 해당 페이지를 통해 저널, 컨퍼런스, 잡지, 책 종류에 따른 정책 사항을 확인하세요.
APS (American Physical Society) 생성형 AI 정책 상세
APS는 학술 연구의 윤리적 무결성을 강조하며, 저자, 리뷰어, 편집자 각 신분별로 생성형 AI 사용에 대한 구체적인 정책을 제시합니다.
저자 가이드라인
논문 작성: ChatGPT와 같은 AI 도구는 논문 다듬기, 요약, 간단한 편집 작업에 사용 가능하나, 저자는 모든 내용에 전적인 책임을 집니다. AI는 저자 자격이 없지만, 감사의 글에 명시할 수 있습니다. AI 사용은 에디터에게 제출 시 공개해야 합니다.
AI 생성 이미지: 생성 AI 또는 AI 지원 도구로 생성되거나 수정된 이미지는 일반적으로 허용되지 않습니다. 단, AI 사용이 이미지 생성 및 변경에 대한 연구 설계 또는 방법론의 일부인 경우, 방법론 섹션에 사용 방식, 모델 이름, 버전 등을 상세히 명시해야 합니다.
리뷰어 가이드라인
보고서 다듬기, 요약 등 AI 도구 사용은 가능하나, 리뷰어가 전적인 책임을 지며 에디터에게 공개해야 합니다.
심사 중인 원고의 내용은 외부 AI 지원 도구에 업로드할 수 없습니다.
편집자 가이드라인
저널 웹사이트 아트워크, 이미지 제작, 표지 이미지 생성 등 APS 출판 목적의 콘텐츠 제작 시에도 생성형 AI 지침이 동일하게 적용됩니다.
APS의 정책은 AI 기술의 책임감 있는 활용을 통해 연구의 투명성과 신뢰성을 높이는 데 중점을 둡니다. 모든 연구 참여자는 이 지침을 숙지하고 준수해야 합니다.
한국연구재단에서는 재단 과제를 수행하는 연구자와 과제 평가자들을 대상으로 AI 도구를 윤리적이고 책임있게 사용하도록 24년 3월 작성한 권고사항을 25년 9월 15일 개정하여 재배포하였습니다.
과제 평가자 가이드라인
비밀유지: 한국연구재단이 지원하는 연구개발과제의 평가에 참여하는 평가위원*은 각종 평가자료**를 AI도구에 입력(업로드)하지 말아야 합니다. * 평가위원: 온,오프라인에서 서면 또는 패널 방식으로 과제의 선정, 중간(단계), 결과(최종)평가에 참여하는 위원 ** 평가자료: 연구개발계획서, 중간(단계), 결과(최종)보고서, 평가의견, 평가위원 리스트 등 과제평가와 관련된 제반 자료 => 한국연구재단의 연구개발과제 평가 등에 관여한 평가위원 등이 AI도구(생성형 AI)를 포함한 대형언어모델 및 이를 이용하는 에이전트)에 해당 연구개발과제 관련 정보를 업로드하는 행휘는 국가연구개발혁신법 제 40조 비밀유지의무에 위반될 수 있음.
과제 신청 및 수행자 가이드라인
정보공개: 한국연구재단 지원 과제의 신청자 및 수행자는 연구개발계획서 및 중간(단계)/결과(최종)보고서 작성 과정에서 AI 도구 사용 시, 해당 자료의 적절한 위치에 AI 도구 사용 내역을 기술할 것을 권장합니다.
검증책임: 한국연구재단 지원과제의 신청자 및 수행자느 연구의 전 단계에서 AI 도구를 활용할 경우, 연구자가 직접 출처를 검증하여 자료의 신뢰성 및 타당성을 확인하고 연구윤리 위반 가능성을 점검하여 필요시 수정, 보완하는 과정을 거쳐야 합니다. * AI 사용 시 발생할 수 있는 표절, 위조, 변조 등 다양한 연구진실성 위반 사례 예방 위함
보안책임: 한국연구재단 지원과제의 신청자 및 수행자는 연구의 전 단계에서 AI도구를 활용할 경우, 중요한 연구정보*가 유출되지 않도록 주의해야 합니다. * 연구정보: 연구데이터, 과제정보 및 수행자의 개인 정보 등 - 연구개발계획서 등 각종 연구자료를 AI도구에 업로드하여 연구정보 유출이 발생할 경우, AI 도구를 활용한 연구자에게 책임이 있음을 명심해야 합니다.