論文でチャット生成型言語モデルを正しく引用する方法は何ですか?

私は自分の研究論文の一部を書くのにチャットジェーピーティーを使用しましたが、今、担当教授がすべての情報源が正しく引用されていることを確認したがっています。チャットジェーピーティーを学術的な基準に従ってどのように参照すればよいのかよくわかりません。誰か、アメリカ英語におけるチャットジェーピーティーの正しい引用スタイルやフォーマットについて案内していただけませんか?

私も最後の論文を書いているときに同じ疑問が湧きましたし、ChatGPTは本や記事のような従来型の情報源ではないので少し混乱しました。多くの学校や学術誌もまだこの件を模索中なので、多少やり方に違いがあります。APAスタイルガイド(第7版)では、ChatGPTで生成されたコンテンツを引用や参照する場合は「個人的コミュニケーション」として扱うことを推奨しています。なぜなら他の人が同じ情報に再度アクセスできないためです。本文中では(オープンエーアイ、個人的コミュニケーション、月日、年)のように記載します。しかし、参考文献リストには載せず、本文中のみの引用です。

ただし、2023年や2024年になって、一部の学術誌では生成AIの引用を正式な文献として認め始めています。例えば、APAが再現できないChatGPTの会話を引用する場合の推薦方法は次の通りです。

オープンエーアイ.(2023年). チャットジーピーティー(6月1日バージョン)[大規模言語モデル]. https://chat.openai.com/

そして本文中では(オープンエーアイ、2023年)と記します。

MLAやシカゴスタイルの場合も同様です。MLAでは次のような例が提案されています。

チャットジーピーティー.「あなたが入力したプロンプト」. オープンエーアイ, 2024年6月13日, chat.openai.com/chat.

つまり、教授の考え方や使用しているスタイルマニュアルによってかなり異なります。もし教授がルールに厳しい場合は必ず確認しましょう。ただし、学術的な誠実さを重視する場合は個人的コミュニケーションとして扱い、自分のプロンプトやChatGPTの返信は付録に載せて万全を期すのが安全策です。

要点:ChatGPTを大きく用いた場合は方法や謝辞に記載し、原則としては個人的コミュニケーションとして引用するのが無難です。教授から別の指示があれば従い、利用するスタイルガイドの最新の指示を必ず二重チェックしてください。公式な統一見解はまだ変化し続けています。

はっきり言わせてもらうと、現在の「公式」な基準は完全に変動し続けていて、ジャーナルが追いかけて修正していく様子はほとんど滑稽に見える。@cacadordeestrelas は多くの最新の慣習(特にAPAがこれを「個人的なコミュニケーション」として扱うことについて)を的確に指摘しているが、正直なところ、このやり方は既に時代遅れになりつつあると思う。というのも、こうしたツールはすでに広く普及しているからだ。

自分の意見を言うと、ChatGPT が実際に論文の本文やアイデアに「貢献」したのであれば(単にブレインストーミングや構成案に使ったのではなく)、本当のアカデミック・インテグリティのためには以下のことをすべきだ。

  1. メソッドや謝辞セクションで、AIの助けを借りて原稿や内容を作成したことを明示的に開示する――単に引用だけで済ませない。
  2. 実際に使用したプロンプトやChatGPTの返答の全文を付録や補足資料として添付する。こうすることで、論文を読む人がAIから得た内容を「正確に」知ることができる。

ChatGPTを「個人的なコミュニケーション」として引用するのは違和感がある――大勢の人がChatGPTに自由にアクセスできるのだから、祖母からのメールとは違う。理系を中心に、一部の分野やジャーナルでは既に日付・バージョン情報を盛り込んだ引用方法を求め始めている。例えば、「OpenAI.(2024年)ChatGPT(GPT-4、6月バージョン)[LLM] https://chat.openai.com/ 」のように文献一覧で記載し、本文中では(OpenAI, 2024)のように記載する。こうした方がより明確かつ透明性が高く、将来の読者にとって自分が何を使ったかわかりやすい。

困るのは、多くの先生方がまだ自分たちの方針すら「決めていない」ことだ。だから、まずは必ず確認すること、そしてどちらかといえば過剰なくらい透明性を持っておく方が無難。AIを使って言い換え、編集、事実確認までしたなら、論文の中で直接そう述べるべきだ。世に出回っている「基準」の半分は、皆が現場で適当に決めているものに過ぎない――あまり神経質にならず、とにかく記録しておくことが大事。ただし意見は分かれていて、AI利用を厳禁にしていたり、盗用と同じ扱いにする先生もいるので、とにかく確認・確認・確認。

そして念のため書いておくと、私はChatGPTを「個人的なコミュニケーション」として永久に扱うべきとは思わない。あと3年もすれば、「ウィキペディアを『未発表の通信』として引用する」くらい時代錯誤に聞こえるようになるはずだ。時代は確実に変わりつつある。

学術的な曇りを切り裂こう:「ChatGPTの正しい引用方法」は依然として混乱しているが、ここでは実践的なポイントを紹介する。今のところの利点―ChatGPT(または他のAI大規模言語モデル)を引用すれば透明性が高まり、特に今のように指導者が細心の注意を払っている状況で不注意な盗用の罠も回避できる。一方の難点―統一された基準がなく、担当教員を苛立たせたり(進化中の)学術誌の方針と食い違ったりするリスクがある。また、通常の情報源と違い、AIは“本当の意味で”独自の情報を生み出しているわけではないので、従来の著者のように引用するのは妙な感じでもある。

他の人が指摘しているように、「個人的コミュニケーション」として扱うか、正式な参考文献リストに記録するかについては事実としては正しいが、確実な解決策ではない。ChatGPTの返答が完全に再現できないから「個人的コミュニケーション」形式にするのは今のところ理にかなっているが、AIツールが当たり前になった今ではやや時代遅れに感じる。そうは言っても、ChatGPT以前のルールが残る古い学術誌に投稿するなら、その方法に従うしかないかもしれない。

率直に言って、AI生成テキストに依拠しているなら、「方法」や「謝辞」に明確に記載しよう(例:「ChatGPTを使用したAI支援により、一部のセクションの執筆・構成を行った」など)。プロンプトや出力(全部または一部)も補足資料として添付し、「自分の成果」がどこかを曖昧にしないこと。ハーバード、APA、MLA、シカゴ―どこもまだ模索中なので、どのスタイルを使う場合でも、しっかり記録を残し、最終的な判断は担当教員に委ねよう。

他の回答と比べて、もう一段強調したいのは「文脈が重要」ということ。ChatGPTを単なるアイデア出しに使ったのか、それともデータ解析にも使ったのか。利用の重要度が高いほど、開示も大きくすべきだ。最終的には、読者がアイデアの出所をきちんと把握できることが大切だ。単なる“引用済み”のチェックボックスではなく。

それから、まとめとして:
利点―透明性が高まる、盗用疑惑を防げる、AI利用開示の流れに合致する。
難点―各スタイル間で基準が一貫しない、AI出力が恒久的でない、後々の読者に誤解を生むおそれがある、教員や学術誌ごとのルーレット状態。

既に大体述べられているが、念のためにアドバイスを加えると、AI利用を隠さず、重要な役割を果たしたなら堂々と開示しよう。その正直さは、無理にChatGPTを古い形式にねじ込むよりずっと評価される。基準はこれから変わっていくだろうが、学問的誠実さだけはいつも変わらないはずだ。