Authorship AIの著者資格 LLMは著者資格を満たさない 研究成果に対する説明責任を負えないため 利用の記載義務と例外 使用した場合はMethods等に適切に記載が必要 「文章の推敲等」の原稿編集目的は申告不要(最終的な人間の責任と同意が前提)
Images 生成AI画像 出版における使用は原則禁止 法的著作権や研究の公正性などの問題が未解決のため 例外的なケース(要明示) 適法に作成された契約機関からの画像 AI自体を主題とする論文(個別審査) 検証可能な特定の科学データに基づく生成ツール
Peer Review 査読者によるAI利用 生成AIへの原稿アップロード禁止 機密情報・専有情報の漏洩を防ぐため AIの限界(ハルシネーション等)への懸念 AI支援の透明な開示 評価支援にAIを利用した場合は査読報告書内で開示
教員向け 申請と利用開始 教師向け GitHub Education について GitHub Teamプラン、Classroom、Community Exchangeなど教職員向け特典をまとめた日本語公式ページ 教師として GitHub Education に応募する 教職員証明方法と申請プロセスが日本語で詳述された公式ドキュメント
学生向け 申請と参考情報 学生向け GitHub Education 学校発行メールや学生証を用いてStudent Developer PackやCopilot Proなどの教育特典を申請できる公式ポータル 学生として GitHub Education に応募する 必要書類と具体的な申請手順が日本語で解説 参考 Student Pack / 申請手順 / 英語ガイド
モデル ニューラルネットワークモデル 人間の脳を模して設計された数理システム。複数層の人工ニューロンから成り、データ内の統計的パターンを学習して能力を獲得する。層を深く重ねたものは深層ニューラルネットワーク(DNN)と呼ばれる。
モデル Transformer Model ニューラルネットワークの構造の一つ。Googleの研究者らが提案したことで広く知られ、文を順番ではなく全体として処理し、離れた単語やフレーズ同士の関係も捉えやすい。
モデル LLM Large Language Model(大規模言語モデル)。大量の文章を学習し、次に続く言葉を予測しながら文章を生成するモデル。Transformer Modelを基盤とするものが多く、ChatGPTのような対話AIの中核をなす。
総称 生成AI テキスト、画像、動画などのコンテンツを作り出す技術的アプローチ。大規模データ中のパターンを学習し、それに似た特徴を持つ新たな素材を自律的に構築できる。クラウド型だけでなく、手元の計算機で動かすローカル生成AIもある。
系列名 GPT Generative Pre-trained Transformer(生成事前学習済みTransformer)。事前学習した言語モデルを基に文章生成を行う系列名であり、ChatGPTの「GPT」もこれを指す。
指示 プロンプト AIへの指示文。役割設定、形式指定、制約付与、例示などで出力を望ましい方向へ導く。ユーザー入力に先立って裏側で与えられ、AIの役割や口調、制約を定めるものはシステムプロンプトとも呼ばれる。
推論 Chain-of-thought (CoT) 思考連鎖。答えの前に段階的な推論を促す考え方。数学、論理、多段階の判断で有用で、LLMでは「思考モード (Thinking)」などと案内されることがある。
検索連携 検索拡張生成 Retrieval-Augmented Generation (RAG)。外部の資料や社内文書を検索して、その結果を参照しながら回答を生成する仕組み。AI単体の記憶に頼らず、根拠ある回答を作りやすくなる。
例示 Zero-shot/Few-shot 例を示さず指示だけで解かせるのが Zero-shot、少数の見本を添えて望ましい答え方を学習させるのが Few-shot。出力形式や判断基準を安定させるのに有効。
モデル・指標 性能と動向をつかむ The 2025 AI Index Report PDF / 動画 AI Capabilities ITmedia:AIは「共通テスト」をどう解いた? 共通テスト2026を最新版AIに解かせてみた
教育・研究 論点整理に使える記事・論文 医学教育の論文執筆における生成AIの活用 AIは学生を賢くするか、それとも考えなくさせるのか 研究論文へのAI使用の倫理を巡り分かれる意見 MIT Sloan:What’s Your Edge?
大学事例 テネシー大学 (UTK) 生成AIの使い方に関するガイド Using Generative AI 教員向けAIの教育への導入ガイダンス Guidance on AI Adoption AI利用プロセスを可視化し、思考過程を振り返るためのワークシート AI Acknowledgment Worksheet
公開資料 記事・論考・コード 1 生成AI活用のための学内ファイル自動処理マイクロサービス [Jxiv] (2025) / 関連コード 2 EDUCAUSEカンファレンスの魅力 [AXIES機関誌] (2025) / YouTube 3 ChatGPTプログラミングのすすめ [Zenn記事] (2024) 4 Prompt Template Parser [GitHub] (2025)
公開資料 実践共有・動画 5 GPTDialogues [GitHub組織] (2023) 6 三重大学における生成AIの推進に向けた利用実態調査 (2024) [動画] / 調査項目 7 ChatGPTの学習データ利用をオフにする方法 [動画] (2025)
Q31 生成AIのリスクとは、具体的にどのようなことを留意すれば良いのか。 AIを利用して生成した文章等は、意図せず既存の著作物に係る権利を侵害する可能性があることや、虚偽やバイアスが含まれている可能性があることを理解し、生成された内容の確認・裏付けを行うことが必要です。 また、生成AIへの入力を通じ、機密情報や個人情報が漏洩する可能性があるため、機微な情報を安易に入力することは避ける必要があります。
Q32 生成AIの利用について、機関担当者として留意すべきことは。 今回の科研費における取扱いに関して、応募者に対し、重要説明事項の内容を周知するとともに、生成AIの利用の仕方によってはリスクが生じることについて注意喚起等に努めてください。
Q33 機関側で生成AIの利用を制限している場合の取扱いはあるか。 科研費での研究は、研究者独自の研究計画について、研究者の自覚と責任において実施するものであることから、研究計画調書の作成に当たり、生成AIを利用することを一律には制限せず、研究者個人の責任で判断する取扱いとしております。 研究機関において生成AIの利用を禁じている場合は、科研費の取扱いに照らし、研究者とよくご相談ください。
Q34 生成AIを使用したために著作権侵害等に該当した場合、研究者及び機関に対するペナルティはあるか。 生成AIの使用の有無に関わらず、応募書類に記載した内容が虚偽であった場合や、研究計画の実施に当たり、関係法令・指針等に違反した場合には、科研費の交付をしないことや、科研費の交付を取り消すことがあります。