研究に関するコンプライアンス研修会 @ 三重大学 | 2026年3月18日(水)

『研究者のための生成AI活用』

白井 伸宙 三重大学 情報基盤センター 助教 AI推進担当学長補佐 / GAUTIリーダー
自己紹介
白井しらい 伸宙のぶひろ
Nobu C. Shirai
博士(理学)
三重大学 情報基盤センター 助教
AI推進担当 学長補佐 / GAUTIリーダー
研究
担当科目
関心・興味

前置き・おことわり

専門家ではなく、ただの利用者の一人であり、AIを推進する側の立場
講演者の立場
  • 生成AIの開発者・研究者ではなく、利用者の一人
  • 「AI推進」の旗を持っている
  • 本講演は主観に基づく主張を多く含むため、感覚に合わないものは無視すること
射程
  • 「生成AI」にはChatGPTなどの大規模言語モデル (LLM) をベースとしたチャットサービスを想定※1
  • 院生も対象だが、一部教職員向けの情報を含む
留意点
  • AI推進の立場ゆえ、主張は必然的にアクセル寄りに偏る※2
  • 生成AIの進展は非常に速く、講演内容はすぐに陳腐化する
  • 生成AIの使用頻度が高い研究者に提供できる有用な情報はほぼない

※1)API経由での使用やエージェントAIなどについては議論しません。

※2)「コンプライアンス研修会」は本来ブレーキ役が話すべき場なので、役割上の緊張があります。岸本先生の『研究におけるAI活用の倫理』がブレーキ部分だと考えてください。

ゴーチ
GAUTI生成AI活用検証イニシアチブ
Generative AI Utilization Testing Initiative(GAUTI)
GAUTIマスコット ゴチ
マスコット ゴチ
目的

三重大学の教育、研究及び事務における生成AIの活用について、その効果と課題を検証し、活用の促進を図ること

活動
  • 無償・有償の生成AIサービスの試行
  • トレンドを追跡し業務への活用方法を検討
  • 学内での活用事例の収集・共有
  • Teamsでの情報共有
  • セミナー・勉強会の開催
  • 月1回の定例ミーティング(対面・オンライン交互)
チーム概要
  • 発案:現リーダー(白井)
  • 結成支援:吉岡 基 先生(当時の情報担当理事)
  • 結成時期:2024年11月
  • チーム構成:
結成時 5名 (教員 1、技術職員 1、事務職員 3)
2026年3月 10名 (教員 1、技術職員 1、事務職員 8)

期待される役割:
生成AI活用に関する学内の相談役(現場から執行部まで用途に応じた効果的な使用法について助言)

特徴・コンセプト
  • 教職協働:教員・職員が専門性を持ち寄って実践的に検証
  • 少数精鋭:生成AIに関心の高い、新技術に前向きなメンバーをスカウト → 結果、学内屈指のチームに
  • 本務優先:本務に支障が出ない範囲で無理なく継続
  • 個人プロジェクトベース:各メンバーの業務上の課題や興味を起点にプロジェクトを計画・推進
  • 透明性:記録を残し、学内外へ積極的に情報公開
自動テキスト化サービス:教職協働で支える生成AI活用基盤
マルチメディア
マルチメディア

学内クラウド(ownCloud)で共有された音声・動画・画像・PDF文書を学内サーバに同期

テキスト
テキスト

音声・動画はWhisperで、画像・PDF文書はEasyOCRでテキスト化

生成AI
生成AI

Ollama経由でローカル生成AIで要約し、会議録などの作成を効率化

生成AIとの関係
  • 実装は生成AI支援付きプログラミングでアジャイル開発
  • ローカル生成AIによる自動要約機能をサービスに統合
  • 「マルチメディアをテキストにしてから使う」ことで、他の生成AIサービスの入力に使える
テキスト化したデータをどう生成AIで加工するかの手引き・プロンプト集も配布
教職協働:それぞれの専門性を活かしてサービスを育ててきた
教員(白井)
  • ファイル自動処理マイクロサービスの企画・設計・実装
  • textify開発・公開、処理サーバと自動処理スクリプトの構築
  • 生成AIを活用した実装・機能拡張
事務職員(池田)
  • テストユーザの募集・参加調整
  • ユーザ窓口、フィードバックの収集と要件整理
  • 会議録など具体業務での適用と学内への普及
技術職員(田ノ上)
  • 三重大学ownCloudとの連携検証・運用支援
AI Info. for Staff ロゴ
本学教職員向け
生成AIに関する情報交換コミュニティ

三重大学内の教職員が職種を超えて、生成AIに関する情報を入手し、建設的に意見交換するための Microsoft Teams 上のコミュニティ

対象:三重大学教職員 作成:GAUTI プラットフォーム:Microsoft Teams上のチーム
位置づけ
  • 生成AI活用検証イニシアチブ(GAUTI:ゴーチ)が作成した、参加者主体のコミュニティ
  • 生成AIの活用事例、気付き、悩み、最新情報を職種横断で共有する場として運用
  • コミュニティ内の投稿内容は、各参加者の個人的見解に基づく
参加時の留意点
  • 投稿内容は大学としての公式見解を示すものではない
  • 質問を投稿しても、回答やリアクションが得られるとは限らない
  • 個人情報や機密情報の投稿は行わない
  • 試行運用中のため、利便性や参加状況等に応じて運営方針を柔軟に見直す

第1部: 基礎編

三重大学での生成AI利用実態調査2024

研究効率

研究効率:生成AIを使用することで研究活動の効率が向上すると考えますか?

講義準備

講義準備:生成AIの利用が授業準備に役立つと思いますか?

業務負担

業務負担:生成AIの利用は業務の負担を軽減すると考えますか?

回答選択肢:1. まったくそう思わない 2. あまりそう思わない 3. どちらともいえない 4. ややそう思う 5. 非常にそう思う

科研費公募要領における生成AIの扱い

文部科学省 公募要領『重要事項説明』
研究計画調書の作成に当たって、生成 AI を利用することは、意図せず著作権の侵害、個人情報や機密情報の漏洩につながるリスクがありますので、このことに留意した上で研究者個人の責任において判断してください。
⚠️
著作権侵害
リスク
🔒
個人情報・機密情報
漏洩リスク
👤
研究者個人の責任で
判断
出典:文部科学省「令和6(2024)年度科学研究費助成事業-科研費-公募要領」p.2「重要事項説明」/同趣旨の文言は令和7(2025)年度公募要領でも継続

Nature誌のAI利用ポリシー概要

Authorship
AIの著者資格
  • LLMは著者資格を満たさない
    • 研究成果に対する説明責任を負えないため
  • 利用の記載義務と例外
    • 使用した場合はMethods等に適切に記載が必要
    • 「文章の推敲等」の原稿編集目的は申告不要
      (最終的な人間の責任と同意が前提)
Images
生成AI画像
  • 出版における使用は原則禁止
    • 法的著作権や研究の公正性などの問題が未解決のため
  • 例外的なケース(要明示)
    • 適法に作成された契約機関からの画像
    • AI自体を主題とする論文(個別審査)
    • 検証可能な特定の科学データに基づく生成ツール
Peer Review
査読者によるAI利用
  • 生成AIへの原稿アップロード禁止
    • 機密情報・専有情報の漏洩を防ぐため
    • AIの限界(ハルシネーション等)への懸念
  • AI支援の透明な開示
    • 評価支援にAIを利用した場合は査読報告書内で開示
Editorial
編集上の利用
  • 付随的コンテンツでの社内AI活用
    • 要約などの作成支援に独自のツールを使用する場合あり
    • 常に著者や編集者によるファクトチェックが必須

AIが主著者・査読者となる国際会議

Agents4Science 2025 のコンセプト

  • AIに主著者・査読者を義務付ける世界初となる試み的な国際会議
  • AIによる科学的発見の可能性と限界(Potential and limitations)を透明な環境で観察する
  • クレジットの帰属や検証、倫理的配慮に関する新たな規範(Norms)を確立するための生きた実験場

一次審査はすべてAIが担当

  • すべての投稿論文に対し、AIエージェントがNeurIPS基準で査読を実施
  • トップ評価の論文を人間の専門家パネルが最終評価する形で、多様なAI主導の研究が採択された

採択論文と公式声明から読み解く知見・課題

  • 自律的研究のポテンシャル:新薬発見や心理動態シミュレーションなど、多様な領域でAIが仮説構築から執筆までを実行できる実力を示した
  • 脆弱性と限界の浮き彫り:「もっともらしいが不完全な論文でAI査読者を騙せるか(BadScientist)」の検証等により、AIのみの出版ループに潜む脆弱性や複雑な推論のギャップが明白になった
  • 帰属(Attribution)と透明性:失敗例も含め、AIのプロセスから査読結果まで全てを公開することで、将来の研究における責任のあり方を議論する契機を生み出した
【参考】 日本からの参加・分析レポート(教育機関DXシンポ)

効果的なプロンプティング技術:基本の「型」

指示をいくつかの要素に分解して与えることで、AIからの回答精度と安定性が大きく向上する

P
Persona
ペルソナ
AIに演じてほしい役割や立場(例:専門家、講師)
T
Task
タスク
具体的に実行してほしい作業内容や目標(例:要約する)
C
Context
コンテキスト
背景事情、前提条件、対象読者などの制約・付加情報
F
Format
フォーマット
出力の形式(例:箇条書き、表)

プロンプト自体をAIに作らせる

🤖
AIをプロンプト・エンジニアとして使う
「〇〇をするための最適プロンプトを作って」と同僚に頼むように指示
💬
「逆質問」によるコンテキスト補完
AIからの質問に応えるだけで、条件の抜け漏れを防ぎ精度を上げられる
指示例
  • 「必要な情報があれば逆質問しなさい。」
  • 「上記の内容を出力するのに必要な情報についてまずユーザに回答を求め、その回答を元に出力するという手順を取りなさい。」

雑談プロンプト:脳内情報をぶちまける

  • 雑談プロンプティング (Think-aloud, Brain dumping)
    • 考えがまとまっていない状態でAIに話しかけ、Brain dumping(脳内情報の吐き出し) を通じて思考を言語化・整理する手法
    • 「何が分からないか分からない」「アイデアの種だけある」状態からでも対話を始められる
  • 音声入力 (Dictation) の活用
    • スマートフォンアプリ等の音声入力を活用することで、タイピングの心理的ハードルが下がり、より自然な思考の発露を促せる

反復的プロンプト改良:対話を通じた洗練

  • 反復的改良 (Iterative prompt refinement)
    • ❌:最初から一発で完璧なプロンプトを作ろうとする
    • ⭕:AIとの対話を重ねながら、徐々に条件を洗練させる
  • プロンプトの改良と検証
    • 並行投入:同じ指示を複数のAIサービスに投げ、モデルごとの特性や回答を比較する
    • 差分投入:指示を少しずつ変えながら試し、どのような調整が結果の改善に繋がるか検証する

NotebookLMを活用した資料読解のデモ

大量のPDF資料でも、AIに読み込ませることで要約の作成や、対話形式での内容確認が容易になります。
デモの題材

GitHub Education:教員・学生向け無償特典

教員・学生向け有償機能の無料提供
VS Code拡張機能からGitHub Copilot Chat利用可
Claudeの最新モデルも選択可能(Claude Opus等)

第2部: 生成AIに踊らされないための準備

研究で生成AIを使う上での留意点

1

責任

研究が社会や他の研究者に与える影響を踏まえ、AI活用に研究者が責任を持つ

2

データ統制

入力データの機密レベルを把握し、使用するAIサービスやツールを適切に選定する

3

透明性

ツール名・プロンプト・出力・編集・検証を記録し、必要に応じて開示する

研究へのAI活用は「時短」より「質の向上」

「質」の向上は早いが、「時短」はすぐには実現しない
適切なプロンプト作成や出力結果の確認には、一定の時間がかかる

⚠️ 過度な時短はリスクのサイン

導入直後に劇的に時間が減った場合、不可欠な「裏取り」や「検証」の工程を省いている可能性が高い

💡 まずは思考のパートナーとして

「早く終わらせるため」ではなく、「より深く考え、質を高めるための壁打ち相手」としての活用を推奨

「ハルシネーション」と一元的に片付けられない

  • 1

    「正誤」の境界線は曖昧

    例:非専門家にはもっともらしく見えるが、専門家から見ると「解釈の飛躍」や「過剰な単純化」が含まれている

  • 2

    自身の「グレーゾーン(専門外)」を自覚する

    確証を持てる「自身の専門領域(強固な地盤)」はどこまでか
    どこからが、AIによって拡張された知識(クレーンで手を伸ばした先)なのかを正確に把握する

  • 3

    「推測」を「事実」に変換するプロセスを挟む

    AIの出力はあくまで「仮説」や「下書き」として扱う
    一次資料へのアクセスや専門家との議論など、アナログな「裏取り(グラウンディング)」が不可欠となる

生成AIの能力を測るための3変数

コントロール変数(入力)
  • タスクの難易度 容易 ◀────────▶ 困難
  • 条件指定の詳細度 曖昧 ◀────────▶ 具体
  • 出力多様性の設定 正確 ◀────────▶ 創造
結果指標(出力)
期待充足度
設定した入力条件に対して、AIの出力が自分(または研究室)の要求水準をどれだけ満たせたか

自分と生成AIの相対的な位置関係

  • 前線に出すか、後方支援か
    • アシスト役(後方支援・壁打ち・校正)として使う場合、比較的問題は少ない
    • 生成AIの出力をそのまま「前線(公開物、申請書など)」に出す場合、より慎重な確認が必要
  • グラウンディングと「裏取り」の徹底
    • 生成AIが示す一次資料などを確認し、自分で理解しながら裏を取るステップは省けない
    • 検索エンジンを使う時と同じく、批判的に検討する従来のリサーチリテラシーを踏襲する

生成AIの多様な捉え方

1

Copilot(副操縦士)

並走するアシスタント
主導権(操縦桿)は人間が握りつつ、ドラフト作成や各種作業を支援するタスク指向の捉え方。
例:GitHub Copilot, Microsoft Copilot

2

鏡(Mirror)

社会や自己を映す装置
巨大な学習データに潜む人間の思考パターンやバイアスを反射する。AIを「神託」ではなく、自己を客観視する道具として扱う。
例:Vallor (2024)

3

壁打ちの壁 (Sounding board)

柔軟で疲れを知らない対話相手
未完成のアイデアを投げかけ、思考の言語化や多角的な視点の獲得を促す知的生産のパートナー。

「より知識のある他者」としての生成AI

  • 1

    AIを「より知識のある他者(MKO)」と捉える Tran & Rhee, 2025

    社会構成主義の枠組みにおいて、一人では到達できない「最近接発達領域(ZPD)」での学習を支援する「足場かけ(Scaffolding)」として機能する

  • 2

    人間とAIによる「知識の共同構築」

    単なる回答ツールではなく、反復的なプロンプトのやり取りを通じて「対話的環境」を作り出す。
    壁打ち相手としてソクラテス的アプローチなどの議論的対話を引き出し、批判的思考や深い理解を促す。

  • 3

    多様な背景に対応する柔軟なパートナー

    未知の分野への入口として、専門家に依存していた初期理解を自分で進めやすくなる。
    ユーザーの事前知識や学習スタイルに応じた「個別化学習」を効果的に支援する。

メタファー:「生成AIは移動式クレーン」

移動式クレーン(生成AI)

リーチ(射程)を大きく伸ばせるが、遠くへ行くほど(専門外なほど)扱える荷物(結論)は軽くなるべき

🌍 地盤(専門知識)

自分の知識・経験が広くて固いほど、AIの出力を支え安定する

📦 荷物の重さ(判断の重大さ)
  • 軽い(低リスク): アイデアの壁打ち・文章の推敲等
  • 重い(高リスク): 事実の断定・重要な意思決定等
⚠️ 避けるべき危険(横転)

弱い地盤(知識不足)のまま、遠くの重い荷物(専門外での重大判断)を無理に持ち上げると致命的な事故(誤情報拡散・責任問題)につながる

アームを伸ばし過ぎると倒れる

研究室での運用ポリシーと教育

  • 学生の利用と向き合う
    • 研究室としてのポリシーを明確にしておくことが重要
    • 生成AIの出力結果を学生と一緒に眺めながら議論する機会を作る(コーチングとしての活用)
  • 共同研究での利用
    • 企業や他機関との共同研究の場合、相手方のAI利用ポリシーも確認・遵守する

演習:AIの能力チェック

  • 目的: AIのハルシネーション(もっともらしい嘘)や「誇張」を自分で検知する経験を積む
  • 課題: 自分の専門分野について、AIに解説させてみてください
    • プロンプト例: 「私の研究分野は[OOO]です。この分野の世界のトレンドと国内のトレンドを比較し、類似点と相違点を議論しつつ、日本がトレンドをリードしているか否かについて、信頼できる資料を根拠として議論して下さい。」
  • 確認ポイント:
    • 自分の認識とどの程度差異があるか?
    • 「結論がだいぶ盛られている」と感じないか?

参考資料

生成AI関連用語集 (1)

基礎概念

まず押さえておくと、その後の活用事例や注意点を読み解きやすい8語

モデル
ニューラルネットワークモデル

人間の脳を模して設計された数理システム。複数層の人工ニューロンから成り、データ内の統計的パターンを学習して能力を獲得する。層を深く重ねたものは深層ニューラルネットワーク(DNN)と呼ばれる。

モデル
Transformer Model

ニューラルネットワークの構造の一つ。Googleの研究者らが提案したことで広く知られ、文を順番ではなく全体として処理し、離れた単語やフレーズ同士の関係も捉えやすい。

モデル
LLM

Large Language Model(大規模言語モデル)。大量の文章を学習し、次に続く言葉を予測しながら文章を生成するモデル。Transformer Modelを基盤とするものが多く、ChatGPTのような対話AIの中核をなす。

総称
生成AI

テキスト、画像、動画などのコンテンツを作り出す技術的アプローチ。大規模データ中のパターンを学習し、それに似た特徴を持つ新たな素材を自律的に構築できる。クラウド型だけでなく、手元の計算機で動かすローカル生成AIもある。

系列名
GPT

Generative Pre-trained Transformer(生成事前学習済みTransformer)。事前学習した言語モデルを基に文章生成を行う系列名であり、ChatGPTの「GPT」もこれを指す。

指示
プロンプト

AIへの指示文。役割設定、形式指定、制約付与、例示などで出力を望ましい方向へ導く。ユーザー入力に先立って裏側で与えられ、AIの役割や口調、制約を定めるものはシステムプロンプトとも呼ばれる。

推論
Chain-of-thought (CoT)

思考連鎖。答えの前に段階的な推論を促す考え方。数学、論理、多段階の判断で有用で、LLMでは「思考モード (Thinking)」などと案内されることがある。

限界
ハルシネーション

AIがもっともらしい誤情報を生成してしまう現象。生成AI活用では、このリスク管理が重要となる。

生成AI関連用語集 (2)

活用基盤

性能制約・入力形式・自動化・推論・構成要素・安全性を理解するための8語

構成要素
パラメータ

モデル内部の数値設定。層の配置や結合のような構造面と、入力に対する応答の仕方の両方に関わり、モデルの振る舞いを形作る。

単位
トークン

AIが文章を処理するときの最小単位。人間の「単語」と完全には一致せず、文字列の一部で区切られることもある。

文脈
コンテキストウィンドウ

AIが一度に参照できる情報量の上限。長い会話や長文資料を扱う際の性能に関わる。

入力
マルチモーダル

テキストだけでなく、画像、音声、動画など複数種類の情報を扱えるAIの性質。

自動化
エージェント

AIが単に返答するだけでなく、検索・要約・実行など複数の処理を段階的に進める仕組み。

検索連携
検索拡張生成

Retrieval-Augmented Generation (RAG)。外部の資料や社内文書を検索して、その結果を参照しながら回答を生成する仕組み。AI単体の記憶に頼らず、根拠ある回答を作りやすくなる。

安全性
ガードレール

危険な出力や不適切な利用を抑えるための制御ルール。安全性やコンプライアンスの観点で重要。

出力制御
温度設定

出力の決定性と創造性を調整する設定。低い値では一貫した回答、高い値では多様で発想的な応答になりやすい。

生成AI関連用語集 (3)

発展概念

追加学習・根拠付け・内部制御・能力向上に関わる8語

追加学習
ファインチューニング

既存のAIモデルを、特定の業務や表現スタイルに合わせて追加学習させること。

学習法
強化学習

行動とフィードバックの循環を通じて、よりよい意思決定戦略を学ぶ訓練手法。LLMサービスでは、人間の評価や選好を使うRLHFなどが、応答品質や安全性を調整する後続学習に使われる。

意味表現
Embedding

Embedding(埋め込み表現)。文章や画像などの意味を、数値ベクトルとして表現したもの。意味の近さを計算するために使われる。

格納先
ベクトルDB

Embedding(埋め込み表現)を保存し、「意味が近い情報」を高速に検索するためのデータベース。RAGの基盤としてよく使われる。

例示
Zero-shot/Few-shot

例を示さず指示だけで解かせるのが Zero-shot、少数の見本を添えて望ましい答え方を学習させるのが Few-shot。出力形式や判断基準を安定させるのに有効。

根拠付け
グラウンディング

モデルの出力を検証可能な情報源に結び付ける仕組み。ハルシネーションを減らし、根拠提示や監査可能性を確保しやすくする。

能力変化
創発的行動

Emergent Behavior。大規模言語モデルが示す予想外の能力。コーディング、作曲、詩作、架空の物語の創作などに及ぶことがある。

経験則
スケーリング則

モデル性能が、パラメータ数・学習データ量・計算量の拡大に応じて一定の傾向で向上するという経験則。近年はモデルサイズだけでなく、学習データ量との釣り合いも重要とされる。

生成AI活用の参考資料 (1)

生成AI活用の参考資料 (2)

生成AIに関する指針・提言

海外の大学のAI関連資料

大学事例
フロリダ大学 (UF)

独自のAI学習コンテンツを作成する際の良いリファレンスになる

米国の大学の生成AI導入の実践例

キャンパスワイドな生成AIプラットフォーム導入事例

大学 AIプラットフォーム名 学生数
アリゾナ州立大学 (ASU) CreateAI Platform 約183,000名
ミシガン大学 (U-M) U-M GPT / Maizey / GPT Toolkit 約52,855名
テネシー大学ノックスビル校 (UTK) UT Verse AI Assistant 約38,728名
カリフォルニア大学アーバイン校 (UC Irvine) ZotGPT 約37,297名
  • AIに関する取り組みで組織のブランディングを行っている
  • 上記の機関は日本の中〜大規模の大学相当のキャンパスが複数集まってできた大きな組織であり、スケールメリットを活かしている
  • それぞれ独自のプラットフォームを開発・維持するための開発者を含むチームを持っている
    • ASUのAI加速チームでは34人の常勤メンバー (開発者、セキュリティ技術者、MLOps技術者、デザイナーを含む) がいる

講演者が作成した資料

プロンプトテンプレート

プロンプトテンプレート要約
CLI Tool プロンプトテンプレート

NotebookLM:機能別の使用回数上限(2026年2月現在)

機能(日本語UI名 / 英語名) NotebookLM Standard(無償版) NotebookLM Pro
ノートブック(Notebooks)100 / ユーザ500 / ユーザ
ソース(Sources)50 / ノートブック300 / ノートブック
チャット(Chats)50 / 日500 / 日
音声解説(Audio Overviews)3 / 日20 / 日
動画解説(Video Overviews)3 / 日20 / 日
レポート(Reports)10 / 日100 / 日
フラッシュカード(Flashcards)10 / 日100 / 日
クイズ(Quizzes)10 / 日100 / 日
マインドマップ(Mind Maps)上限なし上限なし
Deep Research10 / 月20 / 日
データテーブル(Data Tables)LimitedHigher limits
インフォグラフィック(Infographics)LimitedHigher limits
Slide Decks and RevisionsLimitedHigher limits

上限値:Google公式「Upgrade NotebookLM」の Usage Limits 表に基づきます。(出典:Google Help – Upgrade NotebookLM

日本語UI機能名(音声解説/動画解説/マインドマップ/レポート/フラッシュカード/クイズ/スライド資料/インフォグラフィック等)は、NotebookLM ヘルプ(日本語)記載の表記を採用。

リセット周期:日次上限 → 24時間後 / 月次上限 → 30日後

科研費FAQにおける生成AIの取扱 (1/2)

出典:日本学術振興会「科研費FAQ」令和6年8月更新
(令和5(2023)年度科学研究費助成事業等説明会に関するFAQ(Excel/28KB)、ファイル名: 202308_koubo_faq_v2.xlsx
※ 令和6(2024)・7(2025)年度の同FAQからは生成AIに関する同様の記述はない。
Q31 生成AIのリスクとは、具体的にどのようなことを留意すれば良いのか。

AIを利用して生成した文章等は、意図せず既存の著作物に係る権利を侵害する可能性があることや、虚偽やバイアスが含まれている可能性があることを理解し、生成された内容の確認・裏付けを行うことが必要です。

また、生成AIへの入力を通じ、機密情報や個人情報が漏洩する可能性があるため、機微な情報を安易に入力することは避ける必要があります。

Q32 生成AIの利用について、機関担当者として留意すべきことは。

今回の科研費における取扱いに関して、応募者に対し、重要説明事項の内容を周知するとともに、生成AIの利用の仕方によってはリスクが生じることについて注意喚起等に努めてください。

科研費FAQにおける生成AIの取扱 (2/2)

出典:日本学術振興会「科研費FAQ」令和6年8月更新
(令和5(2023)年度科学研究費助成事業等説明会に関するFAQ(Excel/28KB)、ファイル名: 202308_koubo_faq_v2.xlsx
※ 令和6(2024)・7(2025)年度の同FAQからは生成AIに関する同様の記述はない。
Q33 機関側で生成AIの利用を制限している場合の取扱いはあるか。

科研費での研究は、研究者独自の研究計画について、研究者の自覚と責任において実施するものであることから、研究計画調書の作成に当たり、生成AIを利用することを一律には制限せず、研究者個人の責任で判断する取扱いとしております。

研究機関において生成AIの利用を禁じている場合は、科研費の取扱いに照らし、研究者とよくご相談ください。

Q34 生成AIを使用したために著作権侵害等に該当した場合、研究者及び機関に対するペナルティはあるか。

生成AIの使用の有無に関わらず、応募書類に記載した内容が虚偽であった場合や、研究計画の実施に当たり、関係法令・指針等に違反した場合には、科研費の交付をしないことや、科研費の交付を取り消すことがあります。

下段:実践によるリスクの対比

keyword glossary option-a