※生成AIの回答には、誤りが含まれる可能性があります。最終的な正しさは、必ず教科書・講義資料・学校や実習施設のルール(原典)と照合し、仕上げるのが前提です1)。
この記事でわかること
POINT
AIには「見出し案」「各見出しに書く観点」「チェック項目」を提案させる
抜け漏れ・順序・表現のチェックは、AIの指摘をヒントに、原典(教科書・講義資料・学校や実習施設のルールなど)と照らし合わせる
文章の整形(短文化、言い換え)の活用はOK。ただし、内容の正しさは必ず自身で責任をもつ
患者情報・施設名・記録の原文は入力しない
生成AI利用の可否・申告・引用は、学校/実習施設ルールの規定を最優先する
AI活用×手順書作成前に押さえておきたい「前提知識」
はじめに、手順書を生成AIで作成する前に理解しておくべき「生成AI活用ルール」と、迷ったときに立ち返る「手順書の基本の型」について解説します。
生成AI活用の「安全・倫理(ルール)」
まずは生成AIを活用するにあたり、看護学生として「絶対に守るべきライン」を確認しましょう。ここを外すと、個人情報の流出や剽窃(盗用)といった大きな問題につながります。
1.個人情報・機密情報の入力禁止(※最重要)
生成AIに入力した内容は、外部に送信され、意図せず情報が保持・流出するリスクがあります。「匿名化したつもり」でも、複数の情報を組み合わせることで個人や施設が特定される可能性があるので、下記のような情報は原則入力NGです。
- 氏名、ID、患者番号、顔写真、音声、画像
- 施設名、病棟名、実習指導者名
- 日付や病室など「少ない情報でも特定につながる組み合わせ」
- 看護記録の原文、検査結果、申し送り文面
※大学の指針でも、機密情報や個人情報の入力禁止が明確に示されています1)。
2.データ管理・規定・著作権の遵守
入力禁止以外に、以下の3つの観点を理解しておく必要があります。
生成AIのサーバーは国外にあることが多く、入力データが国外の事業者に流出するリスクがあります。一度流失した情報の回収・削除は困難です。学生が法的手続きを行う立場ではないからこそ、学校や実習施設の規程に従い、「入力しない」「持ち出さない」を徹底しましょう。
※個人情報保護の観点からも、外国の第三者への個人データの提供について、本人同意や情報提供の考え方が整理されています2)。生成AIの利用可否・範囲・提出時の申告方法は、学校や科目によって異なります。必ず、学校/実習施設で示されているルールに従ってください。
※大学のガイドラインでも、「AI生成文のコピペ提出は不可」「使った場合は明示」などが示されています1)。生成AIが出力した回答には、他者の著作物が含まれている可能性や、意図せず盗用・剽窃に当たるリスクが指摘されています3)。必ず確認を行ったうえで、自分の言葉で記述し直しましょう。
※文化庁は、AIと著作権に関する整理や、リスク低減のためのチェックリスト&ガイダンスを公開しています4)5)。手順書の基本・考え方
手順書とは、「誰が読んでも一定の安全水準で再現できるように整えた設計図」です。構成に迷ったら、次の「型」を意識するとすっきりまとまります。
書くときのコツとして、例えば注意点は「気をつける」で終わらせず、『何のリスクを防ぐためか』まで一言添えることです。それだけで手順の説得力が上がり、読み手にも意図が伝わります。
生成AIの使いどころ:おすすめ手順(4ステップ)
手順書の作成で生成AIを使うときは、以下の4ステップのうち「構成づくり」と「点検」に限定して活用すると、リスクを管理しながら効率的に進められます。
自分)
課題の必須項目・書式・禁止事項を確認し、教科書や講義資料(原典)を手元に用意します
生成AI)
プロンプトを入力し、生成AIに「見出し案+各見出しに書く観点」を提案してもらいます
自分 ⇔
生成AI)
原典をみながら、自分の言葉で下書きをします
AIに入力し、「抜け漏れ」「順序の違和感」「曖昧な言葉」「危険な断定」のチェックと文章整形を行います
AIからの指摘をヒントに自分で修正します
自分)
原典と照合後、各見出しについて「なぜ必要?」を1文で説明できるか確認します
※この流れは、AIリスクを使い方で管理する考え方(リスクマネジメント)にも合っています6)。
【実践例】シーン①:手順書の「見出し・構成案」を出してもらう
ここでは、実際に生成AIを使って手順書の「骨組み(見出し・構成)」を作るときのプロンプト例や、回答を活用するときの注意点などを紹介します。
今回のAI活用の目的は「手順書の『見出し・構成』を作ること」です。
AIへの質問方法
プロンプト例
「○○(看護技術名)」の手順書の見出し・構成案を考えてください。
条件
・患者や施設が特定される情報は扱わない前提で作る
・施設ルール、数値、薬剤量などは具体的に書かない(「施設の手順に従う」と書く)
・見出しは10個以内
・見出しごとに「その見出しで書く観点」を2〜4個、短い箇条書きで付ける
・安全(誤認防止、感染予防、転倒・苦痛の予防)と、観察・記録の観点が抜けないようにする
出力形式
1) 見出し案
2) 各見出しの記載ポイント
3) 最後に「原典で必ず確認すべきポイント」を3つ
AIの回答をどう活用する?
※看護技術「血圧測定」の手順書を、学校指定の型に合わせて作る場合
AIで得られた回答例
・準備(物品/環境/感染対策)
・実施前(説明/本人確認/測定条件をそろえる)
・実施(時系列で:装着→測定→結果確認)
・実施後(共有/片付け)
・注意点(誤差・苦痛・安全)
・観察/評価(数値+状態)
・記録(数値+測定条件)
・原典で必ず確認:①測定条件 ②異常時対応 ③記録項目
回答を活用するときのポイント
AI回答の「見出し案」を課題の必須項目と照合し、足りない項目だけ自分で追加する
各見出しの中身は、教科書・講義資料(原典)をみながら自分で書く(AIの文章は土台にしない)
「注意点」は、「リスク→予防策→根拠(原典確認)」の順で整理する
AIが出した見出し案は、あくまで「骨組み」です。骨組みが揃うと、書くべき内容が明確になるため、次のステップである「原典と照らし合わせて、正しい情報を記入する」作業に集中できます。
活用時の注意点
AIの回答には誤りがある前提で、必ず原典で裏付けをとる
そのままコピペせず、自分の言葉でまとめる
学校/実習施設の提出ルール(利用申告・引用)を最優先する
生成AIは、もっともらしい誤りを混ぜることがあります。出力結果はあくまで「構成のヒント」として扱い、事実確認は必ず自分で行ってください。AI生成文のコピペ提出は避け、利用の申告等は、学校/実習施設の指示に従いましょう。
- 「血圧測定」の手順書で、AIに見出し案と書く観点だけ提案してもらう
- 各見出しの中身は教科書と講義資料を確認し、自分でまとめる
- 提出前に「抜け漏れや曖昧な言葉がないか」だけAIで確認し、自分で修正する
- 学校/実習施設のルールに則り、提出時に「構成案の検討に生成AIを使用」と申告する
- 実習中の対象者情報(年齢、疾患、病室、検査値、記録の文章)を入力し、「この人にはどうする?」をAIに判断させる
- AIが作った手順を、裏付けをとらずにそのままコピペして提出する
- 施設ごとのルールや数値を確認せず、AIの回答を鵜呑みにして断定してしまう
【実践例】シーン②:下書きのチェック/文章を整えてもらう
次に、自分で書いた下書きをAIに入力し、チェックしてもらうときのプロンプト例と回答の活用の仕方を紹介します。
今回のAI活用の目的は「下書きの『抜け漏れ・順序・曖昧さ』を点検し、文章を整えること」です。
AIへの質問方法
プロンプト例
あなたの役割
内容の正しさを断定せず、手順書としての分かりやすさと安全の観点から点検してください。
やってほしいこと
1)抜けていそうな観点(最大4つ)
2)順序の違和感がある箇所と、その理由
3)曖昧な言葉(例:適宜、十分、速やかに)を指摘し、短い文に整える(新しい内容は足さない)
4)「原典で確認すべきポイント」を3つ
【下書き】
<ここに下書きを入力する>
AIの回答をどう活用する?
※匿名化した下書きを入力し、「抜け漏れ・順序・曖昧さ」だけ点検してもらう場合
AIで得られた回答例
・本人確認の記載がない
・測定条件(体位・腕の位置・安静など)が薄い
・感染対策のタイミングが不明
・記録が数値だけになっている
2)順序の違和感
・片付けが、結果確認や共有より先 → 優先順位が伝わりにくい
3)曖昧な言葉の指摘(形だけ整える)
・「適宜」「十分」「速やかに」→ 何を/いつを短い文で明確化(新情報は追加しない)
4)原典で確認:測定条件/異常時の流れ/記録に必要な項目
回答を活用するときのポイント
AIからの指摘は「修正案」ではなく「チェック項目」として扱う
指摘が正誤は、必ず教科書・講義資料(原典)で確認する
迷う点は、教員・指導者に質問して確定させる(文章でごまかさない)
「抜け漏れ」「不適切な順序」「曖昧な言葉」は、手順書の評価でよくみられる減点ポイントです。AIはここをみつけるのが得意なので、下書きを一度AIにチェックしてもらうだけで、自己添削の質が上がります。
活用時の注意点
AIに新しい情報を勝手に足させない(プロンプトで制限する)
AIが提示する出典・URLは架空の可能性があるため、必ず自分で事実確認する
実習中の判断はAIではなく、教員・指導者に仰ぐ
点検や文章を整えることが目的でも、生成AIが勝手な加筆をし、内容が原典からズレてしまうことがあります。そのため、プロンプトで「新情報は足さない」を明記しましょう。
AIはあくまで「学習の補助」です。最終的な確認と修正は必ず自分で行い、実習中の判断はAIに委ねず、指導者の指示を最優先しましょう。
※AIの文章は採用せず、あくまで指摘のみを利用する。
- 自分の下書きを匿名化してAIに入力し、「抜け漏れ観点」だけを最大4つ挙げてもらう
- その4つを教科書で確認し、必要なものだけ追記する
- 「適宜」などの曖昧な言葉を具体的な表現に直し、完成させる
- AIからの修正文を、自分で原典と照らし合わせずにそのまま提出する
- AIが提示したそれっぽい参考文献を、実走確認せずに引用する
- 実習施設のルールや手順に従わず、AIの回答で判断してしまう
【総まとめ】手順書提出前の最終チェックリスト
最後に、AIを活用して作成した手順書を提出する前に、必ず以下の項目を点検しましょう。
提出前チェックリスト
【根拠】指示・基準との矛盾の有無
Q.その記述は教科書・講義資料・施設手順(原典)のどこに書いてありますか?
【安全】患者の安全を守る視点の有無
Q.誤認防止、感染予防、転倒・苦痛予防の観点が抜けていませんか?
【観察・評価】目的と観察項目の整合性
Q.その観察項目について「何のためにみるか(目的)」が説明できますか?
【記録】記述内容とタイミングの具体性
Q.「何を、どのタイミングで、どう残すか」が具体的になっていますか?
【文章】簡潔さや曖昧さの確認
Q.1文が長すぎたり、曖昧な言葉(適宜、十分、必要に応じてなど)が多くなったりしていませんか?
【規程】AI利用の申告・引用ルールの順守
Q.学校/実習施設の「AI利用規定」に従い、必要な申告や引用を行っていますか?
やってはいけないこと
AI出力の丸写し提出(根拠確認なしの断定)
個人情報・施設名・記録原文の入力、無断共有
学校/実習施設の規程よりAIの回答を優先する
実習中の判断をAIに丸投げする(迷ったら必ず指導者へ報告・相談する)
まとめ:AIを使いこなして、より良い「手順書」に仕上げる
生成AIは、手順書の「構成づくり」と「点検(添削)」を助ける道具です。うまく使うコツは、AIに「完成文」を作らせないこと。見出し案・書く観点・チェック項目の提案や点検のみ活用し、中身の記述は必ず原典と照合して、自分の言葉で整えましょう。そのプロセスを積み重ねることが実習での評価、そして何より患者さんの安全につながります。
引用・参考文献
2)個人情報保護委員会(2016):個人情報の保護に関する法律についてのガイドライン(外国にある第三者への提供編)(平成28年11月/令和7年12月一部改正). (2025年12月28日閲覧)https://www.ppc.go.jp/personalinfo/legal/guidelines_offshore/
3)明治大学経営学部(2025):生成AIの活用に関するガイドライン.(2025年12月28日閲覧)https://www.meiji.ac.jp/keiei/6t5h7p00000ivup3-att/seiseiai.pdf
4)文化審議会著作権分科会法制度小委員会(2024):AIと著作権に関する考え方について. (2025年12月28日閲覧)https://www.bunka.go.jp/seisaku/bunkashingikai/chosakuken/pdf/94037901_01.pdf
5)文化庁著作権課(2024):AIと著作権に関するチェックリスト&ガイダンス .(2025年12月28日閲覧)https://www.bunka.go.jp/seisaku/chosakuken/pdf/94097701_01.pdf
6)National Institute of Standards and Technology(2023):Artificial Intelligence Risk Management Framework (AI RMF 1.0) (NIST AI 100-1) .(2025年12月28日閲覧)https://doi.org/10.6028/NIST.AI.100-1
・厚生労働省(2023):医療情報システムの安全管理に関するガイドライン 第6.0版 概説編.(2025年12月28日閲覧)https://www.mhlw.go.jp/content/10808000/001102570.pdf
・文化庁(2024):AIと著作権について.(2025年12月28日閲覧)https://www.bunka.go.jp/seisaku/chosakuken/aiandcopyright.html
・文部科学省(2024):初等中等教育段階における生成AIの利活用に関するガイドライン (Ver. 2.0) .(2025年12月28日閲覧)https://www.mext.go.jp/content/20241226-mxt_shuukyo02-000030823_001.pdf
・World Health Organization,編(2025):Ethics and governance of artificial intelligence for health: Guidance on large multi-modal models.World Health Organization,2025.(2025年12月28日閲覧)https://www.who.int/publications/i/item/9789240084759