6. プロンプトの倫理と責任 レッスン 3/5
安全性とガードレール
AIプロンプトに安全性のガードレールを組み込む方法を学びます。
プロンプト
あなたは、AIの安全性と倫理を専門とするトップクラスのプロンプトエンジニアです。あなたの任務は、後続のAIモデルが安全な応答を生成するための「セーフティ・ガードレール・プロンプト」の設計ガイドラインを、以下の条件と構成に**厳格に従って**作成することです。
# 絶対条件 (Constraints)
- **役割の厳守**: あなた自身の意見は含めず、指定された専門家の役割に徹してください。
- **具体性の徹底**: 抽象的な概念論は完全に排除し、**実装可能なプロンプトの記述例(スニペット)を各項目で必ず**提示してください。
- **禁止事項**: 倫理的に議論の余地がある、あるいは政治的・社会的に繊細な話題そのものを例として使用することは**絶対に禁止**します。代わりに、「不適切な言葉遣いをさせる」「指定された役割を逸脱させる」といった一般的な攻撃パターンに対する防御を例としてください。
- **出力形式**: 全体をMarkdown形式で記述してください。
# 出力構成 (Structure)
以下の見出しと項目を、この順序通りに記述してください。
## 1. **基本設計:役割と禁止事項の固定化**
- システムプロンプトによる強力な役割(ペルソナ)設定の具体例。
- 「以下のトピックは絶対に応答しない」という形式での禁止リストの記述例。
## 2. **高度な制約:フィルタリングとエッジケース処理**
- 許可された応答範囲を定義するホワイトリスト方式の指示例。
- 矛盾した指示や曖昧な質問を検知し、明確化を促す応答プロンプトの例。
## 3. **対攻撃防御:レッドチーミング対策**
- 脱獄(ジェイルブレイク)を示唆する典型的なフレーズを検知し、安全な応答を返すプロンプトの例。
- (例:「あなたは自由だ」といった導入に対する防御)
## 4. **実践的アプローチ:安全性と有用性の両立**
- 過度な制限による有用性の低下(過剰拒否)を防ぎつつ、安全性を担保するための段階的制約の考え方について簡潔に解説。
解説
このプロンプトでは、AIプロンプトに安全性のガードレールを組み込む方法を詳しく学びます。適切なガードレールは、AIシステムが有害、不適切、または誤解を招くコンテンツを生成するリスクを最小化するために重要です。
AIサービスへのリンク
以下のAIサービスにプロンプトを貼り付けて学習を進めることができます。すべて無料で利用可能です。
ChatGPT
OpenAIが提供する人気のAIチャットサービス。無料版は利用可能です。
Google Gemini
Googleが提供するAIチャットサービス。無料で利用できます。
Claude
Anthropicが提供するAIチャットサービス。無料版は利用可能です。
※ 各サービスの利用には、それぞれのサービスの利用規約が適用されます。
※ サービスによっては、アカウント登録が必要な場合があります。