实施提示词防护栏
在使用 大型语言模型 (LLM) 时,提示词防护栏提供了额外的保障措施,以保护用户隐私、防止意外或有害的模型行为、阻止幻觉反应,并遵守负责任的 AI 道德标准。
在本文档中,你将了解实施提示词防护栏的一些推荐实践,包括定义允许和拒绝模式、审核内容的毒性、编校敏感信息以及阻止意外输出和幻觉。
在使用 大型语言模型 (LLM) 时,提示词防护栏提供了额外的保障措施,以保护用户隐私、防止意外或有害的模型行为、阻止幻觉反应,并遵守负责任的 AI 道德标准。
在本文档中,你将了解实施提示词防护栏的一些推荐实践,包括定义允许和拒绝模式、审核内容的毒性、编校敏感信息以及阻止意外输出和幻觉。