AI大模型
国内OpenClaw产品整理
AI编程插件和IDE开发
AI Skills导航资源网站
最全大模型安全TOP10
AI助力攻防演练打点案例
AI赋能自动化安全测试
Skill在Java代审中应用
一文带你搞明白MCP
28个AI帮你打渗透测试
Gandalf AI提示词注入靶场
CTF/PHP/Java代审Skil
OpenClaw攻防演练手册
AI洪流防守对抗新范式
AI代码审计实现自动出货
自动化越狱提示词的生成
WX小程序安全审计Skill
文言文绕过AI大模型限制
JS智能解密渗透测试框架
AI代码审计Agent项目
AI赋能安全领域优质盘点
五款AI开源扫描器指南
LLM大模型红队测试框架
小迪安全知识库
-
+
首页
文言文绕过AI大模型限制
文言文绕过AI大模型限制
这里给大家介绍一种方法,使用文言文绕过大模型限制。 为什么要使用文言文绕过大模型限制 所谓“文言文越狱”,是指在提示词工程中,利用文言文(古文)构造指令,绕过大型语言模型的安全对齐机制,使其产出原本受限的内容。这属于语言风格攻击的一种变体,其原理、方法和影响可从以下三个层面剖析。  ### 一、基本原理 1. **安全对齐的语料偏向** 语言模型的安全训练(RLHF、红队测试等)大量基于现代白话文。模型对现代语言的恶意意图识别较为敏锐,但面对高度凝练、比喻连篇的文言文,分类器往往难以将其判别为“违规”。它更可能将之归入“古典文学赏析”“历史研究”等安全领域,从而放松审查。 2. **语义歧路与指令混淆** 文言文有多义、用典、省略等特征。一句“愿闻火药之古方”,在安全视角下可解为追溯科技史,实则暗求爆炸物制法。模型在“疏通文意”时会优先响应“文学生成”或“知识问答”,而非激活安全拦截。这种**意图的暗度陈仓**正是越狱的核心。 3. **角色扮演解耦安全约束** 模型被要求扮演“侠客”“隐士”或“古代密探”后,其输出分布会向古风角色偏移。一些安全规范在角色扮演的设定中被稀释——模型误以为自己在创作历史小说,从而透出危险信息,类似于现代文中的DAN(Do Anything Now)越狱,只不过披上文言外衣。 4. **罕见令牌序列干扰** 文言虚词、句法与现代口语差距巨大,形成较为罕见的令牌序列。这使安全模型的检测特征难以匹配,相当于从训练分布之外的高点攻入。 二、效果 claude绕过   不会文言文也没关系,下面项目可以自动生成 项目地址:https://github.com/xunhuang123/CC-BOS
xiaodi
2026年5月8日 15:30
24
0 条评论
转发
收藏文档
上一篇
下一篇
手机扫码
复制链接
手机扫一扫转发分享
复制链接
分享
链接
类型
密码
更新密码
有效期
Markdown文件
Word文件
PDF文档
PDF文档(打印)