名称: glin-profanity-mcp
描述: 为AI助手提供脏话检测工具的MCP服务器。适用于批量审核用户内容、审查评论以生成审核报告、发布前分析文本是否包含脏话,或AI在工作流程中需要内容审核能力的场景。
这是一个基于MCP(模型上下文协议)的服务器,为Claude Desktop、Cursor和Windsurf等AI助手提供脏话检测工具。
最佳适用场景: AI辅助的内容审核工作流、批量审核、审计报告以及发布前的内容验证。
添加到 ~/Library/Application Support/Claude/claude_desktop_config.json:
{
"mcpServers": {
"glin-profanity": {
"command": "npx",
"args": ["-y", "glin-profanity-mcp"]
}
}
}
添加到 .cursor/mcp.json:
{
"mcpServers": {
"glin-profanity": {
"command": "npx",
"args": ["-y", "glin-profanity-mcp"]
}
}
}
| 工具 | 描述 |
|---|---|
check_profanity |
检查文本是否包含脏话,提供详细结果 |
censor_text |
审查脏话,支持可配置的替换字符 |
batch_check |
批量检查多个文本(最多100个) |
validate_content |
获取安全评分(0-100)及操作建议 |
| 工具 | 描述 |
|---|---|
analyze_context |
上下文感知分析(医疗、游戏等特定领域) |
detect_obfuscation |
检测Leetspeak和Unicode变体等规避手段 |
explain_match |
解释文本被标记为脏话的原因 |
compare_strictness |
比较不同严格度级别下的检测结果 |
| 工具 | 描述 |
|---|---|
suggest_alternatives |
建议干净的替代词 |
analyze_corpus |
分析最多500个文本并生成统计报告 |
create_regex_pattern |
为自定义检测生成正则表达式 |
get_supported_languages |
列出所有24种支持的语言 |
| 工具 | 描述 |
|---|---|
track_user_message |
追踪用户消息,识别重复违规者 |
get_user_profile |
获取用户的审核历史记录 |
get_high_risk_users |
列出违规率高的高风险用户 |
"检查这50条用户评论,告诉我哪些需要审核"
"发布前验证这篇博客文章——使用高严格度级别"
"使用医疗领域上下文分析这篇医学文章"
"批量检查这个数组中的所有消息,只返回被标记的"
"为这些评论生成一份审核审计报告"
"解释为什么‘f4ck’被检测为脏话"
"比较这条游戏聊天消息在不同严格度级别下的结果"
"为这段被标记的文本建议专业的替代词"
"审查脏话但保留首字母"
在以下情况使用MCP服务器:
- AI辅助内容审核工作流
- 批量检查用户提交的内容
- 生成审核报告
- 发布前的内容验证
- 人机协同审核
在以下情况直接使用核心库:
- 需要自动化的实时过滤(如钩子/中间件)
- 每条消息都需检查,无需AI介入
- 对性能要求极高的应用(响应时间<1毫秒)