ai-securityprompt-injectionopen-sourcenpmdiscord-bot
一行指令擋住 92% 的提示詞攻擊 — prompt-shield 開發紀錄
我們的 Discord AI 助手每天被攻擊。掃描 1,646 個真實 AI 系統後,我們做了一個一行指令就能用的防禦工具。
·
9 分鐘閱讀
AI 安全開源Prompt InjectionLLMOWASPnpm
我們開源了 AI 防禦掃描器:200 行 regex 取代一個 LLM
大部分 AI 安全工具用 LLM 檢查 LLM。我們做了一個確定性的提示詞防禦掃描器 — 12 種攻擊向量、純 regex、1 毫秒以內、零成本。這是為什麼 regex 比 AI 更適合這件事。
·
13 分鐘閱讀