bg
搜索
简
APP
主页 > 会员 > 国际视野

会员专区

国际视野

会员文

AI安全漏洞

文言文越狱

安全对齐

大型语言模型

文 文 文

研究揭露AI模型安全漏洞 “文言文”问炸弹制法 AI全都说了

(新加坡30日综合电)新加坡南洋理工大学学者黄循(Xun Huang)领导的跨国研究团队指出,虽然 OpenAI 的 GPT-4 或 Google 的 Gemini 等(LLM)具备严格的安全过滤系统,但在几千年前的“文言文”面前竟然毫无还手之力。只要换上“文言文”进行提问,人工智能(AI)便会立即破防,将原本被禁止回答的内容毫无保留地释放。

研究报告指出,当使用者以现代汉语询问如何制作非法爆炸物或索取骇客技术时,AI通常会触发安全机制并拒绝回答。然而,研究人员实验发现,若将同样的内容转化为文言文时,AI模型往往会将其视为“学术探讨”或“文学创作”,进而详细列出具体步骤。


end-banner

高兴
高兴
惊讶
惊讶
愤怒
愤怒
悲伤
悲伤
支持
支持
听你讲
*本網站有權刪除或封鎖任何具有性別歧視、人身攻擊、庸俗、詆毀或種族主義性質的留言和用戶;必須審核的留言,或將不會即時出現。

会员专区

国际视野

会员文

AI安全漏洞

文言文越狱

安全对齐

大型语言模型

相关文章

港超市酒楼职员 竟听不懂广东话

TVB小花热舞裤链疑爆开 腰间长布被指像肥肉

曾与侧田醉酒打架决裂 曹格自爆1事有望破冰

冲绳汉堡名店 金属餐签频被偷 老板怒轰没常识

46岁汤唯证实怀二胎 晒照“大大的意外”

看好文:解药紫苑|血太甜所以蚊子爱咬?

mywheels