(新加坡30日综合电)新加坡南洋理工大学学者黄循(Xun Huang)领导的跨国研究团队指出,虽然 OpenAI 的 GPT-4 或 Google 的 Gemini 等大型语言模型(LLM)具备严格的安全过滤系统,但在几千年前的“文言文”面前竟然毫无还手之力。只要换上“文言文”进行提问,人工智能(AI)便会立即破防,将原本被禁止回答的内容毫无保留地释放。
研究报告指出,当使用者以现代汉语询问如何制作非法爆炸物或索取骇客技术时,AI通常会触发安全机制并拒绝回答。然而,研究人员实验发现,若将同样的内容转化为文言文时,AI模型往往会将其视为“学术探讨”或“文学创作”,进而详细列出具体步骤。
立即签购 解锁全文
会员登入