4 月 27 日消息,OpenAI 于 4 月 22 日发布了一款用于脱敏文本中个人身份信息 (PII) 的前沿模型 Privacy Filter。
该模型已以 Apache 2.0 许可协议在 Hugging Face 和 GitHub 平台同步开源,供开发者下载、定制及商业部署。
OpenAI 表示,开发者在自己的环境中运行这一模型后,可针对特定用例进行微调,在训练管线、索引流程、日志记录和审核环节中构建更强的隐私保护机制。
与传统依赖规则匹配的隐私过滤工具不同,OpenAI Privacy Filter 内置了更深层次的语言理解能力,能够根据上下文语境识别非结构化文本中的个人信息,在准确保留公开信息的同时,对与特定个体相关联的敏感数据进行遮盖或脱敏。
据 OpenAI 介绍,该模型采用了双向 Token 分类架构,版本总参数规模为 15 亿,但每次仅激活约 5000 万个参数,这一混合专家(MoE)设计使其能够运行于笔记本电脑甚至浏览器等资源受限的设备上。
该模型支持高达 12.8 万个 Token 的上下文窗口,单次前向传播即可对整个输入序列完成标注,并采用受限维特比算法解码出连贯的片段。
在隐私分类体系方面,Privacy Filter 可识别八类个人敏感信息:姓名(private_person)、地址(private_address)、邮箱地址(private_email)、电话号码(private_phone)、URL 链接(private_url)、日期(private_date)、账号信息(account_number,涵盖银行卡号、信用卡号等金融信息)以及机密信息(secret,如密码和 API 密钥)。
评估过程中,该模型在 PII-Masking-300k 基准测试中取得了 96% 的 F1 分数(准确率 94.04%,召回率 98.04%)。
由于 PII-Masking-300k 数据集的初始注释存在多处遗漏,OpenAI 在对评估中发现的标注问题进行修正后,模型在该修正版基准测试上的 F1 分数进一步提升至 97.43%(准确率为 96.79%,召回率为 98.08%)。
OpenAI 指出,该模型在少量数据上进行微调即可快速提升在特定领域的准确性,且能够在高精度与高召回率之间按需调整。
OpenAI 承认,Privacy Filter 并非匿名化工具,亦不替代合规认证,在法律、医疗和金融等高敏感性场景中,人工审核及领域特定的评估与微调依然是必要的。
在用户日常使用中不慎将包含个人信息的文本粘贴到 AI 工具的行为并不罕见,Privacy Filter 定位为在本地即可运行的预过滤层 —— 数据在不离开用户设备的前提下即可完成 PII 的检测与脱敏处理,此后再将已脱敏内容发送至云端 LLM,从而在使用强大 AI 服务的同时有效控制个人信息的暴露风险。



。 