大语言模型数据训练不可避免会接触到敏感信息,如何对这些敏感信息进行处理,当前有没有什么好的办法?如果出现信息泄露,如何进行补救?
目前比较可行的是通用大模型加专业知识库的模式,专业知识库,他就很适合搞权限管理啊,大模型检索信息的时候,只检索当前用户可以访问到的数据库。
关于TWT使用指南社区专家合作厂商入驻社区企业招聘投诉建议版权与免责声明联系我们 © 2024talkwithtrend — talk with trend,talk with technologist京ICP备09031017号-30