对手可以利用这种信息泄露,推断出训练数据中包含的知 这是一个严重的问 识产权细节(例如,受商业秘密保护的敏感训练示例)或模型本身的参数细节(例如,神经网络节点之间的权重,可能受商业秘密保护)。 因为收集训练数据和训练人工智能模型以生成模型 这是一个严重的问 参数的成本可能非常高昂且耗费精力。企业有意保护这些成本。除此之外,对手只需使用人工智能模型的 API 访问,就可以推断出训练数据的内容。 大量查询探测人工智能模型,然后分析模型输出以推断训练数据的内容或模型本身的参数。
例如,对手可以使用
本文介绍了两种常见的人工智能隐私攻击,攻击者可以利用 WS电话列表 这些攻击从训练数据或人工智能模型本身的参数中提取知识产权,例如商业机密。此外,本文还概述了信息专员办公室 (ICO) 对保护训练数据中包含的知识产权的建议。ICO 是英国 仅适 这个地方政府不乏资助机会 应语 的独立机构,旨在维护数据权利。
敏感信息可以以各种不同的形式出
敏感信息包括使用安全措施(例如加密)保护的任 线数据库 何数据。敏感信息的一个示例是训练数据中包含的任何知识产权,例如商业机密。商业机密可以包括某些财务、商业、科学、技术、经济或工程数据。训练数据可以包括结构化数据(例如,包含客户私人电子邮件的数据元素)或非结构化数据(例如,聊天记录或录音中包含的客户年度支出)形式的敏感信息。