创见(Transcend)推出了两款新的 AI 治理工具,“Do Not Train”和“Deep Deletion”,旨在为 B2B AI 公司提供增强的数据隐私控制。
这些工具解决了使用人工智能的组织之间的特定隐私问题,特别是围绕客户数据的使用和删除。随着企业越来越多地要求证明其数据没有被不当用于模型训练并按照监管要求被删除,这些担忧变得突出。
AI 数据使用控制
创见的“不训练”功能使人工智能开发人员能够在记录级别的基础上保证特定客户数据不会被用于模型训练或开发。该解决方案既满足用户偏好,也满足企业协议中经常要求的合同义务。
第二个工具是深度删除,使公司能够识别并从其数据系统中永久删除客户数据。它还提供可验证的删除记录,证明已发生删除,满足监管机构对数据擦除证明日益增长的需求。
这些机制共同使人工智能公司能够对客户数据进行全生命周期治理——防止不合规的信息进入人工智能模型,并确保在合同或法律要求时可以可靠地清除数据。
随着《通用数据保护条例》(GDPR)、欧盟人工智能法案以及不同州隐私和人工智能法规等法规的出台,人工智能供应商面临的压力越来越大,不仅要为训练数据提供选择退出,还要提供可审计的删除确认。未能提供这些保证的供应商可能会面临失去企业客户或违反新法律框架的风险。
行业采用
Transcend 报告称,其工具已经被一些全球最大的人工智能公司部署,迄今为止总共处理了超过 2 亿个工作流程。这表明提供企业级人工智能服务的供应商广泛采用。
“我们亲眼目睹了企业人工智能合同取决于供应商证明'不培训'合规性和真实数据删除的能力,”创见联合创始人兼首席执行官 Ben Brook 说。“这些功能已经在帮助人工智能原生行业领导者吸引企业客户——现在我们正在扩大它们的规模,以推动下一波负责任的人工智能采用。”
支撑这些控制的基础设施实时运行,直接在数据系统内强制执行合规性。这种方法旨在确保公司的数据处理活动与隐私承诺和监管义务保持一致,从而消除手动监督的需要。
市场背景
创见治理工具的扩展之际,越来越多的组织对训练数据的处理受到审查。欧盟人工智能法案以及国家和国际隐私法规的持续变化提高了人们对数据管理透明度的期望,特别是围绕人工智能模型开发和数据删除。
行业观察家指出,对于寻求获取或留住企业客户的供应商来说,提供强大的数据治理越来越被认为是竞争优势。随着法规的发展,对审计就绪的合规性和数据隐私的可证明行动的需求预计将继续上升。
创见的新产品使公司能够通过为供应商提供在合同谈判和监管审查期间提供其数据处理实践证明的能力来满足这些需求。该公司的解决方案旨在用自动化取代手动流程,旨在随着企业对人工智能的采用不断扩大,持续遵守隐私要求。