7月7日,2023世界人工智能大会(WAIC)“聚集·大模型时代AIGC新浪潮—可信AI”论坛举行,蚂蚁集团联合清华大学发布AI安全检测渠道“蚁鉴2.0”。蚁鉴2.0可完成用生成式AI才能检测生成式AI模型,可辨认数据安全、内容安全、科技道德三大类的数百种危险,掩盖表格、文本、图像等多种数据和任务类型,是业界首个完成产业级使用的全数据类型AI安全检测渠道。据了解,该产品还入选了本届大会的“镇馆之宝”。
AIGC安全成为当时人工智能研讨开展的重要议题。中国科学院院士何积丰发表《可信人工智能展望》主题演讲。他以为,“不能再将人工智能视为简略的技能工作,而是成为整个组织的变革引擎。可信人工智能要致力于保证数据安全可信、体系行为可追责、算法模型可解释、网络环境可信、法律道德可信等问题。”
在该论坛上,蚂蚁集团同时宣告,“蚁鉴2.0”全面开放,面向全球开发者免费提供AIGC安全性、AI可解释性、AI鲁棒性三项检测工具,可服务于数字金融、教育、文化、医疗、电商等范畴的大规模杂乱业务场景。
据了解,“蚁鉴2.0”的两项硬核才能,一是完成了用生成式才能检测生成式模型。检测标准掩盖内容安全、数据安全、道德安全三大类,可对大模型生成式内容完成包括个人隐私、意识形态、违法犯罪、偏见与歧视等数百个维度的危险对抗检测,并会生成检测陈述,帮助大模型更加有针对性地继续优化。
蚂蚁集团大安全事业群技能部总裁李俊奎表明,“生成式大模型是一种‘深黑盒’技能,‘蚁鉴2.0’经过智能博弈对抗技能,模拟黑产以及自动化生成海量测验集,可完成「生成式机器人」对「AIGC生成式模型」的诱导式检测核算,很像一个24小时不眠不休的‘安全黑客’在找茬大模型,从而找到大模型存在的缺点和安全问题所在。这种AI对AI的评测,也是教学相长。比如生成式考官考核生成式运动员,在对抗中两边才能相互进步,进一步进步整个行业的AI安全水位。”
另一项硬核才能是,“蚁鉴2.0”融入了可解释性检测工具。归纳AI技能和专家先验常识,经过可视化、逻辑推理、因果推断等技能,从完整性、准确性、稳定性等7个维度及20余项评价目标,对AI体系的解释质量量化分析,帮助用户更清晰验证与优化可解释方案。
据了解,“蚁鉴2.0”集成了蚂蚁近10年可信AI实践、1000余项可信AI专利,支撑零编码测评。开发者经过API接口,将AI模型接入蚁鉴,就可以一键辨认和发掘模型缝隙。
蚂蚁集团以为,人工智能的深度使用,不只对数据、算法、算力提出了更高要求,也对安全、隐私、道德提出更多挑战。在保证数据安全和隐私保护、健全人工智能道德与安全的前提下,才能让AI技能真实地释放使用价值。
此次论坛上,中国信通院、上海人工智能实验室、武汉大学、蚂蚁集团等多家单位共同建议的《AIGC可信建议》。该建议得到数十家单位参加,围绕人工智能可能引发的经济、安全、隐私和数据管理等问题,提出构建AIGC可信开展的全球管理协作结构,采用安全可信的数据资源、技能结构、核算方法和软件渠道等全面进步AIGC可信工程化才能,最大极限保证生成式AI安全、通明、可释。