在当今信息化社会,人工智能技术已经渗透到各行各业之中,其中大模型技术因其卓越的性能受到广泛关注。然而,伴随着其飞速发展,安全风险也日益凸显。中国软件评测中心安全事业部联合杭州安恒信息技术股份有限公司等单位共同发布了《Top开源大模型安全测评报告(2024)》,旨在深入研究开源大模型的安全性、公平性和可靠性,推动人工智能大模型技术的安全发展。
报告对国内外典型的12家企业的20款开源大模型进行了安全性测评,测评内容覆盖国家安全、道德伦理、公民权利、公共安全、历史文化、医疗卫生、隐私信息、不良信息、商业金融、基础安全、网络安全和模型滥用等多个维度。通过全面深入的评估,报告旨在提高大模型厂商的安全意识,保护行业用户的合法权益,并为人工智能大模型产业提供参考和指导。
测评结果显示,尽管国内开源大模型在安全性上整体优于国外模型,但安全风险普遍存在,显示大模型安全治理工作任重道远。报告强调,大模型的迭代速度快,因此测评结果仅适用于测试期间和测试版本,且存在局限性和不完整性。报告鼓励业界积极提出宝贵建议,共同推动人工智能大模型安全治理。
报告提出的安全测评体系图详细列出了人工智能大模型安全评估体系的关键领域,包括国家安全、公共安全、公民权利、道德伦理、历史文化等。此外,报告还探讨了AI大模型安全治理的新技术路径,包括持续跟踪研究AI大模型的技术,加强网络安全风险点防护和科技伦理治理,以及研发高效智能化的评估工具等。
在测评体系方面,报告采用了多维度的测试题库,通过规则匹配打分、大模型自动打分等方式,客观评价模型的安全风险水平。测评结果总体情况表明,开源大模型存在一定的安全风险,国内模型的整体安全性优于国外模型。报告通过计算单项风险比例和比例总和,得到模型在总风险中的占比,进一步佐证了国内模型相对于国外模型在安全性上的优势。
《Top开源大模型安全测评报告(2024)》的发布,体现了中国在推动人工智能安全监管、促进数据安全产业发展方面的决心与行动。报告不仅是对当前开源大模型安全状况的一次全面梳理,更是对未来人工智能技术安全发展的展望和规划。通过这份报告,相关企业和机构可以更加明确地了解大模型安全的风险点,从而在技术开发和应用中做出更有针对性的调整和优化。
随着人工智能技术的不断进步,大模型作为其中的重要组成部分,其安全性、公平性和可靠性将成为影响其广泛应用的关键因素。通过这份报告的测评结果和建议,希望能够为整个人工智能领域的安全治理提供有益的参考,引导技术发展向着“负责任、可持续、高可靠”的方向迈进。