近期,人工智能领域迎来了新的进展,OpenAI公司于本周一正式推出了GPT-4.1系列AI模型。据公司介绍,该模型在多项测试中表现突出,特别是在编程基准测试方面,相较于其现有的一些模型,展现出了更为优越的性能。然而,与以往OpenAI模型发布时伴随的安全报告(系统卡)不同,GPT-4.1的发布并未附带这一关键文档。
直至周二上午,OpenAI仍未发布关于GPT-4.1的安全报告,且从目前的情况来看,公司似乎并无此打算。对此,OpenAI发言人Shaokyi Amdo向TechCrunch发表声明称:“GPT-4.1并非我们最前沿的模型,因此不会为其发布单独的系统卡。”这一表态引发了业界的广泛关注和讨论。
通常,人工智能实验室在发布新模型时,会同步发布安全报告,详细展示其内部以及与第三方合作伙伴所开展的测试类型,以此评估模型的安全性。这些报告往往能够揭示模型可能存在的问题,如欺骗人类或具有危险的说服力等。在人工智能界,普遍认为发布安全报告是实验室支持独立研究和红队测试的诚意体现。
然而,近期一些领先的人工智能实验室在报告标准上似乎有所降低,这引发了安全研究人员的强烈不满。例如,谷歌在发布安全报告方面行动迟缓,而其他一些实验室发布的报告则缺乏以往的详细程度。OpenAI在这一方面也同样受到了批评。去年12月,该公司因发布了一份与实际部署生产版本不符的模型基准结果的安全报告而受到业界质疑。上个月,OpenAI在发布“深度研究”模型后数周,才姗姗来迟地发布了该模型的系统卡。
值得注意的是,此次GPT-4.1未发布系统卡的背景颇为复杂。近年来,OpenAI的现员工和前员工对其安全实践提出了诸多担忧。上周,前OpenAI安全研究员Steven Adler与其他11名前员工在埃隆·马斯克起诉OpenAI的案件中提交了一份拟议的法庭之友简报,指出营利性质的OpenAI可能会削减在安全工作上的投入。《金融时报》最近报道称,由于竞争压力,OpenAI已经减少了分配给安全测试人员的时间和资源。
尽管GPT-4.1并非OpenAI旗下性能最高的AI模型,但其在效率和延迟方面取得了显著进步。对此,Secure AI Project的联合创始人兼政策分析师Thomas Woodside表示,性能的提升使得安全报告变得更加重要。他认为,模型越复杂,其可能带来的风险就越高,因此必须更加重视安全测试和评估工作。
目前许多人工智能实验室一直在抵制将安全报告要求纳入法律的努力。例如,OpenAI曾反对加州的SB 1047法案,该法案要求许多人工智能开发商对其公开发布的模型进行审计并发布安全评估。这一立场引发了业界的广泛争议和讨论。
面对这一系列争议和挑战,OpenAI需要更加审慎地考虑其安全实践和透明度问题。毕竟,在人工智能快速发展的今天,确保模型的安全性和可靠性是至关重要的。未来,OpenAI能否在保持技术创新的同时,加强安全测试和评估工作,将直接关系到其在人工智能领域的竞争力和影响力。