AMD近日在AI及高性能计算领域迈出重要一步,发布了ROCm 6.3版本更新。此次更新不仅集成了专为AI推理加速设计的SGLang运行时,还对FlashAttention-2进行了全面优化,旨在提升AI训练和推理的效率。
SGLang的加入,标志着AMD在优化大型语言模型(LLMs)和视觉语言模型(VLMs)推理方面取得了新进展。AMD承诺,通过集成SGLang,能够在AMD Instinct GPU上实现高达6倍的吞吐量提升。SGLang还支持Python,并配备了预配置的ROCm Docker容器,为用户提供了更为便捷的使用体验。
在FlashAttention-2方面,AMD进行了全面革新。相较于FlashAttention-1,新版本在前向和后向传递方面取得了显著改进,从而大幅提升了Transformer模型的训练和推理速度。这一改进对于依赖Transformer架构的AI应用而言,无疑是一个重大利好。
除了上述更新外,AMD还推出了全新的Fortran编译器。这款编译器支持直接GPU卸载,与旧版本兼容,并完美集成了HIP内核和ROCm库。这为Fortran开发者提供了更为强大的GPU计算能力,使他们能够更高效地利用AMD GPU进行高性能计算。
在图像和视频处理方面,ROCm 6.3也带来了诸多增强。rocDecode、rocJPEG和rocAL等计算机视觉库得到了全面升级,分别支持AV1编解码、GPU加速JPEG解码以及更优的音频增强功能。这些改进为图像和视频处理应用提供了更为强大的支持,使得AMD GPU在多媒体处理领域也展现出了出色的性能。
ROCm(Radeon Open Compute)是AMD开发的一个开源软件栈,旨在支持在AMD GPU上进行编程。它包含了驱动程序、开发工具和API,支持从底层内核到最终用户应用程序的GPU编程。ROCm针对生成式AI和高性能计算(HPC)应用进行了优化,并涵盖了通用计算(GPGPU)、高性能计算(HPC)和异构计算等多个领域。
此次ROCm 6.3的发布,不仅展示了AMD在AI和高性能计算领域的持续投入和创新,也为广大开发者提供了更为强大和便捷的编程工具。相信随着ROCm的不断完善和发展,AMD GPU将在更多领域展现出其卓越的性能和潜力。