如果你是一名 Python 开发者Python ,曾想尝试 CUDA 却被 C/C++ 劝退,那么你终于可以松一口气了——今年 NVIDIA GTC 大会上传来了一条重磅消息:CUDA,英伟达深耕多年的并行计算平台和编程模型框架,正式加入了对 Python 的原生支持!
这意味着:Python 开发者无需再学习 C/C++,就可以用最熟悉的 Python 写代码、调库、跑模型,直接在 GPU 上高效执行算法任务Python 。作为长期以来开发者社群最为期待的能力之一,Python 原生支持的到来,无疑为 CUDA 注入了新的活力,也为数以百万计的 Python 工程师打开了加速计算的大门。
(CSDN 付费下载自视觉中国)
正式官宣:Python 成为 CUDA 原生语言
自 2006 年推出以来,CUDA 凭借其出色的并行计算性能,成为深度学习、科学计算、图像处理等领域的核心技术底座Python 。但长期以来,CUDA 的生态始终围绕 C/C++ 构建,其编程语言支持也主要集中在 C、C++ 和 Fortran 上。
虽然有诸如 PyCUDA、Numba 等第三方库实现了部分 Python 封装,但始终缺乏官方、全面、原生的 Python 集成Python 。尤其在 GitHub 2024 年度报告中 Python 超越 Java、成为了“全球最受欢迎编程语言”之后,这种不匹配越来越明显。
如今,这一切终于迎来了转折点Python 。
在 GTC 2025 中,英伟达正式宣布:CUDA 工具链将全面原生支持 Python 编程Python 。CUDA 架构师 Stephen Jones 在 GTC 技术演讲中对此表示,“我们一直在努力让加速计算与 Python 深度融合,使其成为 CUDA 技术栈中的‘一等公民’。”
CUDA 的 Python 化改造
对于添加了原生 Python 支持的CUDA,开发者可直接用 Python 编写算法,并在英伟达GPU 上高效执行,无需手动调用底层内核或依赖 C++ 接口封装Python 。
Stephen Jones 补充道:“这不仅仅是把原来的 C 语言翻译成 Python,而是要让 Python 保持本色,让 Python 开发者也感到自然Python 。”
英伟达也强调,此次更新重新设计了一套真正符合 Python 编程习惯的 CUDA 开发模型,包括 API、库、执行方式和性能优化手段Python 。开发者可以像使用 NumPy、PyTorch 那样,用 Python 脚本直接编写和调用 GPU 加速逻辑。
换句话说,英伟达对CUDA 不是简单的语法包装,而是一次从运行时到编程模型的 Python 化重构Python 。具体来看,英伟达提供了:
(1)CUDA Core:重新设计的运行时系统Python ,支持完全的 Python 编程体验,执行流程也更贴近 Python 风格;
(2)cuPyNumeric:NumPy 的 GPU 加速替代品Python ,修改一行 import 即可将代码从 CPU 迁移至 GPU;
(3)NVMath Python:统一接口库Python ,支持在 host 和 device 两端调用各种库函数,这些函数调用支持自动融合(fusing),可带来明显的性能提升;
(4)采用 JIT 编译:几乎不依赖传统编译器Python ,大幅减少依赖链复杂度,提高执行效率和可移植性;
(5)全套的分析工具支持:包括性能分析器、代码静态分析器等,帮助开发者进行性能调优Python 。
除此之外,传统 CUDA 强调线程(thread)、块(block)等显式控制方式,而 Python 工程师则更熟悉“数组思维”——以矩阵、张量、向量等结构为基础组织计算Python 。为此,英伟达还推出了全新编程模型 CuTile,它更像是面向数组、张量的抽象,更贴近 Python 开发者的思维模式。
CuTile 模型强调以 tile(小块)为基本计算单元进行调度,每个 tile 包含若干数据元素,由编译器负责自动映射到底层线程执行,从而实现高效的 GPU 加速Python 。Stephen Jones 解释道,“相比线程,tile 更贴近 Python 语言的哲学;它足够高效,性能也不输 C++。”——tile 中的数据可以是向量、张量或数组,编译器可以更好地将整个数组操作映射到 GPU。
最终实现既保留了 CUDA 的性能优势,又贴近 Python 的开发习惯Python 。
接下来还有什么值得期待Python ?
根据市场研究机构 The Futurum Group 数据,2023 年全球 CUDA 开发者数量约为 400 万人Python 。而与之相比,Python 开发者群体则以指数级增长,在全球范围内已突破数千万,尤其在印度、巴西等新兴市场展现出强大活力。
英伟达此次为 CUDA 添加原生 Python 支持,无疑将把这批人拉入 CUDA 生态中Python 。无论你是 AI 工程师、科研人员,还是对 GPU 加速感兴趣的 Python 爱好者,这波更新无疑是一个好消息。
更为重要的是,英伟达在 GTC大会上还透露:接下来还将在 CUDA 中支持 Rust、Julia 等语言,进一步扩大其多语言生态Python 。也就是说,CUDA 不再设置“语言门槛”,正在从“专业工具”向“通用平台”演化,未来不再只有系统级程序员才能玩转 CUDA。
参考链接:/