diff --git "a/\347\254\2541\347\253\240CUDA\347\256\200\344\273\213/\347\254\254\344\270\200\347\253\240-CUDA\347\256\200\344\273\213.md" "b/\347\254\2541\347\253\240CUDA\347\256\200\344\273\213/\347\254\254\344\270\200\347\253\240-CUDA\347\256\200\344\273\213.md" index 44de30d..743f5c9 100644 --- "a/\347\254\2541\347\253\240CUDA\347\256\200\344\273\213/\347\254\254\344\270\200\347\253\240-CUDA\347\256\200\344\273\213.md" +++ "b/\347\254\2541\347\253\240CUDA\347\256\200\344\273\213/\347\254\254\344\270\200\347\253\240-CUDA\347\256\200\344\273\213.md" @@ -34,4 +34,4 @@ CUDA并行程序模型主要为克服这一挑战而设计,其对于程序员 ![automatic-scalability.png](automatic-scalability.png) -注意:GPU 是围绕一系列流式多处理器 (SM: Streaming Multiprocessors) 构建的(有关详细信息,请参[阅硬件实现](https://docs.nvidia.com/cuda/cuda-c-programming-guide/index.html#hardware-implementation))。 多线程程序被划分为彼此独立执行的线程块,因此具有更多多处理器的 GPU 将比具有更少多处理器的 GPU 在更短的时间内完成程序执行。 +注意:GPU 是围绕一系列流式多处理器 (SM: Streaming Multiprocessors) 构建的(有关详细信息,请参阅[硬件实现](https://docs.nvidia.com/cuda/cuda-c-programming-guide/index.html#hardware-implementation))。 多线程程序被划分为彼此独立执行的线程块,因此具有更多多处理器的 GPU 将比具有更少多处理器的 GPU 在更短的时间内完成程序执行。