在這個數組訪問微基準測試中(相對于GCC),Go的性能損失了4倍,是什么原因造成的?這個問題涉及到Go語言的運行時機制和編譯器優化等多個方面。首先,Go語言在數組訪問時使用了邊界檢查機制,即在每次訪問數組元素時都會進行邊界檢查,這會帶來一定的性能損失。其次,Go語言的編譯器在優化方面相對較弱,無法對數組訪問進行很好的優化。此外,Go語言的垃圾回收機制也會對性能造成一定的影響。綜上所述,這些因素共同導致了Go語言在數組訪問微基準測試中性能損失了4倍的情況。
問題內容
我編寫這個微基準測試是為了更好地了解 go 的性能特征,以便我能夠在何時使用它方面做出明智的選擇。
從性能開銷的角度來看,我認為這將是 go 的理想場景:
循環內沒有分配/釋放
數組訪問顯然在邊界內(可以刪除邊界檢查)
盡管如此,我發現相對于 amd64 上的 gcc -o3
速度有 4 倍的差異。這是為什么?
(使用shell計時。每次需要幾秒鐘,因此啟動可以忽略不計)
package main import "fmt" func main() { fmt.println("started"); var n int32 = 1024 * 32 a := make([]int32, n, n) b := make([]int32, n, n) var it, i, j int32 for i = 0; i < n; i++ { a[i] = i b[i] = -i } var r int32 = 10 var sum int32 = 0 for it = 0; it < r; it++ { for i = 0; i < n; i++ { for j = 0; j < n; j++ { sum += (a[i] + b[j]) * (it + 1) } } } fmt.printf("n = %d, r = %d, sum = %d\n", n, r, sum) }
登錄后復制
c 版本:
#include #include int main() { printf("started\n"); int32_t n = 1024 * 32; int32_t* a = malloc(sizeof(int32_t) * n); int32_t* b = malloc(sizeof(int32_t) * n); for(int32_t i = 0; i < n; ++i) { a[i] = i; b[i] = -i; } int32_t r = 10; int32_t sum = 0; for(int32_t it = 0; it < r; ++it) { for(int32_t i = 0; i < n; ++i) { for(int32_t j = 0; j < n; ++j) { sum += (a[i] + b[j]) * (it + 1); } } } printf("n = %d, r = %d, sum = %d\n", n, r, sum); free(a); free(b); }
登錄后復制
更新:
按照建議使用 range
,可以將 go 速度提高 2 倍。
另一方面,在我的測試中,-march=native
將 c 速度提高了 2 倍。 (并且-mno-sse
給出編譯錯誤,顯然與-o3
不兼容)
gccgo 在這里看起來與 gcc 相當(并且不需要 range
)
解決方法
看看 C 程序與 Go 程序的匯編程序輸出,至少在我使用的 Go 和 GCC 版本(分別為 1.19.6 和 12.2.0)上,最直接和明顯的區別是 GCC自動向量化 C 程序,而 Go 編譯器似乎無法做到這一點。
這也很好地解釋了為什么您會看到性能提高了四倍,因為 GCC 在不針對特定架構時使用 SSE 而不是 AVX,這意味著 32 位標量指令寬度是四倍運營。事實上,添加 -march=native
為我帶來了兩倍的性能提升,因為這使得 GCC 在我的 CPU 上輸出 AVX 代碼。
我對 Go 還不夠熟悉,無法告訴你 Go 編譯器是否本質上無法進行自動向量化,或者是否只是這個特定的程序由于某種原因導致它出錯,但這似乎是根本原因.