[綜合]無題 無名 ID:C4XPI36s 2019/12/31(二) 02:22:45.377 No.17098561
評分:0, 年:0, 月:0, 週:0, 日:0, [+1 / -1] 最後更新:2019-12-30 14:19:18
gpu加速是什麼
開了後轉檔一分鐘就搞定
沒開要一小時= =
無題 無名 ID:ZkoFHcHg 2019/12/31(二) 02:30:05.856 No.17098604 就是丟給顯示卡去算
而顯示卡有針對那些編碼有特別的強化
比如說1+2+3+...+100=?
如果沒開gpu加速就是給CPU跑
然後CPU就會1+2=3 3+3=6 這樣慢慢算
丟給GPU然後GPU發現有更快的算法
於是(1+100)*100/2=5050
但是先決條件是你轉檔的編碼格式顯卡有支援才有用喔
無題 無名 ID:PyHRrdkc 2019/12/31(二) 02:34:51.692 No.17098618 GPU單純就核心幹爆多
以1660為例 就1536顆可以拿去運算的
拿去運算轉檔速度當然就快上非常多= =
無題 無名 ID:Z8olbRgM 2019/12/31(二) 02:36:26.305 No.17098623
無題 無名 ID:lkuZB6MM 2019/12/31(二) 02:38:34.669 No.17098628 >>17098604GPU不會發現更快的算法吧
假設你CPU是雙核心
一個簡單的、隨便寫寫的程式
會讓一顆核心算完1+2+3+...+100,另一顆發呆
你要等他計算99次加法才算完
一個有好好寫支援多執行緒的程式
會讓一顆核心算1+2+3+...+50
另一顆算51+52+53+...+100
然後把兩邊的答案相加
你只需要等50個加法的時間
而一個GPU加速的程式則會把同樣的方式拿給GPU算
但GPU隨便就是破百個核心
第一核算1+2
第二核算3+4
第50核算99+100
然後下一梯次,第一核把他跟第二核的答案加起來,第49核加第50核
如此一來只要7個加法的時間就算完了
無題 無名 ID:U6cFJOrg 2019/12/31(二) 02:48:26.793 No.17098654 >>17098628不是GPU有更快的算法,而是
1.GPU核心多,運算效能輾壓CPU
2.顯卡上有針對影像編碼的硬體電路,效率輾壓GPU和CPU
無題 無名 ID:nM206sj. 2019/12/31(二) 02:53:05.779 No.17098667 >>但GPU隨便就是破百個核心
淦..這說法我第一次聽到,是不是在豪洨啊...
無題 無名 ID:F84AquYQ 2019/12/31(二) 02:54:04.194 No.17098671
無題 無名 ID:PyHRrdkc 2019/12/31(二) 02:55:33.282 No.17098677
>>17098667顯卡的長處就是平行運算
平行運算要快就是能運算的核心數要很多
核心要做的事沒有CPU那麼複雜
像NV的就叫CUDA處理器= =
無題 無名 ID:1icXh2jM 2019/12/31(二) 03:23:11.645 No.17098746
無題 無名 ID:C4XPI36s 2019/12/31(二) 03:23:43.191 No.17098747
無題 無名 ID:U6cFJOrg 2019/12/31(二) 04:44:01.416 No.17098907
>>17098666顯卡上並不是只有圖形處理器(GPU)
影像編解碼是用稱為NVENC(AM的D叫AMF)的硬體電路在進行,效率以及簡易性遠超過使用GPU,畢竟GPU的處理核心並不是一般常用的X86核心,光是要調用來編碼就已經是大工程,在硬體編碼成為主流的現在應該已經沒有任何影片編解碼軟體有支援使用GPU了
>>17098667現在連低階的1650都有近900顆核心,2080TI更是高達4352顆核心,這也就是為何圖形運算不是給CPU算,等它算完一張畫面天都黑了
>>17098676電腦的CPU是複雜處理器,而GPU是簡單處理器,效能並不能直接類比,這就和有些人喊手機的中央處理器效能超過電腦一樣沒有任何意義
>>17098704可以,而你如果是指影像編碼的話在NV搭配圖靈架構出的NVENC出來前,INTEL一直是影像處理效果最強的
現在的話要1660才有贏,因為1650是搭伏塔架構的NVENC