增加網址:
文章備註、標題(會記錄下來,但是暫時不會顯示):
[綜合]無題 無名 ID:C4XPI36s 2019/12/31(二) 02:22:45.377 No.17098561
評分:0, 年:0, 月:0, 週:0, 日:0, [+1 / -1] 最後更新:2019-12-30 14:19:18
附圖
gpu加速是什麼
開了後轉檔一分鐘就搞定
沒開要一小時= =
無題 無名 ID:ZkoFHcHg 2019/12/31(二) 02:30:05.856 No.17098604
就是丟給顯示卡去算
而顯示卡有針對那些編碼有特別的強化

比如說1+2+3+...+100=?
如果沒開gpu加速就是給CPU跑
然後CPU就會1+2=3 3+3=6 這樣慢慢算
丟給GPU然後GPU發現有更快的算法
於是(1+100)*100/2=5050

但是先決條件是你轉檔的編碼格式顯卡有支援才有用喔
無題 無名 ID:lItULXO6 2019/12/31(二) 02:31:11.139 No.17098608
回覆: >>17098623
>>17098604
住手!!
你會讓他以為gpu就是高斯啊
無題 無名 ID:PyHRrdkc 2019/12/31(二) 02:34:51.692 No.17098618
回覆: >>17098623
GPU單純就核心幹爆多
以1660為例 就1536顆可以拿去運算的
拿去運算轉檔速度當然就快上非常多= =
無題 無名 ID:Z8olbRgM 2019/12/31(二) 02:36:26.305 No.17098623
附圖
>>17098604
>>17098608
>>17098618
原來是這樣 真不愧是島民 又上了一課了...
無題 無名 ID:lkuZB6MM 2019/12/31(二) 02:38:34.669 No.17098628
回覆: >>17098654
>>17098604
GPU不會發現更快的算法吧

假設你CPU是雙核心
一個簡單的、隨便寫寫的程式
會讓一顆核心算完1+2+3+...+100,另一顆發呆
你要等他計算99次加法才算完

一個有好好寫支援多執行緒的程式
會讓一顆核心算1+2+3+...+50
另一顆算51+52+53+...+100
然後把兩邊的答案相加
你只需要等50個加法的時間

而一個GPU加速的程式則會把同樣的方式拿給GPU算
但GPU隨便就是破百個核心
第一核算1+2
第二核算3+4
第50核算99+100
然後下一梯次,第一核把他跟第二核的答案加起來,第49核加第50核
如此一來只要7個加法的時間就算完了
無題 無名 ID:U6cFJOrg 2019/12/31(二) 02:48:26.793 No.17098654
回覆: >>17098666
>>17098628
不是GPU有更快的算法,而是
1.GPU核心多,運算效能輾壓CPU
2.顯卡上有針對影像編碼的硬體電路,效率輾壓GPU和CPU
無題 無名 ID:lvCX2m2A 2019/12/31(二) 02:52:52.918 No.17098666
>>17098654
顯卡效率輾壓GPU ??
無題 無名 ID:nM206sj. 2019/12/31(二) 02:53:05.779 No.17098667
>>但GPU隨便就是破百個核心

淦..這說法我第一次聽到,是不是在豪洨啊...
無題 無名 ID:F84AquYQ 2019/12/31(二) 02:54:04.194 No.17098671
附圖
>>17098666
>顯卡效率輾壓GPU ??
>顯卡
>GPU
>雷歐力:2雷歐力
無題 無名 ID:lkuZB6MM 2019/12/31(二) 02:55:33.088 No.17098676
回覆: >>17098907
>>17098667
不是
GPU就是這樣設計的
單一核心的性能遠輸CPU
但核心數就是爆幹多
專門算那種大量、沒變化性、可平行化的東西
例如圖形運算跟挖礦
無題 無名 ID:PyHRrdkc 2019/12/31(二) 02:55:33.282 No.17098677
>>17098667
顯卡的長處就是平行運算
平行運算要快就是能運算的核心數要很多
核心要做的事沒有CPU那麼複雜
像NV的就叫CUDA處理器= =
無題 無名 ID:C4XPI36s 2019/12/31(二) 03:04:30.455 No.17098704
附圖
那intel的gpu也可以用gpu加速嗎
無題 無名 ID:PyHRrdkc 2019/12/31(二) 03:09:42.088 No.17098722
回覆: >>17098747
>>17098704
也要有支援
但就算有支援 效能可能也不是那麼理想
可能現在3000元的顯卡都能海放他吧
無題 無名 ID:1icXh2jM 2019/12/31(二) 03:23:11.645 No.17098746
附圖
>>17098704
英特爾的顯示處理器
再這麼都沒用了

伺服徹底輸恩益禧
自此後就退出市場了
無題 無名 ID:C4XPI36s 2019/12/31(二) 03:23:43.191 No.17098747
>>17098722
太苦了
無題 無名 ID:U6cFJOrg 2019/12/31(二) 04:44:01.416 No.17098907
>>17098666
顯卡上並不是只有圖形處理器(GPU)
影像編解碼是用稱為NVENC(AM的D叫AMF)的硬體電路在進行,效率以及簡易性遠超過使用GPU,畢竟GPU的處理核心並不是一般常用的X86核心,光是要調用來編碼就已經是大工程,在硬體編碼成為主流的現在應該已經沒有任何影片編解碼軟體有支援使用GPU了

>>17098667
現在連低階的1650都有近900顆核心,2080TI更是高達4352顆核心,這也就是為何圖形運算不是給CPU算,等它算完一張畫面天都黑了

>>17098676
電腦的CPU是複雜處理器,而GPU是簡單處理器,效能並不能直接類比,這就和有些人喊手機的中央處理器效能超過電腦一樣沒有任何意義
>>17098704
可以,而你如果是指影像編碼的話在NV搭配圖靈架構出的NVENC出來前,INTEL一直是影像處理效果最強的
現在的話要1660才有贏,因為1650是搭伏塔架構的NVENC