① photoshop cc 3D功能 顯卡的配置
PS的3D功能很耗配置的,我的電腦四核,8G內存有時都會顯示內存不足,這個是正常的,用AI或者3Dmax吧,畢竟PS不是主打3D功能,可能還需要以後版本繼續優化吧。或者你把做的圖的尺寸改小一點吧,圖大了耗配置,希望您採納!
② 如何設置顯卡我的是PS-9500GT
1、可以在控制面板裡面找到顯卡的獨立設置圖標,雙擊後應該有:「在系統托盤顯示圖標」一類的選項,選擇上試試。 2、最簡單的辦法就是重新安裝一下顯卡驅動,這樣設置圖標就自動恢復了。
③ photoshop CS6 如何設置顯卡
按【Ctrl+K】,然後選擇【性能】,勾選【openGL】選項,
④ 顯卡設置ps失真
PS的運行環境可能會在破解編譯中與顯卡驅動的運行產生沖突,
對照顯卡驅動的內存地址表。
解決辦法一:不使用專用顯卡驅動,使用兼容驅動
解決辦法二:PS搞個正版的
解決辦法三:更換操作系統
顯卡對PS是非常有影響的,CPU即中央處理器對PS也非常有影響,你的台式與筆記本無論處理器還是顯卡都是有差距的。另外在關注顯卡的時候,所謂的顯存多少其實並不多重要,更需要關注的是其GPU,即顯卡的圖形處理器的參數。
⑤ ps對顯卡要求高嗎
PS對電腦配置的要求知識科普
PhotoShop吃CPU還是顯卡?
其實PhotoShop這類平面設計軟體,相比之下,CPU的性能才是重中之重,反而顯卡是次要的。因為圖形處理軟體背後的每一步操作都是一個復雜的數學公式在計算,計算機將每一種顏色都可以記成一串數字,而你在圖形進行處理時,計算機就會將這串數字帶入公式中運算,最終將結果輸出到對應的像素點之中。
打個比方,您對一個圖片進行亮度調節,PS就會提取到一個像素點區域的RGB值,然後帶入公式算出其表示亮度的值L,然後對L進行你所需要的值的調整,再將修改之後的L值逆向帶入公式之中算出調整亮度之後的RGB值,最後PhotoShop軟體將其顯示出來,這樣就完成了對一個像素點的亮度調節,如此循環之後,對整幅圖片所有的像素點進行一次計算,就完成了對整幅圖片的顏色調整。
對於平面圖形處理而言,重要性排序是CPU>內存>硬碟>顯卡,側重CPU、內存、硬碟三大硬體,而顯卡方面無需投入太多預算,一般的入門獨顯或者核顯就可以了。顯卡的用武之地,例如在大型3D游戲、3D建模設計之類側重需要。
PS對電腦配置的要求知識科普
1、CPU
CPU性能好壞對PS軟體比較重要,但是也無需太高端,畢竟PS對電腦配置要求並不是那麼苛刻。當然CPU性能越高,PS處理速度就會越快,吃CPU主要是濾鏡之類的,其它並不是很敏感,CPU頻率越高,性能表現會越好,現在新版本的PS軟體加強了對多核心多線程的優化,也就是說,具備多核的CPU已經十分友好了。
PS對CPU的選擇,intel平台的話,酷睿i3系列或者以上,當然酷睿i5系列更好了,如果不差錢當然可以上酷睿i7,性價比無疑是i5更好。而AMD平台的話,銳龍R3、R5、R7系列。
CPU
2、內存
對於PS軟體,一般建議8G內存起步,基本夠用了。有的時候還是比較吃內存的,尤其是處理較大的圖片的時候,16G或者更大容量的內存就很有必要了,32G內存完全沒有必要,因為提升不是很明顯了,除非處理超大圖片,才可以發揮作用。
內存
3、硬碟
相信不少用戶認為,硬碟只是存儲,只要容量夠大就可以了。但是更好的讀寫速度表現能夠帶來更快的工作效率,所以更建議固態硬碟,並且PS軟體安裝在固態硬碟中,提升讀寫性能。例如,我們打開一個13GB的圖片,例如機械硬碟需要10分鍾,而固態硬碟,可能5分鍾就可以打開了,採用固態硬碟的人開始處理圖片了,而你採用機械硬碟還在等待圖片打開中,這種痛苦你可以想像的出來。
一般來說,打開較大的圖片速度差別還是蠻大的,如果你平時打開的圖片只有幾百KB或者幾十M,固態硬碟和機械硬碟在速度的區別上並不是太明顯,這種情況下,機械硬碟完全足夠了。當然,我們更建議固態+機械雙硬碟搭配,既保證了讀寫速度,又滿足了大存儲需求。
固態硬碟
如今固態硬碟基本是裝機首選了,就算系統安裝在固態硬碟中,電腦開機基本在10秒左右就可以完成開機,而機械硬碟卻要20秒-40秒的時間才可以開機,包括游戲也是,別人已經游戲載入100%了,而你還在50%慢慢載入。
⑥ mac版PS無法設置顯卡
刪除program沒有擴展名的空文件。
在你安裝著有ps軟體的硬碟根目錄下出現了一個名字為program沒有擴展名的空文件,將其刪除掉問題就解決了。
⑦ photoshop cs6怎麼設置顯卡
按Ctrl+K,然後選擇性能,勾選openGL
⑧ ps2021用什麼顯卡
1. 利用CUDA_VISIBLE_DEVICES設置可用顯卡
在CUDA中設定可用顯卡,一般有2種方式:
(1) 在代碼中直接指定
import os
os.environ['CUDA_VISIBLE_DEVICES'] = gpu_ids
(2) 在命令行中執行代碼時指定
CUDA_VISIBLE_DEVICES=gpu_ids python3 train.py
如果使用sh腳本文件運行代碼,則有3種方式可以設置
(3) 在命令行中執行腳本文件時指定:
CUDA_VISIBLE_DEVICES=gpu_ids sh run.sh
(4) 在sh腳本中指定:
source bashrc
export CUDA_VISIBLE_DEVICES=gpu_ids && python3 train.py
(5) 在sh腳本中指定
source bashrc
CUDA_VISIBLE_DEVICES=gpu_ids python3 train.py
如果同時使用多個設定可用顯卡的指令,比如
source bashrc
export CUDA_VISIBLE_DEVICES=gpu_id1 && CUDA_VISIBLE_DEVICES=gpu_id2 python3 train.py
那麼高優先順序的指令會覆蓋第優先順序的指令使其失效。優先順序順序為:不使用sh腳本 (1)>(2); 使用sh腳本(1)>(5)>(4)>(3)
個人感覺在煉丹時建議大家從(2)(3)(4)(5)中選擇一個指定可用顯卡,不要重復指定以防造成代碼的混亂。方法(1)雖然優先順序最高,但是需要修改源代碼,所以不建議使用。
2 .cuda()方法和torch.cuda.set_device()
我們還可以使用.cuda()[包括model.cuda()/loss.cuda()/tensor.cuda()]方法和torch.cuda.set_device()來把模型和數據載入到對應的gpu上。
(1) .cuda()
以model.cuda()為例,載入方法為:
model.cuda(gpu_id) # gpu_id為int類型變數,只能指定一張顯卡
model.cuda('cuda:'+str(gpu_ids)) #輸入參數為str類型,可指定多張顯卡
model.cuda('cuda:1,2') #指定多張顯卡的一個示例
(2) torch.cuda.set_device()
使用torch.cuda.set_device()可以更方便地將模型和數據載入到對應GPU上, 直接定義模型之前加入一行代碼即可
torch.cuda.set_device(gpu_id) #單卡
torch.cuda.set_device('cuda:'+str(gpu_ids)) #可指定多卡
但是這種寫法的優先順序低,如果model.cuda()中指定了參數,那麼torch.cuda.set_device()會失效,而且pytorch的官方文檔中明確說明,不建議用戶使用該方法。
第1節和第2節所說的方法同時使用是並不會沖突,而是會疊加。比如在運行代碼時使用
CUDA_VISIBLE_DEVICES=2,3,4,5 python3 train.py
而在代碼內部又指定
model.cuda(1)
loss.cuda(1)
tensor.cuda(1)
那麼代碼會在GPU3上運行。原理是CUDA_VISIBLE_DEVICES使得只有GPU2,3,4,5可見,那麼這4張顯卡,程序就會把它們看成GPU0,1,2,3,.cuda(1)把模型/loss/數據都載入到了程序所以為的GPU1上,則實際使用的顯卡是GPU3。
如果利用.cuda()或torch.cuda.set_device()把模型載入到多個顯卡上,而實際上只使用一張顯卡運行程序的話,那麼程序會把模型載入到第一個顯卡上,比如如果在代碼中指定了
model.cuda('cuda:2,1')
在運行代碼時使用
CUDA_VISIBLE_DEVICES=2,3,4,5 python3 train.py
這一指令,那麼程序最終會在GPU4上運行。
3.多卡數據並行torch.nn.DataParallel
多卡數據並行一般使用
torch.nn.DataParallel(model,device_ids)
其中model是需要運行的模型,device_ids指定部署模型的顯卡,數據類型是list
device_ids中的第一個GPU(即device_ids[0])和model.cuda()或torch.cuda.set_device()中的第一個GPU序號應保持一致,否則會報錯。此外如果兩者的第一個GPU序號都不是0,比如設置為:
model=torch.nn.DataParallel(model,device_ids=[2,3])
model.cuda(2)
那麼程序可以在GPU2和GPU3上正常運行,但是還會佔用GPU0的一部分顯存(大約500M左右),這是由於pytorch本身的bug導致的(截止1.4.0,沒有修復這個bug)。
device_ids的默認值是使用可見的GPU,不設置model.cuda()或torch.cuda.set_device()等效於設置了model.cuda(0)
4. 多卡多線程並行torch.nn.parallel.DistributedDataParallel
(這個我是真的沒有搞懂,,,,)
參考了這篇文章和這個代碼,關於GPU的指定,多卡多線程中有2個地方需要設置
torch.cuda.set_device(args.local_rank)
torch.nn.parallel.DistributedDataParallel(model, device_ids=[args.local_rank])
模型/loss/tensor設置為.cuda()或.cuda(args.local_rank)均可,不影響正常運行。
5. 推薦設置方式:
(1) 單卡
使用CUDA_VISIBLE_DEVICES指定GPU,不要使用torch.cuda.set_device(),不要給.cuda()賦值。
(2) 多卡數據並行
直接指定CUDA_VISIBLE_DEVICES,通過調整可見顯卡的順序指定載入模型對應的GPU,不要使用torch.cuda.set_device(),不要給.cuda()賦值,不要給torch.nn.DataParallel中的device_ids賦值。比如想在GPU1,2,3中運行,其中GPU2是存放模型的顯卡,那麼直接設置
CUDA_VISIBLE_DEVICES=2,1,3
(3) 多卡多線程