① photoshop cc 3D功能 显卡的配置
PS的3D功能很耗配置的,我的电脑四核,8G内存有时都会显示内存不足,这个是正常的,用AI或者3Dmax吧,毕竟PS不是主打3D功能,可能还需要以后版本继续优化吧。或者你把做的图的尺寸改小一点吧,图大了耗配置,希望您采纳!
② 如何设置显卡我的是PS-9500GT
1、可以在控制面板里面找到显卡的独立设置图标,双击后应该有:“在系统托盘显示图标”一类的选项,选择上试试。 2、最简单的办法就是重新安装一下显卡驱动,这样设置图标就自动恢复了。
③ photoshop CS6 如何设置显卡
按【Ctrl+K】,然后选择【性能】,勾选【openGL】选项,
④ 显卡设置ps失真
PS的运行环境可能会在破解编译中与显卡驱动的运行产生冲突,
对照显卡驱动的内存地址表。
解决办法一:不使用专用显卡驱动,使用兼容驱动
解决办法二:PS搞个正版的
解决办法三:更换操作系统
显卡对PS是非常有影响的,CPU即中央处理器对PS也非常有影响,你的台式与笔记本无论处理器还是显卡都是有差距的。另外在关注显卡的时候,所谓的显存多少其实并不多重要,更需要关注的是其GPU,即显卡的图形处理器的参数。
⑤ ps对显卡要求高吗
PS对电脑配置的要求知识科普
PhotoShop吃CPU还是显卡?
其实PhotoShop这类平面设计软件,相比之下,CPU的性能才是重中之重,反而显卡是次要的。因为图形处理软件背后的每一步操作都是一个复杂的数学公式在计算,计算机将每一种颜色都可以记成一串数字,而你在图形进行处理时,计算机就会将这串数字带入公式中运算,最终将结果输出到对应的像素点之中。
打个比方,您对一个图片进行亮度调节,PS就会提取到一个像素点区域的RGB值,然后带入公式算出其表示亮度的值L,然后对L进行你所需要的值的调整,再将修改之后的L值逆向带入公式之中算出调整亮度之后的RGB值,最后PhotoShop软件将其显示出来,这样就完成了对一个像素点的亮度调节,如此循环之后,对整幅图片所有的像素点进行一次计算,就完成了对整幅图片的颜色调整。
对于平面图形处理而言,重要性排序是CPU>内存>硬盘>显卡,侧重CPU、内存、硬盘三大硬件,而显卡方面无需投入太多预算,一般的入门独显或者核显就可以了。显卡的用武之地,例如在大型3D游戏、3D建模设计之类侧重需要。
PS对电脑配置的要求知识科普
1、CPU
CPU性能好坏对PS软件比较重要,但是也无需太高端,毕竟PS对电脑配置要求并不是那么苛刻。当然CPU性能越高,PS处理速度就会越快,吃CPU主要是滤镜之类的,其它并不是很敏感,CPU频率越高,性能表现会越好,现在新版本的PS软件加强了对多核心多线程的优化,也就是说,具备多核的CPU已经十分友好了。
PS对CPU的选择,intel平台的话,酷睿i3系列或者以上,当然酷睿i5系列更好了,如果不差钱当然可以上酷睿i7,性价比无疑是i5更好。而AMD平台的话,锐龙R3、R5、R7系列。
CPU
2、内存
对于PS软件,一般建议8G内存起步,基本够用了。有的时候还是比较吃内存的,尤其是处理较大的图片的时候,16G或者更大容量的内存就很有必要了,32G内存完全没有必要,因为提升不是很明显了,除非处理超大图片,才可以发挥作用。
内存
3、硬盘
相信不少用户认为,硬盘只是存储,只要容量够大就可以了。但是更好的读写速度表现能够带来更快的工作效率,所以更建议固态硬盘,并且PS软件安装在固态硬盘中,提升读写性能。例如,我们打开一个13GB的图片,例如机械硬盘需要10分钟,而固态硬盘,可能5分钟就可以打开了,采用固态硬盘的人开始处理图片了,而你采用机械硬盘还在等待图片打开中,这种痛苦你可以想象的出来。
一般来说,打开较大的图片速度差别还是蛮大的,如果你平时打开的图片只有几百KB或者几十M,固态硬盘和机械硬盘在速度的区别上并不是太明显,这种情况下,机械硬盘完全足够了。当然,我们更建议固态+机械双硬盘搭配,既保证了读写速度,又满足了大存储需求。
固态硬盘
如今固态硬盘基本是装机首选了,就算系统安装在固态硬盘中,电脑开机基本在10秒左右就可以完成开机,而机械硬盘却要20秒-40秒的时间才可以开机,包括游戏也是,别人已经游戏载入100%了,而你还在50%慢慢加载。
⑥ mac版PS无法设置显卡
删除program没有扩展名的空文件。
在你安装着有ps软件的硬盘根目录下出现了一个名字为program没有扩展名的空文件,将其删除掉问题就解决了。
⑦ photoshop cs6怎么设置显卡
按Ctrl+K,然后选择性能,勾选openGL
⑧ ps2021用什么显卡
1. 利用CUDA_VISIBLE_DEVICES设置可用显卡
在CUDA中设定可用显卡,一般有2种方式:
(1) 在代码中直接指定
import os
os.environ['CUDA_VISIBLE_DEVICES'] = gpu_ids
(2) 在命令行中执行代码时指定
CUDA_VISIBLE_DEVICES=gpu_ids python3 train.py
如果使用sh脚本文件运行代码,则有3种方式可以设置
(3) 在命令行中执行脚本文件时指定:
CUDA_VISIBLE_DEVICES=gpu_ids sh run.sh
(4) 在sh脚本中指定:
source bashrc
export CUDA_VISIBLE_DEVICES=gpu_ids && python3 train.py
(5) 在sh脚本中指定
source bashrc
CUDA_VISIBLE_DEVICES=gpu_ids python3 train.py
如果同时使用多个设定可用显卡的指令,比如
source bashrc
export CUDA_VISIBLE_DEVICES=gpu_id1 && CUDA_VISIBLE_DEVICES=gpu_id2 python3 train.py
那么高优先级的指令会覆盖第优先级的指令使其失效。优先级顺序为:不使用sh脚本 (1)>(2); 使用sh脚本(1)>(5)>(4)>(3)
个人感觉在炼丹时建议大家从(2)(3)(4)(5)中选择一个指定可用显卡,不要重复指定以防造成代码的混乱。方法(1)虽然优先级最高,但是需要修改源代码,所以不建议使用。
2 .cuda()方法和torch.cuda.set_device()
我们还可以使用.cuda()[包括model.cuda()/loss.cuda()/tensor.cuda()]方法和torch.cuda.set_device()来把模型和数据加载到对应的gpu上。
(1) .cuda()
以model.cuda()为例,加载方法为:
model.cuda(gpu_id) # gpu_id为int类型变量,只能指定一张显卡
model.cuda('cuda:'+str(gpu_ids)) #输入参数为str类型,可指定多张显卡
model.cuda('cuda:1,2') #指定多张显卡的一个示例
(2) torch.cuda.set_device()
使用torch.cuda.set_device()可以更方便地将模型和数据加载到对应GPU上, 直接定义模型之前加入一行代码即可
torch.cuda.set_device(gpu_id) #单卡
torch.cuda.set_device('cuda:'+str(gpu_ids)) #可指定多卡
但是这种写法的优先级低,如果model.cuda()中指定了参数,那么torch.cuda.set_device()会失效,而且pytorch的官方文档中明确说明,不建议用户使用该方法。
第1节和第2节所说的方法同时使用是并不会冲突,而是会叠加。比如在运行代码时使用
CUDA_VISIBLE_DEVICES=2,3,4,5 python3 train.py
而在代码内部又指定
model.cuda(1)
loss.cuda(1)
tensor.cuda(1)
那么代码会在GPU3上运行。原理是CUDA_VISIBLE_DEVICES使得只有GPU2,3,4,5可见,那么这4张显卡,程序就会把它们看成GPU0,1,2,3,.cuda(1)把模型/loss/数据都加载到了程序所以为的GPU1上,则实际使用的显卡是GPU3。
如果利用.cuda()或torch.cuda.set_device()把模型加载到多个显卡上,而实际上只使用一张显卡运行程序的话,那么程序会把模型加载到第一个显卡上,比如如果在代码中指定了
model.cuda('cuda:2,1')
在运行代码时使用
CUDA_VISIBLE_DEVICES=2,3,4,5 python3 train.py
这一指令,那么程序最终会在GPU4上运行。
3.多卡数据并行torch.nn.DataParallel
多卡数据并行一般使用
torch.nn.DataParallel(model,device_ids)
其中model是需要运行的模型,device_ids指定部署模型的显卡,数据类型是list
device_ids中的第一个GPU(即device_ids[0])和model.cuda()或torch.cuda.set_device()中的第一个GPU序号应保持一致,否则会报错。此外如果两者的第一个GPU序号都不是0,比如设置为:
model=torch.nn.DataParallel(model,device_ids=[2,3])
model.cuda(2)
那么程序可以在GPU2和GPU3上正常运行,但是还会占用GPU0的一部分显存(大约500M左右),这是由于pytorch本身的bug导致的(截止1.4.0,没有修复这个bug)。
device_ids的默认值是使用可见的GPU,不设置model.cuda()或torch.cuda.set_device()等效于设置了model.cuda(0)
4. 多卡多线程并行torch.nn.parallel.DistributedDataParallel
(这个我是真的没有搞懂,,,,)
参考了这篇文章和这个代码,关于GPU的指定,多卡多线程中有2个地方需要设置
torch.cuda.set_device(args.local_rank)
torch.nn.parallel.DistributedDataParallel(model, device_ids=[args.local_rank])
模型/loss/tensor设置为.cuda()或.cuda(args.local_rank)均可,不影响正常运行。
5. 推荐设置方式:
(1) 单卡
使用CUDA_VISIBLE_DEVICES指定GPU,不要使用torch.cuda.set_device(),不要给.cuda()赋值。
(2) 多卡数据并行
直接指定CUDA_VISIBLE_DEVICES,通过调整可见显卡的顺序指定加载模型对应的GPU,不要使用torch.cuda.set_device(),不要给.cuda()赋值,不要给torch.nn.DataParallel中的device_ids赋值。比如想在GPU1,2,3中运行,其中GPU2是存放模型的显卡,那么直接设置
CUDA_VISIBLE_DEVICES=2,1,3
(3) 多卡多线程