未来核显性能越来越强,会不会彻底取代独立显卡

未来会不会没有独显?感觉现在核显性能越来越强?

不会的。在同一个历史时期,同样的制程之下,核显的性能永远都不可能超过独显。说个最简单的道理,CPU打开顶盖之后,内部核心的图网上随处都能找到。你可以想想,同样或者相近的制程工艺下,想要做出来达到高端独立显卡级别的性能,芯片面积是不是得做到和独显核心差不多大?

你可以想象一下,把高端独显的核心放到CPU里,CPU原本的核心放哪?就算使劲往边上挪硬挤,那CPU的IO模块又放哪里?根本塞不进去。芯片做不到足够大的面积,就算是AMD也没办法做出线程撕裂者级别的性能。

再从功耗的角度说,想要达到高端独显的性能,不管你核显芯片做多大,功耗都摆在这里。正常CPU的功耗也就一百多瓦,你再加一块高端独显的功耗,怎么可能塞到同一个封装里,又能用什么散热压得住?难不成买CPU送核显,还得附赠一个480水冷才行。
很多刚接触装机的朋友,都会纠结一个问题,我到底选带核显的CPU还是买独显?预算不够的时候能不能先只用核显?刚好我装机装了快十年,给大家捋捋怎么选最划算。

如果你买电脑就是日常用,比如刷网页、看剧,做做Office文档,偶尔玩个斗地主、植物大战僵尸这类小游戏,那核显完全够用,没必要额外花钱买独显。现在不管是Intel还是AMD的新款CPU,核显性能都不算差,1080P看4K视频完全不卡,日常操作的流畅度和独显没区别,还能省出小一千的预算,加到CPU或者硬盘上,整机体验会好很多。

如果你玩游戏,或者要做视频剪辑、3D建模这类重度内容创作,那还是得老老实实上独显。别听网上说现在核显能玩3A,那都是降分辨率降画质凑出来的帧率,真玩起来体验差远了。就拿最近的《黑神话:悟空》来说,就算是最强的核显,也跑不到流畅的帧率,更别说做创作的时候,独显的加速能力能帮你省大把时间。

还有一种情况很多人会遇到,就是预算暂时不够,先买个带核显的CPU用着,以后有钱再加独显,这其实是非常聪明的选择。现在好多带核显的CPU并不比无核显的贵多少,先凑合用,等降价了再插独显,完全不影响使用。

最后提醒大家,选的时候别盲目跟风,别人说核显够了就不买独显,别人说必须上独显就硬超预算。根据自己实际用的场景选,适合你的就是最好的。
核显,独显,CPU,独立显卡,核显性能,制程工艺,芯片面积,功耗,散热,显卡性能
[Q]:未来核显会不会彻底取代独显?
[A]:同一制程条件下,核显受限于芯片面积和功耗,性能不可能超过独显,无法取代独显。
[Q]:现在核显性能越来越强,以后还需要买独显吗?
[A]:即使核显性能提升,受硬件空间和功耗限制,依然需要独立显卡满足高性能需求。
[Q]:为什么核显性能做不到同代独显的水平?
[A]:要达到独显的性能需要同等大小的芯片面积,CPU没有足够空间容纳这么大的核显核心。
[Q]:核显性能追上独显除了空间还有什么阻碍?
[A]:高性能独显的功耗很高,CPU本身已经有百瓦左右的功耗,额外增加独显级功耗没有办法有效散热。
[Q]:同一时期同制程下核显性能能超过独显吗?
[A]:不能,相同制程下核显的硬件规模受限,性能永远不可能超过同时期的独显。
[Q]:要实现高端独显的性能,核显需要满足什么条件?
[A]:需要和高端独显核心差不多大的芯片面积,以及能承载同等功耗的散热条件,CPU封装无法满足。
[Q]:CPU能塞下高端独显规模的核显吗?
[A]:不能,CPU本身已经有计算核心和IO模块,没有多余空间容纳大尺寸的高端核显核心。
[Q]:核显做高性能为什么会遇到散热问题?
[A]:高端性能的核显功耗和高端独显差不多,加上CPU本身的功耗,普通CPU散热没法压得住。
share