gpu cpu深度学习速度差别

gpu cpu深度学习速度差别,第1张

不好说,这要看是学习什么内容。
某些应用的智能学习,可能更适合CPU,而又些应用可能更适合GPU。
不过,现在GPU大厂否非常重视AI深度学习技术的研发,其恐怖的并行处理性能,未来将在深度学习领域发挥出恐怖的统治力。

最近在学习机器学习,看到了深度学习这一部分。用tensorflow写了几个例子,CNN的,然后在我的15年版的MacbookPro上跑了跑了,训练速度真是不忍直视,而且,风扇呼呼转,真是心疼我这个Mac了。于是意识到显卡这个东西真是个门槛。因此才想着搞一台高配置的主机来跑深度网络。

既然是跑深度学习,那么直接在电商网站上搜一下深度学习主机买来不就得了? 理论总是那么简单。。。
事实上,我看了下专门跑深度学习的主机,基本都是服务器级别的,动辄2W+ 。我是没这么多银子来投入这个的,没办法,穷人啊。

那么,想一下自己需求,找一个合适的主机吧。我的目的也很简单的:

好了, 这么一罗列就明确了,就是一个高配游戏主机喽。不要误会,这是巧合~~ 于是 我去闲鱼上瞅了瞅,看出点门道,一般i7 8700 + 1080Ti显卡的主机,就可以卖到1W了~~ 啧啧 游戏真是败家。

一开始我也想着直接买个这种主机,省事儿,不过既然都花到1W了,对各个配置外观就很在意了。看了很多主机,感觉都不是理想中的样子,要么机箱丑, 要么主板渣,要么硬盘和内存规格不够。其实我主要在意的是CPU和显卡,只要这两个满足就OK啊,然后就可以慢慢攒出自己想要的主机了。我看了闲鱼上的价格,i7 8代CPU的价格,代购的话也就2500左右,为了以后升级考虑,直接上了i7 8086K(这是个intel为了纪念第一代8086芯片40周年的纪念品,其实是从8700K中挑出来的体质好的片),4GHZ,高主频,干事儿快。1080Ti的显卡是最具性价比的了,二手价格4K左右,不过容易踩到雷买到挖矿的卡~ 这个小心了。

总的来说,各个配件都准备妥当了,来一下清单:

总计: 9800吧~(真贵)~ 总的来说,必直接先闲鱼上的主机要好一些,多了可配置性。

这个就不展开了,按照说明书一步步来就好。主要是安装顺序以及接线。
安装顺序:电源装到机箱 -> CPU装到主板 -> 主板装到机箱 -> 水冷 散热风扇 -> 接线
这里有两个地方需要注意:

最后上个成品图 啊哈哈~

这么好的显卡不玩玩游戏是不是亏了?? 那就保留一个win系统吧~

现在网上的双系统如何安装帖子都是老教程了~ Ubuntu都发布了1804,支持UEFI+GPT。那么如何搞呢?

首先,先安装win10,如果是自己制作U盘启动项,务必选择UEFI+GPT组合模式,也就是做用UEFI模式引导,硬盘为GPT格式。如果不是,那么需要检查一下并完成转换,这里有个教程,直接用win10自带的工具就能做到,但是前提是win10升级到1703之后的版本。

用Win10自带的MBR2GPT无损转换GPT磁盘分区形式

然后就是安装Ubuntu1804了。我是安装在一个磁盘里,因此需要先空出一定大小的未分配空间。然后制作Ubuntu1804的U盘启动项,选择UEFI+GPT组合模式。这里是官方教程:

win系统上制作Ubuntu的U盘启动

然后按照这个教程就好了: Windows10+Ubuntu1804双系统安装

安装好Ubuntu1804之后登录进去发现系统变漂亮了(但是还是一贯的难用,相比Mac和win)。可以进行一些美化 *** 作。。 好像很多人喜欢这个,贴个教程吧: Linux也可以这样美——Ubuntu1804安装、配置、美化-踩坑记

之后就是配置我们的深度学习环境了。目前我主要用tensorflow,只记录这个。

主要步骤:

好了,可以从GitHub上下点example跑起来了,CNN的计算有了1080TI的加持还是很快的,开心~~

需要配置远程访问,jupyter notebook服务。远程Pycharm调试环境。
这里有个麻烦,就是家里是局域网,而且接的是长城渣宽带,没有独立IP,需要用frp中转一下。

做深度学习的话,我还是可以有立场说些的。因为我们实验室当时就遇到了这些问题,选择深度学习GPU显卡时建议选择专门做液冷的A100或者RTX3090、RTXA6000、RTXA40等卡,蓝海大脑的液冷GPU服务器具有高性能,高密度⌄扩展性强等特点。液冷GPU服务器产品支持1~20块 GPU卡,还可以选择,毕竟能可以选择也是很好的,芯片主要采用龙芯、飞腾、申威、海光、英伟达、Intel、AMD。完全定制啊,敲开心。适用于深度学习训练及推理、生命科学、医药研发、虚拟仿真等场景,覆盖服务器、静音工作站、数据中心等多种产品形态,量身定制,满足客户全场景需求。技术人员给的建议都非常受用。

在运行深度学习的代码时,开启gpu可以大大的提升运行速度,只对运行时间很长的代码使用GPU。代码就是程序员用开发工具所支持的语言写出来的源文件,是一组由字符、符号或信号码元以离散形式表示信息的明确的规则体系。

深度学习模型运行的频率是根据具体场景和使用需要而定的,不同的数据集、模型复杂度、训练资源因素,要求不同的运行频率。以下是一些常见的深度学习模型运行频率:
1 每日或每周运行:如果数据集相对稳定,且需要统计长时间范围内的信息,可以选择每日或每周运行深度学习模型,以获得数据的趋势和统计信息。
2 每小时或每分钟运行:如果需要实时分析数据并进行决策,可以选择每小时或每分钟运行深度学习模型,以便在最短的时间内响应数据变化。
3 实时运行:对于对实时性要求比较高的场景,可以将深度学习模型直接安装在硬件设备上,在设备上进行实时数据分析和决策。
需要注意的是,在深度学习模型的运行过程中,需要对模型进行调优、时刻监控模型的性能和精度等,以确保模型的高效性和准确性。


欢迎分享,转载请注明来源:内存溢出

原文地址:https://54852.com/zz/12782109.html

(0)
打赏 微信扫一扫微信扫一扫 支付宝扫一扫支付宝扫一扫
上一篇 2025-08-27
下一篇2025-08-27

发表评论

登录后才能评论

评论列表(0条)

    保存