
Apple下载页面上的模型经过专门培训:ImageNet数据集上的图像分类.这意味着他们可以拍摄图像并告诉您图像中的“主要”对象是什么,但前提是它是ImageNet数据集中的1,000个类别之一.
通常,这不是您想要在自己的应用中执行的 *** 作.如果您的应用想要进行图像分类,通常您需要在自己的类别(如食物或汽车或其他)上训练模型.在这种情况下,您可以采用类似Inception-v3(原始版本,而不是Core ML版本)的内容,并在您自己的数据上重新训练它.这为您提供了一个新模型,然后您需要再次转换为Core ML.
如果您的应用程序想要执行除图像分类之外的其他 *** 作,则可以将这些预训练模型用作更大的神经网络结构中的“特征提取器”.但这又涉及到训练自己的模型(通常是从头开始),然后将结果转换为Core ML.
因此,仅在非常具体的用例中 – 使用1,000个ImageNet类别进行图像分类 – 这些Apple提供的模型对您的应用程序非常有用.
如果您确实想要使用这些模型中的任何一种,它们之间的区别在于速度与精度.较小的型号速度最快,但也最不准确. (在我看来,VGG16不应该在移动设备上使用.它太大了,并不比Inception甚至MobileNet更准确.)
总结以上是内存溢出为你收集整理的ios – MobileNet vs SqueezeNet vs ResNet50 vs Inception v3 vs VGG16全部内容,希望文章能够帮你解决ios – MobileNet vs SqueezeNet vs ResNet50 vs Inception v3 vs VGG16所遇到的程序开发问题。
如果觉得内存溢出网站内容还不错,欢迎将内存溢出网站推荐给程序员好友。
欢迎分享,转载请注明来源:内存溢出
微信扫一扫
支付宝扫一扫
评论列表(0条)