图像简史——程序员眼中的图像发展史

图像简史——程序员眼中的图像发展史,第1张

人,是感官的动物。

我们的大脑,像一块复杂度极高的CPU,每天在接收着各种格式的数据,进行着无休止的计算。我们以各种感官接触着这个世界,抽取着不同感官下的信息,从而认知了世界。而图像作为承载信息最为丰富的一种媒介,在人类探索智慧的历史中,一直占据着重要的位置。人用这样一双肉眼如何识别不同类别的图像(image classification and pattern recognition),如何在图像中分割出形形色色的物体(semantic segmentation and object detection),如何从模糊的图像中想象出物体的轮廓(image super-resolution),如何创作出天马行空的图画(image synthesis),都是目前 机器视觉图像处理领域 关注的热点问题。全世界的研究者都希望有朝一日,计算机能代替人眼来识别这一幅幅图像,发现在图像中隐藏的密码。

图像分类是图像处理中的一个重要任务 。在传统机器学习领域,去识别分类一个一个图像的标准流程是特征提取、特征筛选,最后将特征向量输入合适的分类器完成特征分类。直到2012年Alex Krizhevsky突破性的提出AlexNet的网络结构, 借助深度学习的算法,将图像特征的提取、筛选和分类三个模块集成于一体 ,设计5层卷积层加3层全连接层的深度卷积神经网络结构,逐层对图像信息进行不同方向的挖掘提取,譬如浅层卷积通常获取的是图像边缘等通用特征,深层卷积获取的一般是特定数据集的特定分布特征。AlexNet以154%的创纪录低失误率夺得2012年ILSVRC(ImageNet大规模视觉识别挑战赛)的年度冠军,值得一提的是当年亚军得主的错误率为262%。 AlexNet超越传统机器学习的完美一役被公认为是深度学习领域里程碑式的历史事件,一举吹响了深度学习在计算机领域爆炸发展的号角 。

时间转眼来到了2014年,GoogleNet横空出世,此时的深度学习,已经历ZF-net,VGG-net的进一步精炼,在网络的深度,卷积核的尺寸,反向传播中梯度消失问题等技术细节部分已有了详细的讨论,Google在这些技术基础上引入了Inception单元,大破了传统深度神经网络各计算单元之间依次排列,即卷积层->激活层->池化层->下一卷积层的范式,将ImageNet分类错误率提高到了67%的高水平。

在网络越来越深,网络结构越来越复杂的趋势下,深度神经网络的训练越来越难,2015年Microsoft大神何恺明(现就职于Facebook AI Research)为了解决训练中准确率先饱和后降低的问题,将residual learning的概念引入深度学习领域,其核心思想是当神经网络在某一层达到饱和时,利用接下来的所有层去映射一个f(x)=x的函数,由于激活层中非线性部分的存在,这一目标几乎是不可能实现的。

但ResNet中,将一部分卷积层短接,则当训练饱和时,接下来的所有层的目标变成了映射一个f(x)=0的函数,为了达到这一目标,只需要训练过程中,各训练变量值收敛至0即可。Resdiual learning的出现,加深网络深度提高模型表现的前提下保证了网络训练的稳定性。2015年,ResNet也以36%的超低错误率获得了2015年ImageNet挑战赛的冠军,这一技术也超越了人类的平均识别水平,意味着人工智能在人类舞台中崛起的开始。

图像分类任务的实现可以让我们粗略的知道图像中包含了什么类型的物体,但并不知道物体在图像中哪一个位置,也不知道物体的具体信息,在一些具体的应用场景比如车牌识别、交通违章检测、人脸识别、运动捕捉,单纯的图像分类就不能完全满足我们的需求了。

这时候,需要引入图像领域另一个重要任务: 物体的检测与识别 。在传统机器领域,一个典型的案例是利用HOG(Histogram of Gradient)特征来生成各种物体相应的“滤波器”, HOG滤波器 能完整的记录物体的边缘和轮廓信息,利用这一滤波器过滤不同的不同位置,当输出响应值幅度超过一定阈值,就认为滤波器和中的物体匹配程度较高,从而完成了物体的检测。这一项工作由Pedro F Felzenszalb,Ross B Girshick,David Mcallester还有Deva Ramanan以Object Detection with Discriminatively Trained Part-Based Models共同发表在2010年9月的IEEE Transactions on Pattern Analysis and Machine Interlligence期刊上。

时间如白驹过隙,惊鸿一瞥,四年过去,Ross B Girishick已由当年站在巨人肩膀上的IEEE Student Member成长为了AI行业内独当一面的神级人物,继承了深度学习先驱的意志,在2014年CVPR会议上发表题为Rich Feature Hirarchies for Accurate Object Detection and Semantic Segmentation文章。RCNN,一时无两,天下皆知。

RCNN 的核心思想在于将一个物体检测任务转化为分类任务 ,RCNN的输入为一系列利用selective search算法从图像中抽取的图像块,我们称之为region proposal。经过warping处理,region proposals被标准化到相同的尺寸大小,输入到预先训练好并精细调参的卷积神经网络中,提取CNN特征。得到了每一个proposal的CNN特征后,针对每一个物体类别,训练一个二分类器,判断该proposal是否属于该物体类别。2015年,为了缩短提取每一个proposal的CNN特征的时间,Girishick借鉴了Spatial Pooling Pyramid Network(SPPnet)中的pooling技术,首先利用一整幅图像提取CNN特征图谱,再在这张特征图谱上截取不同的位置的proposal,从而得到不同尺寸的feature proposals,最后将这些feature proposals通过SPPnet标准化到相同的尺寸,进行分类。这种改进,解决了RCNN中每一个proposal都需要进行CNN特征抽取的弊端,一次性在整图上完成特征提取,极大的缩短了模型的运行时间,因而被称作“Fast R-CNN”,同名文章发表于ICCV 2015会议。

2015年,Girishick大神持续发力,定义RPN(region-proposal-network)层,取代传统的region proposal截取算法,将region proposal的截取嵌入深度神经网络中,进一步提高了fast R-CNN的模型效率,因而被称作“Faster R-CNN”,在NIPS2015上Girishick发表了题为“Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks”的关键文章,完成了RCNN研究领域的三级跳壮举。

随着时代的发展, 科学家们不仅仅是技术的研究者,更是艺术的创造者 。

在人工智能领域的另一位新一代灵魂人物,Ian Goodfellow在2014年提出了Generative Adversarial Net的概念,通过定义一个生成器(generator)和一个判别器(discriminator)来完成图像生成任务。其原理在于生成器的任务是从随机噪声中“创造”出接近目标图像的“假图像”去欺骗判别器,而判别器的任务是去甄别哪一些图像是来自于真实的数据集,哪一些图像是来自于生成器,在生成器和判别器的互相对抗中,通过合理的损失函数设计完成训练,最终模型收敛后,判别器的概率输出为常数05,即一幅图像来自于生成器和真实数据集的概率相同,生成器生成的图像的概率分布无限趋近于真实数据集。

GAN技术成为2015,2016年深度学习研究的热门领域,在图像恢复、降噪、超分辨重建等方向获得了极佳的表现,衍生出一系列诸如WGAN,Info-GAN,DCGAN,Conditional-GAN等技术,引领了一波风潮。

当我们把一帧帧图像串联在一起,变成流动的光影,我们研究的问题就从空间维度上扩展到了时间维度,我们不仅需要关心物体在图像中的位置、类别、轮廓形状、语义信息,我们更要关心图像帧与帧之间的时间关系,去捕捉、识别一个物体的运动,去提取视频的摘要,去分析视频所表达的含义,去考虑除了图像之外的声音、文本标注,去处理一系列的自然语言,我们的研究一步一步,迈向了更广阔的星辰与大海。

图像和视频,都是虚拟的一串串数字,一个个字节,但却让这个世界更加真实 。

热门频道

首页

博客

研修院

VIP

APP

问答

下载

社区

推荐频道

活动

招聘

专题

打开CSDN APP

Copyright © 1999-2020, CSDNNET, All Rights Reserved

打开APP

人物照片生成人物模型_人物通知 翻译

2020-08-23 14:42:46

weixin_26739079 

码龄8年

关注

人物照片生成人物模型

In Android 11, we’re making Android more people-centric and expressive, reimagining the way we have conversations on our phones, and building an OS that can recognize and prioritize the most important people in your life As part of that experience, conversation notifications in Android 11 appear in a dedicated section at the top of the shade, with a people-forward design and conversation specific actions, such as opening the conversation as a bubble, creating a conversation shortcut on the home screen, or setting a reminder

在Android 11中 ,我们使Android更加以人为本和更具表现力,重新想象了我们在手机上进行对话的方式,并构建了一个可以识别并确定生活中最重要人物的优先级的OS。 作为这种体验的一部分,Android 11中的对话通知会显示在阴影顶部的专用区域中,具有人性化的设计和特定于对话的 *** 作,例如以气泡形式打开对话,在家庭中创建对话快捷方式屏幕或设置提醒。

This post takes a look a number of factors which can affect a notification’s ranking to help you understand how the notifications your app sends might be prioritized for your users

这篇文章介绍了许多可能影响通知排名的因素,以帮助您了解如何为您的用户确定应用发送的通知的优先级。

什么是通知? (What is a notification)

Notifications are signals in the UI that convey some sort of information to the user, such as news alerts, a chat message from a friend, or a reminder about an upcoming event

通知是UI中的信号,可将某种信息传达给用户,例如新闻警报,来自朋友的聊天消息或即将发生的事件的提醒。

There are different types of notifications, but in this blog post we will focus on people notifications as they play a critical role in the way we use our phones and are one of the core functionalities and usages of mobile devices today

通知的类型不同,但是在此博客文章中,我们将重点关注人员通知,因为它们在我们使用电话的方式中起着至关重要的作用,并且是当今移动设备的核心功能之一。

人物通知 (People notifications)

People notifications are messages that have a person or persons(s) in context Since Android 8 (Oreo), people notifications have received elevated treatment in the visual hierarchy of notifications in the drawer, prioritized after ongoing or critical/major notifications Within people notifications, the ranking of your notification is higher when a notification has a person context and a contact URI assigned

人员通知是在上下文中包含一个或多个人员的消息。 自Android 8(Oreo)以来,人员通知在抽屉式通知的视觉层次结构中得到了提升的处理,在进行中或重要/重大通知之后将其优先处理。 在人员通知中,当通知具有人员上下文和分配的联系人URI时,通知的排名会更高。

Notification drawer visual hierarchy

通知抽屉视觉层次

As an app developer, it is important to ensure that you use notifications for the right purpose, and that you don’t misuse a space which is not meant for your particular notification For example, a notification about an upcoming event on a calendar app should not appear as an urgent notification in the conversation space Although Android empowers its users, via notification channels, to configure the frequency, visibility, and importance of a notification, violating good practices takes away from the value and credibility of your app, and can negatively impact your standing in the Play Store

作为应用程序开发人员,重要的是要确保您将通知用于正确的目的,并且不要滥用不适合您的特定通知的空间。 例如,有关日历应用程序中即将发生的事件的通知不应在对话空间中显示为紧急通知。 尽管Android通过通知渠道授权用户配置通知的频率,可见性和重要性,但违反良好做法会损害应用程序的价值和信誉,并可能会对您在Play商店中的地位产生负面影响。

通知排名 (Notification ranking)

For those interested in the details of ranking or how notifications are ordered, prioritized, and sorted, the Notification Record is worth noting It contains all the relevant information used to rank a notification and where ranking calculations occur Notifications are ranked based on various factors: channel settings (priority for pre-channel notifications, pre Android 80), noisiness, freshness, and context To see the various criteria that determine a ranking, look into all the classes that implement the NotificationSignalExtractor

对于那些对排名或通知的排序,优先级和排序方式的细节感兴趣的人, 通知记录是值得注意的。 它包含用于对通知进行排名以及排名计算发生位置的所有相关信息。 通知会根据各种因素进行排名:渠道设置(渠道前通知的优先级,Android 80之前的版本),噪音,新鲜度和上下文。 要查看确定排名的各种条件,请查看实现NotificationSignalExtractor的所有类。

The ValidateNotificationPeople extractor is worth noting as it relates to people Following through the validatePeople method call, it sets an affinity bit as the criteria to sort notifications by importance

ValidateNotificationPeople提取器与人有关,因此值得注意。 在通过validatePeople方法调用之后,它将亲和力位设置为按重要性对通知进行排序的标准。

private RankingReconsideration validatePeople(Context context, final NotificationRecord record) {final PeopleRankingReconsideration rr = validatePeople(context, key, extras, recordgetPeopleOverride(), affinityOut);final float affinity = affinityOut[0];recordsetContactAffinity(affinity);return rr;}

The affinity increases based on the following: if the notification is a valid contact, if the valid contact is from the user’s contacts and if the contact is starred or a favorite

亲和力的增加基于以下因素:如果通知是有效联系人,有效联系人来自用户的联系人以及该联系人已加星标或收藏夹。

Android 11和对话 (Android 11 and Conversations)

In Android 11, there are changes further highlighting the importance of people related functionality Messaging style notifications now have a dedicated section in the drawer/shade

在Android 11中,所做的更改进一步突出了与人相关的功能的重要性。 消息样式通知现在在抽屉/阴影中有一个专用部分。

In addition to the new conversation space, Bubbles, which were previewed in Android 10, are built on top of notifications, and allow for easy linking to your conversations from a floating overlay

除了新的对话空间外,在通知10的基础上还构建了在Android 10中预览的Bubbles ,可轻松地从浮动叠加层链接到您的对话。

The dedicated conversation space and bubbles elevates the people focus experience

专用的对话空间和气泡提升了人们的专注体验

If you take a look at the publishing of shortcuts in the Conversation APIs, conversations can also be surfaced throughout various parts of the system by following certain guidelines; facilitating sharing and allowing for certain actions with a person in context

如果您查看对话API中快捷方式的发布,则遵循某些准则,对话也可以在系统的各个部分中浮出水面。 促进共享并允许在上下文中与某人进行某些 *** 作。

以人为本 (People first)

These changes in Android 11 signify the platform’s direction in further investing in and improving people communication For more information about these changes in Android 11 and API guidance, please check out conversations in the Android Developer docs

Android 11中的这些变化标志着该平台在进一步投资和改善人员沟通方面的方向。 有关Android 11和API指南中这些更改的更多信息,请查看Android Developer文档中的对话 。

相关信息 (Relevant Information)

Conversations

对话内容

Android notifications

Android通知

翻译自: >

如何开启深度学习之旅?这三大类125篇论文为你导航(附资源下载) 

如果你现在还是个深度学习的新手,那么你问的第一个问题可能是「我应该从哪篇文章开始读呢?在 G上,s准备了一套深度学习阅读清单,而且这份清单在随时更新。

项目地址:

这份清单依照下述 4 条原则建立:

从整体轮廓到细节

从过去到当代

从一般到具体领域

聚焦当下最先进技术

你会发现很多非常新但很值得一读的论文。这份清单我会持续更新。

1、深度学习的历史与基础知识

10 书籍

[0] Bengio, Yoshua, Ian J Goodfellow, and Aaron Courville 深度学习(Deep learning), An MIT Press book (2015) (这是深度学习领域的圣经,你可以在读此书的同时阅读下面的论文)。

11 调查类:

[1] LeCun, Yann, Yoshua Bengio, and Geoffrey Hinton 深度学习 (Deep learning), Nature 5217553 (2015): 436-444 (深度学习三位大牛对各种学习模型的评价)

12 深度信念网络(DBN)(深度学习前夜的里程碑)

[2] Hinton, Geoffrey E, Simon Osindero, and Yee-Whye Teh 一个关于深度信念网络的快速学习算法(A fast learning algorithm for deep belief nets), (深度学习的前夜)

[3] Hinton, Geoffrey E, and Ruslan R Salakhutdinov 使用神经网络降低数据的维度(Reducing the dimensionality of data with neural networks), (里程碑式的论文,展示了深度学习的可靠性)

13 ImageNet 的演化(深度学习从这里开始)

[4] Krizhevsky, Alex, Ilya Sutskever, and Geoffrey E Hinton 使用深度卷积神经网络进行 ImageNet 分类任务(Imagenet classification with deep convolutional neural networks)(AlexNet, 深度学习的突破)

[5] Simonyan, Karen, and Andrew Zisserman 针对大尺度图像识别工作的的超深卷积网络(Very deep convolutional networks for large-scale image recognition) (VGGNet, 神经网络开始变得非常深!)

[6] Szegedy, Christian, et al 更深的卷积(Going deeper with convolutions)(GoogLeNet)

[7] He, Kaiming, et al 图像识别的深度残差学习(Deep residual learning for image recognition)(ResNet,超级超级深的深度网络!CVPR--IEEE 国际计算机视觉与模式识别会议-- 最佳论文)

14 语音识别的演化

[8] Hinton, Geoffrey, et al 语音识别中深度神经网络的声学建模(Deep neural networks for acoustic modeling in speech recognition: The shared views of four research groups)(语音识别中的突破)

[9] Graves, Alex, Abdel-rahman Mohamed, and Geoffrey Hinton 用深度循环神经网络进行语音识别(Speech recognition with deep recurrent neural networks)(RNN)

[10] Graves, Alex, and Navdeep Jaitly 面向端到端语音识别的循环神经网络(Towards End-To-End Speech Recognition with Recurrent Neural Networks)

[11] Sak, Haim, et al 语音识别中快且精准的循环神经网络声学模型(Fast and accurate recurrent neural network acoustic models for speech recognition)(语音识别系统)

[12] Amodei, Dario, et al Deep speech 2:英语和汉语的端到端语音识别(Deep speech 2: End-to-end speech recognition in english and mandarin)(百度语音识别系统)

[13] W Xiong, J Droppo, X Huang, F Seide, M Seltzer, A Stolcke, D Yu, G Zweig,在对话语音识别中实现人类平等(Achieving Human Parity in Conversational Speech Recognition)

当你读完了上面给出的论文,你会对深度学习历史有一个基本的了解,深度学习建模的基本架构(包括了 CNN,RNN,LSTM)以及深度学习如何可以被应用于图像和语音识别问题。下面的论文会让你对深度学习方法,不同应用领域中的深度学习技术和其局限有深度认识。

2 深度学习方法

21 模型

[14] Hinton, Geoffrey E, et al 通过避免特征检测器的共适应来改善神经网络(Improving neural networks by preventing co-adaptation of feature detectors)(Dropout)

[15] Srivastava, Nitish, et al Dropout:一种避免神经网络过度拟合的简单方法(Dropout: a simple way to prevent neural networks from overfitting)

[16] Ioffe, Sergey, and Christian Szegedy Batch normalization:通过减少内部协变量加速深度网络训练(Batch normalization: Accelerating deep network training by reducing internal covariate shift)(2015 年一篇杰出论文)

[17] Ba, Jimmy Lei, Jamie Ryan Kiros, and Geoffrey E Hinton层归一化(Layer normalization)(批归一化的升级版)

[18] Courbariaux, Matthieu, et al 二值神经网络:训练神经网络的权重和激活约束到正 1 或者负 1(Binarized Neural Networks: Training Neural Networks with Weights and Activations Constrained to+ 1 or1)(新模型,快)

[19] Jaderberg, Max, et al 使用合成梯度的解耦神经接口(Decoupled neural interfaces using synthetic gradients)(训练方法的发明,令人惊叹的文章)

[20] Chen, Tianqi, Ian Goodfellow, and Jonathon Shlens Net2net:通过知识迁移加速学习(Net2net: Accelerating learning via knowledge transfer) (修改之前的训练网络以减少训练)

[21] Wei, Tao, et al 网络形态(Network Morphism)(修改之前的训练网络以减少训练 epoch)

22 优化

[22] Sutskever, Ilya, et al 有关深度学习中初始化与动量因子的研究(On the importance of initialization and momentum in deep learning) (动量因子优化器)

[23] Kingma, Diederik, and Jimmy Ba Adam:随机优化的一种方法(Adam: A method for stochastic optimization)(可能是现在用的最多的一种方法)

[24] Andrychowicz, Marcin, et al 通过梯度下降学习梯度下降(Learning to learn by gradient descent by gradient descent) (神经优化器,令人称奇的工作)

[25] Han, Song, Huizi Mao, and William J Dally 深度压缩:通过剪枝、量子化训练和霍夫曼代码压缩深度神经网络(Deep compression: Compressing deep neural network with pruning, trained quantization and huffman coding) (ICLR 最佳论文,来自 DeePhi 科技初创公司,加速 NN 运行的新方向)

[26] Iandola, Forrest N, et al SqueezeNet:带有 50x 更少参数和小于 1MB 模型大小的 AlexNet-层级精确度(SqueezeNet: AlexNet-level accuracy with 50x fewer parameters and< 1MB model size) (优化 NN 的另一个新方向,来自 DeePhi 科技初创公司)

23 无监督学习/深度生成模型

[27] Le, Quoc V 通过大规模无监督学习构建高级特征(Building high-level features using large scale unsupervised learning) (里程碑,吴恩达,谷歌大脑,猫)

[28] Kingma, Diederik P, and Max Welling 自动编码变异贝叶斯(Auto-encoding variational bayes) (VAE)

[29] Goodfellow, Ian, et al 生成对抗网络(Generative adversarial nets)(GAN, 超酷的想法)

[30] Radford, Alec, Luke Metz, and Soumith Chintala 带有深度卷曲生成对抗网络的无监督特征学习(Unsupervised representation learning with deep convolutional generative adversarial networks)(DCGAN)

[31] Gregor, Karol, et al DRAW:一个用于图像生成的循环神经网络(DRAW: A recurrent neural network for image generation) (值得注意的 VAE,杰出的工作)

[32] Oord, Aaron van den, Nal Kalchbrenner, and Koray Kavukcuoglu 像素循环神经网络(Pixel recurrent neural networks)(像素 RNN)

[33] Oord, Aaron van den, et al 使用像素 CNN 解码器有条件地生成图像(Conditional image generation with PixelCNN decoders) (像素 CNN)

24 RNN/序列到序列模型

[34] Graves, Alex 带有循环神经网络的生成序列(Generating sequences with recurrent neural networks)(LSTM, 非常好的生成结果,展示了 RNN 的力量)

[35] Cho, Kyunghyun, et al 使用 RNN 编码器-解码器学习词组表征用于统计机器翻译(Learning phrase representations using RNN encoder-decoder for statistical machine translation) (第一个序列到序列论文)

[36] Sutskever, Ilya, Oriol Vinyals, and Quoc V Le 运用神经网路的序列到序列学习(Sequence to sequence learning with neural networks」)(杰出的工作)

[37] Bahdanau, Dzmitry, KyungHyun Cho, and Yoshua Bengio 通过共同学习来匹配和翻译神经机器翻译(Neural Machine Translation by Jointly Learning to Align and Translate)

[38] Vinyals, Oriol, and Quoc Le 一个神经对话模型(A neural conversational model)(聊天机器人上的序列到序列)

25 神经图灵机

[39] Graves, Alex, Greg Wayne, and Ivo Danihelka 神经图灵机器(Neural turing machines)arXiv preprint arXiv:14105401 (2014) (未来计算机的基本原型)

[40] Zaremba, Wojciech, and Ilya Sutskever 强化学习神经图灵机(Reinforcement learning neural Turing machines)

[41] Weston, Jason, Sumit Chopra, and Antoine Bordes 记忆网络(Memory networks)

[42] Sukhbaatar, Sainbayar, Jason Weston, and Rob Fergus 端到端记忆网络(End-to-end memory networks)

[43] Vinyals, Oriol, Meire Fortunato, and Navdeep Jaitly 指示器网络(Pointer networks)

[44] Graves, Alex, et al 使用带有动力外部内存的神经网络的混合计算(Hybrid computing using a neural network with dynamic external memory)(里程碑,结合上述论文的思想)

26 深度强化学习

[45] Mnih, Volodymyr, et al 使用深度强化学习玩 atari 游戏(Playing atari with deep reinforcement learning) (第一篇以深度强化学习命名的论文)

[46] Mnih, Volodymyr, et al 通过深度强化学习达到人类水准的控制(Human-level control through deep reinforcement learning) (里程碑)

[47] Wang, Ziyu, Nando de Freitas, and Marc Lanctot 用于深度强化学习的决斗网络架构(Dueling network architectures for deep reinforcement learning) (ICLR 最佳论文,伟大的想法 )

[48] Mnih, Volodymyr, et al 用于深度强化学习的异步方法(Asynchronous methods for deep reinforcement learning) (当前最先进的方法)

[49] Lillicrap, Timothy P, et al 运用深度强化学习进行持续控制(Continuous control with deep reinforcement learning) (DDPG)

[50] Gu, Shixiang, et al 带有模型加速的持续深层 Q-学习(Continuous Deep Q-Learning with Model-based Acceleration)

[51] Schulman, John, et al 信赖域策略优化(Trust region policy optimization) (TRPO)

[52] Silver, David, et al 使用深度神经网络和树搜索掌握围棋游戏(Mastering the game of Go with deep neural networks and tree search) (阿尔法狗)

27 深度迁移学习/终身学习/尤其对于 RL

[53] Bengio, Yoshua 表征无监督和迁移学习的深度学习(Deep Learning of Representations for Unsupervised and Transfer Learning) (一个教程)

[54] Silver, Daniel L, Qiang Yang, and Lianghao Li 终身机器学习系统:超越学习算法(Lifelong Machine Learning Systems: Beyond Learning Algorithms) (一个关于终生学习的简要讨论)

[55] Hinton, Geoffrey, Oriol Vinyals, and Jeff Dean 提取神经网络中的知识(Distilling the knowledge in a neural network) (教父的工作)

[56] Rusu, Andrei A, et al 策略提取(Policy distillation) (RL 领域)

[57] Parisotto, Emilio, Jimmy Lei Ba, and Ruslan Salakhutdinov 演员模仿:深度多任务和迁移强化学习(Actor-mimic: Deep multitask and transfer reinforcement learning) (RL 领域)

[58] Rusu, Andrei A, et al 渐进神经网络(Progressive neural networks)(杰出的工作,一项全新的工作)

28 一次性深度学习

[59] Lake, Brenden M, Ruslan Salakhutdinov, and Joshua B Tenenbaum 通过概率程序归纳达到人类水准的概念学习(Human-level concept learning through probabilistic program induction)(不是深度学习,但是值得阅读)

[60] Koch, Gregory, Richard Zemel, and Ruslan Salakhutdinov 用于一次图像识别的孪生神经网络(Siamese Neural Networks for One-shot Image Recognition)

[61] Santoro, Adam, et al 用记忆增强神经网络进行一次性学习(One-shot Learning with Memory-Augmented Neural Networks ) (一个一次性学习的基本步骤)

[62] Vinyals, Oriol, et al 用于一次性学习的匹配网络(Matching Networks for One Shot Learning)

[63] Hariharan, Bharath, and Ross Girshick 少量视觉物体识别(Low-shot visual object recognition)(走向大数据的一步)

3 应用

31 NLP(自然语言处理)

[1] Antoine Bordes, et al 开放文本语义分析的词和意义表征的联合学习(Joint Learning of Words and Meaning Representations for Open-Text Semantic Parsing)

[2] Mikolov, et al 词和短语及其组合性的分布式表征(Distributed representations of words and phrases and their compositionality) (word2vec)

[3] Sutskever, et al 运用神经网络的序列到序列学习(Sequence to sequence learning with neural networks)

[4] Ankit Kumar, et al 问我一切:动态记忆网络用于自然语言处理(Ask Me Anything: Dynamic Memory Networks for Natural Language Processing)

[5] Yoon Kim, et al 角色意识的神经语言模型(Character-Aware Neural Language Models)

[6] Jason Weston, et al 走向人工智能-完成问题回答:一组前提玩具任务(Towards AI-Complete Question Answering: A Set of Prerequisite Toy Tasks) (bAbI 任务)

[7] Karl Moritz Hermann, et al 教机器阅读和理解(Teaching Machines to Read and Comprehend)(CNN/每日邮件完形风格问题)

[8] Alexis Conneau, et al 非常深度卷曲网络用于自然语言处理(Very Deep Convolutional Networks for Natural Language Processing) (在文本分类中当前最好的)

[9] Armand Joulin, et al 诡计包用于有效文本分类(Bag of Tricks for Efficient Text Classification)(比最好的差一点,但快很多)

以上就是关于图像简史——程序员眼中的图像发展史全部的内容,包括:图像简史——程序员眼中的图像发展史、an适合什么样的人物模型、如何开启深度学习之旅等相关内容解答,如果想了解更多相关内容,可以关注我们,你们的支持是我们更新的动力!

欢迎分享,转载请注明来源:内存溢出

原文地址:https://54852.com/zz/10079924.html

(0)
打赏 微信扫一扫微信扫一扫 支付宝扫一扫支付宝扫一扫
上一篇 2023-05-05
下一篇2023-05-05

发表评论

登录后才能评论

评论列表(0条)

    保存