玖叶教程网

前端编程开发入门

一文带你看懂什么是神经网络(神经网络到底是怎样一回事)

原作 Jean-Carlos Paredes

Root 编译自 TowardDataScience

量子位 出品 | 公众号 QbitAI

卷积神经网络本身好复杂的说,想入门的小白们迫切希望有个太长不看版。

正好最近,国外最潮的DL学习网站Fast.ai在GitHub分享了个用Excel画的图,简单地解释了下啥是卷积神经网络。原作Jean-Carlos Paredes还特地把要点整理在博客上,顺便给大家介绍下搭建深度学习模型的大概过程。以下是原文。

为何Keras中的CNN是有问题的,如何修复它们?

选自Medium

作者:Nathan Hubens

机器之心编译

参与:Nurhachu Null、张倩

在训练了 50 个 epoch 之后,本文作者惊讶地发现模型什么都没学到,于是开始深挖背后的问题,并最终从恺明大神论文中得到的知识解决了问题。

深度残差网络+自适应参数化ReLU(调参记录23)Cifar10~95.47%

本文在

一种自适应参数化的ReLU激活函数(rem自适应原理)

本文在综述一些常用激活函数和注意力机制理论的基础上,解读了一种“注意力机制下的新型激活函数”,即“自适应参数化修正线性单元”(Adaptively Parametric Rectifier Linear Unit,APReLU)。

激活函数

手机上实现19FPS实时YOLObile目标检测,准确率超高

机器之心专栏

人工智能-深度学习-激活函数ReLU,Sigmoid,TanH,ELU,MaxOut

激活函数:在多层神经网络中,上层节点的输出和下层节点的输入之间具有一个函数关系,这个函数称为激活函数(又称激励函数)

激活函数的本质

激活函数是来向神经网络中引入非线性因素的,通过激活函数,神经网络就可以拟合各种曲线。


浅层神经网络(浅层神经网络与深度神经网络有什么联系)

本文为 AI 研习社编译的技术博客,原标题 :

Shallow Neural Networks

作者 | Rochak Agrawal

翻译 | hxyzzz0 编辑 | 邓普斯?杰弗、王立鱼

原文链接:

https://towardsdatascience.com/shallow-neural-networks-23594aa97a5

关于深度残差收缩网络,你需要知道这几点

深度残差收缩网络是什么?为什么提出这个概念?它的核心步骤是什么?文章围绕深度残差收缩网络的相关研究,对这个问题进行了回答,与大家分享。

深度残差网络ResNet获得了2016年CVPR会议的最佳论文奖,截至目前,在谷歌学术上的引用量已经达到了38295次。

RoR(ResNet of ResNet) - 用于图像分类的多级残差网络

本文为 AI 研习社编译的技术博客,原标题 :

Review: RoR — ResNet of ResNet / Multilevel ResNet (Image Classification)

作者 | Sik-Ho Tsang

翻译 | 斯蒂芬·二狗子

KRAFTON成立新工作室ReLU Games(新开工作室)

KRAFTON公司(CEO CH Kim)于2023年6月1日成立了一个新的独立工作室,名为ReLU Games,并且任命一直负责领导KRAFTON特别项目II的MJ Kim为CEO。作为KRAFTON的第11个独立工作室,ReLU Games将专注于深度学习技术的游戏开发。

ReLU Games将跟随KRAFTON在2020年推出的内部孵化项目"特别项目II "的步伐,继续尝试将深度学习技术应用和游戏进行结合。KRAFTON还计划将过去三年间,运营“特别项目II”中积累的深度学习游戏制作经验和创意应用在新作的开发上。

<< < 1 2 3 4 5 > >>
控制面板
您好,欢迎到访网站!
  查看权限
网站分类
最新留言