原作 Jean-Carlos Paredes
Root 编译自 TowardDataScience
量子位 出品 | 公众号 QbitAI
卷积神经网络本身好复杂的说,想入门的小白们迫切希望有个太长不看版。
正好最近,国外最潮的DL学习网站Fast.ai在GitHub分享了个用Excel画的图,简单地解释了下啥是卷积神经网络。原作Jean-Carlos Paredes还特地把要点整理在博客上,顺便给大家介绍下搭建深度学习模型的大概过程。以下是原文。
2024年04月25日
原作 Jean-Carlos Paredes
Root 编译自 TowardDataScience
量子位 出品 | 公众号 QbitAI
卷积神经网络本身好复杂的说,想入门的小白们迫切希望有个太长不看版。
正好最近,国外最潮的DL学习网站Fast.ai在GitHub分享了个用Excel画的图,简单地解释了下啥是卷积神经网络。原作Jean-Carlos Paredes还特地把要点整理在博客上,顺便给大家介绍下搭建深度学习模型的大概过程。以下是原文。
2024年04月25日
选自Medium
作者:Nathan Hubens
机器之心编译
参与:Nurhachu Null、张倩
在训练了 50 个 epoch 之后,本文作者惊讶地发现模型什么都没学到,于是开始深挖背后的问题,并最终从恺明大神论文中得到的知识解决了问题。
2024年04月25日
本文在综述一些常用激活函数和注意力机制理论的基础上,解读了一种“注意力机制下的新型激活函数”,即“自适应参数化修正线性单元”(Adaptively Parametric Rectifier Linear Unit,APReLU)。
2024年04月25日
激活函数:在多层神经网络中,上层节点的输出和下层节点的输入之间具有一个函数关系,这个函数称为激活函数(又称激励函数)
激活函数的本质:
激活函数是来向神经网络中引入非线性因素的,通过激活函数,神经网络就可以拟合各种曲线。
2024年04月25日
本文为 AI 研习社编译的技术博客,原标题 :
Shallow Neural Networks
作者 | Rochak Agrawal
翻译 | hxyzzz0 编辑 | 邓普斯?杰弗、王立鱼
原文链接:
https://towardsdatascience.com/shallow-neural-networks-23594aa97a5
2024年04月25日
深度残差收缩网络是什么?为什么提出这个概念?它的核心步骤是什么?文章围绕深度残差收缩网络的相关研究,对这个问题进行了回答,与大家分享。
深度残差网络ResNet获得了2016年CVPR会议的最佳论文奖,截至目前,在谷歌学术上的引用量已经达到了38295次。
2024年04月25日
本文为 AI 研习社编译的技术博客,原标题 :
Review: RoR — ResNet of ResNet / Multilevel ResNet (Image Classification)
作者 | Sik-Ho Tsang
翻译 | 斯蒂芬·二狗子
2024年04月25日
KRAFTON公司(CEO CH Kim)于2023年6月1日成立了一个新的独立工作室,名为ReLU Games,并且任命一直负责领导KRAFTON特别项目II的MJ Kim为CEO。作为KRAFTON的第11个独立工作室,ReLU Games将专注于深度学习技术的游戏开发。
ReLU Games将跟随KRAFTON在2020年推出的内部孵化项目"特别项目II "的步伐,继续尝试将深度学习技术应用和游戏进行结合。KRAFTON还计划将过去三年间,运营“特别项目II”中积累的深度学习游戏制作经验和创意应用在新作的开发上。