Keras中LeakyReLU等高级激活函数怎么用-创新互联

创新互联www.cdcxhl.cn八线动态BGP香港云服务器提供商,新人活动买多久送多久,划算不套路!

成都创新互联公司专业为企业提供下陆网站建设、下陆做网站、下陆网站设计、下陆网站制作等企业网站建设、网页设计与制作、下陆企业网站模板建站服务,10多年下陆做网站经验,不只是建网站,更提供有价值的思路和整体网络服务。

这篇文章主要介绍Keras中Leaky ReLU等高级激活函数怎么用,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们一定要看完!

在用Keras来实现CNN等一系列网络时,我们经常用ReLU作为激活函数,一般写法如下:

from keras import layers
from keras import models
 
model = models.Sequential()
model.add(layers.Conv2D(32, (3, 3), activation='relu', input_shape=(28, 28, 1))) 
model.add(layers.MaxPooling2D((2, 2)))
model.add(layers.Conv2D(64, (3, 3), activation='relu')) 
model.add(layers.MaxPooling2D((2, 2)))
model.add(layers.Conv2D(64, (3, 3), activation='relu'))

本文标题:Keras中LeakyReLU等高级激活函数怎么用-创新互联
分享URL:http://myzitong.com/article/dshhoi.html