【发布时间】:2020-05-13 10:22:26
【问题描述】:
我刚刚开始使用 Tensorflow 和 Keras 学习 CNN。
我找到了这两个实现,第一个是针对 U-NET 的,第二个是针对 VGG-16 的:
def unet(pretrained_weights = None,input_size = (256,256,1)):
inputs = Input(input_size)
conv1 = Conv2D(64, 3, activation = 'relu', padding = 'same', kernel_initializer = 'he_normal')(inputs)
VGG-16:
def vgg16(input_size = (224,224,3)):
model = Sequential()
model.add(Conv2D(input_shape=input_size,filters=64,kernel_size=(3,3),padding="same", activation="relu"))
model.add(Conv2D(filters=64,kernel_size=(3,3),padding="same", activation="relu"))
我注意到在 U-NET 上,他们使用的是单通道图像,而 VGG-16 使用的是三通道图像。而且,U-NET Conv2D 层使用kernel_size 等于 3,而在 VGG-16 上,等于 (3, 3)。
单通道图像使用 1D 内核大小和三通道图像使用 2D 内核大小之间有什么关系吗?
【问题讨论】:
标签: tensorflow keras computer-vision conv-neural-network