烦请您看下我提交的压缩文件,里面有caffe模型
输出结果异常,并无明显规律,网络一共有两个输入:layer { name: "data" type: "Input" top: "data" input_param { shape:{ dim:1 dim:3 dim:64 dim:192 } }}layer { name: "data1" type: "Input" top: "data1" input_param { shape { dim: 27 dim: 1 } }}然后这事lstm层:layer { name: "lstm0_0" type: "LSTM" bottom: "permute1" bottom: "data1" top: "lstm0_0" recurrent_param { num_output: 128 expose_hidden: false }}我想是不是data1这个输入层的问题?data输入转换之后是CNRT_UINT8,这个在其他模型上使用都没有问题,而data1转换之后是CNRT_FLOAT16类型,我分别使用过cnrtCastDataType和cnrtConvertFloatToHalf来将float转换成fp16,结果虽然有所改变,但仍然异常。展开
您好,您需要根据网络的具体情况,填写config.ini,如是否开启use_firstconv以及customer configuration的相关内容,出现结果异常的情况,您可以查看一下相关config是否填写正确。
您好,烦请您描述一下输出结果的具体差异,以方便我们定位问题。
输出结果异常,并无明显规律,网络一共有两个输入:
layer {
name: "data"
type: "Input"
top: "data"
input_param {
shape:{
dim:1
dim:3
dim:64
dim:192
}
}
}
layer {
name: "data1"
type: "Input"
top: "data1"
input_param {
shape {
dim: 27
dim: 1
}
}
}
然后这事lstm层:
layer {
name: "lstm0_0"
type: "LSTM"
bottom: "permute1"
bottom: "data1"
top: "lstm0_0"
recurrent_param {
num_output: 128
expose_hidden: false
}
}
我想是不是data1这个输入层的问题?data输入转换之后是CNRT_UINT8,这个在其他模型上使用都没有问题,而data1转换之后是CNRT_FLOAT16类型,我分别使用过cnrtCastDataType和cnrtConvertFloatToHalf来将float转换成fp16,结果虽然有所改变,但仍然异常。
请登录后评论