切换版块
×
基础软件平台
PyTorch开发
TensorFlow开发
编解码及SDK开发
BANG语言与计算库
开发工具链
MagicMind开发
软件栈百科
云平台集成
硬件产品专区
MLU370系列AI加速卡
MLU270系列AI加速卡
MLU220系列AI加速产品
经验方案交流区
经验案例与实践分享
开发者服务
开发者活动
公告与版务
高校支持
《智能计算系统》
签到
版块
社区
文档
SDK下载
370系列
200系列
开发平台
官网首页
注册
登录
全部版块
基础软件平台
硬件产品专区
经验方案交流区
开发者服务
高校支持
发布新帖
登录/注册
LV.1
tiger_k
168
积分
3
赞
23
帖子
113
回复
0
收藏
TA的动态
TA的帖子
TA的回复
【1024开发者日】 寒武纪与你并肩作“zhàn”(活动已结束)
我的回复:冲
0
关于cnstream的配置
我的回复:#11andy_marvelous回复抱歉,找驱动组同事再次确认,目前4.9驱动并未包含该问题的修复,4.12驱动才包含,而目前论坛上并未提供4.12驱动。所以您目前还是只能将解码与infer2放在同一张卡上。4.12驱动发布日期我正在询问相关同事,待同事确认后我再同步给您。展开好的 谢谢
0
关于cnstream的配置
我的回复:#7andy_marvelous回复是的,infer1 infer2 都行sorry 格式乱了
0
关于cnstream的配置
我的回复:#7andy_marvelous回复是的,infer1 infer2 都行可是我这边测试 解码和infer2 都必须放到一个板卡上 否则会报错。错误如下 I1217 16:47:19.466986 13006 model_cnrt.cpp:204] Load function from offline model succeeded CNSTREAM CORE I1217 16:47:19.479883 13006] Pipeline[MyPipeline] Start CNSTREAM CORE I1217 16:47:19.480082 13006] [stream_0]: Stream opening... CNSTREAM CORE I1217 16:47:19.480195 13006] Add stream success, stream id : [stream_0] CNSTREAM SOURCE I1217 16:47:19.489688 13030] [stream_0]: Got video info. CNSTREAM SOURCE I1217 16:47:19.489768 13030] [stream_0]: Begin create decoder CNSTREAM SOURCE I1217 16:47:19.495527 13030] [stream_0]: Finish create decoder hangup resv on port 1 2021-12-17 16:47:19.584963: [cnrtError] [13025] [Card : 0] Error occurred in cnrtGetPeerAccessibility during calling driver interface. 2021-12-17 16:47:19.585021: [cnrtError] [13025] [Card : 0] Return value is 258, MLU_MEMORY_ERROR_AccessPeer, means that \"Failed to check peerability\" CNSTREAM FRAME F1217 16:47:19.585049 13025] Call [cnrtGetPeerAccessibility(&can_peer, device_id, this->ctx.dev_id)] failed, error code: 632012 我的配置文件如下 \"source\" : { \"class_name\" : \"cnstream::DataSource\", \"next_modules\" : [\"detector\"], \"custom_params\" : { \"reuse_cndec_buf\" : \"true\", \"output_type\" : \"mlu\", \"decoder_type\" : \"mlu\", \"input_buf_number\" : 10, \"output_buf_number\" : 10, \"device_id\" : 0 } }, \"detector\" : { \"class_name\" : \"cnstream::Inferencer2\", \"parallelism\" : 1, \"next_modules\" : [\"tracker\"], \"max_input_queue_size\" : 20, \"custom_params\" : { \"model_path\" : \"/home/joyiot/Desktop/220/ly_w/s-fin-fc-half-0.05-45.cambricon\", // \"model_path\" : \"s-11-bdd-ini-fin-c4b4-220.cambricon\", \"func_name\" : \"subnet0\", \"preproc_name\" : \"VideoPreprocYolov3\", \"postproc_name\" : \"VideoPostprocYolov5\", \"keep_aspect_ratio\" : \"true\", \"model_input_pixel_format\" : \"ARGB32\", // \"model_input_pixel_format\" : \"RGB24\", \"batching_timeout\" : 100, \"threshold\" : 0.2, \"engine_num\" : 1, \"device_id\" : 1 }
0
关于cnstream的配置
我的回复:#5andy_marvelous回复您好,目前只支持source 与 infer 分卡,其他流程暂不支持分卡。这个infer是 infer1 或者infer2 都行吗?
0
关于cnstream的配置
我的回复:#1andy_marvelous回复您好,目前VideoPreprocYolov5不支持带firstconv的离线模型,建议您:(1)使用不带firstconv的离线模型(2)继续使用带firstconv的离线模型,并修改CNStream/samples/common/preprocess/video_preprocess_yolov5.cpp内的代码。model_input_pixel_format的值请参考samples/cns_launcher/configs/yolov5_object_detection_mlu270.json,该文件内model_input_pixel_format设为RGB24展开你好 cnstream手册上说的 将不同流程分配给不同的板卡,充分利用资源,可行吗?我这边测试 只要推理和跟踪不在一个设备上 就会报错 [cndrvWarning]Current version of Driver is 4.6, we cannot dump the information about the kernel failure. [cndrvWarning]If you want get the information about the kernel failure, please update driver to 4.8 version or higher 2021-12-15 14:46:28.897689: [cnrtError] [539] [Card : 1] Error occurred in cnrtInvokeKernel_V3 during calling driver interface.
0
CUDA转BANG C示例指南系列连载之一 BANG C编程基础
我的回复:BANG C并不是通过将计算分成多个thread执行来获得性能提升的,那么是怎么获得性能的提升呢? 或者有没有哪个文档介绍mlu基础原理的 推荐一下 谢谢
3
关于cnstream的配置
我的回复:#1andy_marvelous回复您好,目前VideoPreprocYolov5不支持带firstconv的离线模型,建议您:(1)使用不带firstconv的离线模型(2)继续使用带firstconv的离线模型,并修改CNStream/samples/common/preprocess/video_preprocess_yolov5.cpp内的代码。model_input_pixel_format的值请参考samples/cns_launcher/configs/yolov5_object_detection_mlu270.json,该文件内model_input_pixel_format设为RGB24展开ok 我明白了 非常感谢
0
关于cnstream的配置
我的回复:#1andy_marvelous回复您好,目前VideoPreprocYolov5不支持带firstconv的离线模型,建议您:(1)使用不带firstconv的离线模型(2)继续使用带firstconv的离线模型,并修改CNStream/samples/common/preprocess/video_preprocess_yolov5.cpp内的代码。model_input_pixel_format的值请参考samples/cns_launcher/configs/yolov5_object_detection_mlu270.json,该文件内model_input_pixel_format设为RGB24展开可以参考yolov3的后处理代码吗?我看到yolov3_object_detection_mlu270.json中model_input_pixel_format的设定是ARGB32,这个是带firstconv的离线模型吧
0
关于dump结果分析
我的回复:#1andy_marvelous回复您好:1. 网络误差并非逐层增大,因为量化的关系,有一些层的误差会偏大,但是有一些层能够将误差减小。例如,例如mlu上的某层conv有较多的-1到0之间的输出,而cpu上对应层的conv有较多的0到1之间的输出,此时mlu与cpu的误差会变大,若该conv层后接一个relu层,则会将大量-1到0之间的输出变为0,而cpu上对应的0到1的输出将保持原值,此时,误差将减小。2. 同上3. 您这边指的误差是mlu的最后一层的输出与cpu的输出的mse吗?还是指其他?4. 该问题与具体的conv输入有关。同时可参考第1点回复。5. 通常来说,精度不及预期可检查量化效果是否符合预期。mlu使用min-max量化,可以检查异常层的scale 与 pos,然后手动套用min-max量化公式检查pt内的weight是否符合量化预期。展开我用的是yolov5 6.0版本进行移植,
0
上一页
1
2
3
4
5
6
7
8
下一页
Github
开发平台
文档中心
新手必读
官方微信
版权所有 © 2024 寒武纪 Cambricon.com 备案/许可证号:
京ICP备17003415号-1
关闭