深度学习模型试跑(二):YOLACT/YOLACT++

深度学习模型试跑(二):YOLACT/YOLACT++

一.模型解读

链接中的解读很通俗详细,在此不做赘述;而且YOLACT++在大前天也发布了,作为一个为数不多的在实时检测中可以用mask分割目标的方法,确实非常值得有兴趣的研究人员以及相关学者期待一下.

详细解读
官方代码
YOLACT++解读

二.试跑效果

yolact

测试环境:
机器 : 华硕笔记本
GPU: Nvidia GTX1060
cuda: 10.1
cudnn: 7.5
关键库: python3.6.8,pytorch 1.0.1,torchvision 0.2.1,opencv-python 3.4.2等
试跑视屏:

深度学习模型试跑(二):YOLACT/YOLACT++

yolact++

测试环境:
机器 : Dell T5820服务器
GPU: Nvidia P4000
cuda: 10.1
cudnn: 7.5
关键库: torch 1.2.0; torchvision 0.2.2; opencv-python 3.4.7等

试跑视屏:
![yolact_plus_resnet50_54_800000.pth](https://img-blog.****img.cn/20191219114706581.jpg
深度学习模型试跑(二):YOLACT/YOLACT++
注意:官方提供了六个预训练的weights,每个weight对GPU的实时RAM都有要求,如果要想达到最好的效果需要用户根据自己的机器环境逐步调整video_multiframe和top_k等值。