- 根据AI产品需求完成技术方案设计及算法设计和核心模块开发
- 计算机视觉算法的技术方向、技术难点攻关、性能优化等
- AI算法在嵌入式(异构平台)和服务器平台部署的研究和实现
- 技术上把关交付算法的性能和功能
我优势:
- 独立完成算法技术方案设计、嵌入式和服务器平台部署
- 模型压缩、量化
我优势:
**关键问题:**尺度不变,具有辨别力的关键点,旋转不变,语义鸿沟(局部特征在表达高级视觉概念方面的局限性,如细微噪声敏感性太强,特征编码空间结构信息缺失,无法捕捉实际问题中的兴趣区域)
优化方向:
引入更多的监督信息;
不同程度、维度的attention(包括层、channel、类等等);
Triplet loss及其各种变种;
不同的特征聚合方式;
2001.05027-DELG Unifying Deep Local and Global Features for Image Search 从conv4_x提取特征进入attention模块得到local feature,再经过降维从1024->40维,global feature从conv5_x经过聚合得到。端到端global和local特征提取方法
""" | |
Quantization module for generating the calibration tables will be used by | |
quantized (INT8) models from FP32 models.with bucket split,[k, k, cin, cout] | |
cut into "cout" buckets. | |
This tool is based on Caffe Framework. | |
""" | |
from __future__ import division | |
from __future__ import print_function | |
import argparse | |
import numpy as np |
1.逐行扫描图像,把每一行连续的非零目标像素组成一个序列称为一个块(block),并加下它的起点start、它的终点end以及它所在的行号。 | |
void fillBlockVectors(const Mat& img,Lanes& lanes){ | |
for(int i=0; i < img.rows; ++i){ | |
const uchar* rowData = img.ptr<uchar>(i); | |
if(rowData[0] != 0){ | |
lanes.NumOfBlocks++; | |
lanes.stBlock.push_back(0); | |
lanes.rowBlock.push_back(i); | |
lanes.lane_type.push_back(rowData[0]); | |
} |
TRT7.1.3支持到Opset 11 TensorFlow2.0使用tf.saved_model.save自定义保存模型 python3 -m tf2onnx.convert
错误问题
tf.compat.v1.graph_util.extract_sub_graph
AssertionError: unknown_317 is not in graphtorch.mm() | |
torch.bmm() batch-matrix-matrix两个3-dims矩阵相乘 | |
torch.matmul() | |
weights.reshape() | |
weights.resize_() | |
weights.view() | |
weights.from_numpy(numpy array) | |
tensor.numpy() | |
torch.detach()返回一个新的从当前图中分离出来的Variable,该Variable永远不需要梯度 | |
pytorch均值方差(bgr*255-mean)/std => svn工程 bgr*vStd - vMean 用numpy转换vMean = np.array([mean_b,mean_g,mean_r])/np.array([std_b,std_g,std_r]) vStd = 1/(255*np.array([std_b,std_g,std_r])) |
# export dynamic shape onnx TensorRT动态输入
x = torch.randn(4, 3, 256, 256, requires_grad=True).cuda()
res = net(imgs=[x])
torch.onnx.export(net,[x],"r2d2-0.onnx",opset_version=11)
torch.onnx.export(net, # model being run
[x], # model input (or a tuple for multiple inputs)