关键词:
前言
1.关于证件照,有好多种制作办法,最常见的是使用PS来做图像处理,或者下载各种证件照相关的APP,一键制作,基本的步骤是先按人脸为基准切出适合的尺寸,然后把人像给抠出来,对人像进行美化处理,然后替换上要使用的背景色,比如蓝色或红色。
2.我这里也按着上面的步骤来用代码实现,先是人脸检测,剪切照片,替换背景色,美化和修脸暂时还没有时间写完。
3.因为是考虑到要移植到移动端(安卓和iOS),这里使用了ncnn做推理加速库,之前做过一些APP,加速库都选了ncnn,不管在安卓或者iOS上,性能都是不错的。
4.我的开发环境是win10, vs2019, opencv4.5, ncnn,如果要启用GPU加速,所以用到VulkanSDK,实现语言是C++。
5.先上效果图,对于背景纯度的要求不高,如果使用场景背景复杂的话,也可以完美抠图。
原始图像:
原图:
自动剪切出来的证件照:
原图:
自动剪切出来的证件照:
一.项目创建
1.使用vs2019新建一个C++项目,把OpenC和NCNN库导入,NCNN可以下载官方编译好的库,我也会在后面上传我使用的库和源码以及用到的模型。
2.如果要启用GPU推理,就要安装VulkanSDK,安装的步骤可以参考我之前的博客。
二.人脸检测
1.人脸检测这里面使用 SCRFD ,它带眼睛,鼻子,嘴角五个关键点的坐标,这个可以用做证件照参考点,人脸检测库这个也可以用libfacedetection,效果都差不多,如果是移动端最好选择SCRFD。
代码实现:
推理代码
#include "scrfd.h"
#include <string.h>
#include <opencv2/core/core.hpp>
#include <opencv2/imgproc/imgproc.hpp>
#include <ncnn/cpu.h> //安卓才用到
static inline float intersection_area(const FaceObject& a, const FaceObject& b)
cv::Rect_<float> inter = a.rect & b.rect;
return inter.area();
static void qsort_descent_inplace(std::vector<FaceObject>& faceobjects, int left, int right)
int i = left;
int j = right;
float p = faceobjects[(left + right) / 2].prob;
while (i <= j)
while (faceobjects[i].prob > p)
i++;
while (faceobjects[j].prob < p)
j--;
if (i <= j)
// swap
std::swap(faceobjects[i], faceobjects[j]);
i++;
j--;
// #pragma omp parallel sections
// #pragma omp section
if (left < j) qsort_descent_inplace(faceobjects, left, j);
// #pragma omp section
if (i < right) qsort_descent_inplace(faceobjects, i, right);
static void qsort_descent_inplace(std::vector<FaceObject>& faceobjects)
if (faceobjects.empty())
return;
qsort_descent_inplace(faceobjects, 0, faceobjects.size() - 1);
static void nms_sorted_bboxes(const std::vector<FaceObject>& faceobjects, std::vector<int>& picked, float nms_threshold)
picked.clear();
const int n = faceobjects.size();
std::vector<float> areas(n);
for (int i = 0; i < n; i++)
areas[i] = faceobjects[i].rect.area();
for (int i = 0; i < n; i++)
const FaceObject& a = faceobjects[i];
int keep = 1;
for (int j = 0; j < (int)picked.size(); j++)
const FaceObject& b = faceobjects[picked[j]];
// intersection over union
float inter_area = intersection_area(a, b);
float union_area = areas[i] + areas[picked[j]] - inter_area;
// float IoU = inter_area / union_area
if (inter_area / union_area > nms_threshold)
keep = 0;
if (keep)
picked.push_back(i);
static ncnn::Mat generate_anchors(int base_size, const ncnn::Mat& ratios, const ncnn::Mat& scales)
int num_ratio = ratios.w;
int num_scale = scales.w;
ncnn::Mat anchors;
anchors.create(4, num_ratio * num_scale);
const float cx = 0;
const float cy = 0;
for (int i = 0; i < num_ratio; i++)
float ar = ratios[i];
int r_w = round(base_size / sqrt(ar));
int r_h = round(r_w * ar); //round(base_size * sqrt(ar));
for (int j = 0; j < num_scale; j++)
float scale = scales[j];
float rs_w = r_w * scale;
float rs_h = r_h * scale;
float* anchor = anchors.row(i * num_scale + j);
anchor[0] = cx - rs_w * 0.5f;
anchor[1] = cy - rs_h * 0.5f;
anchor[2] = cx + rs_w * 0.5f;
anchor[3] = cy + rs_h * 0.5f;
return anchors;
static void generate_proposals(const ncnn::Mat& anchors, int feat_stride, const ncnn::Mat& score_blob, const ncnn::Mat& bbox_blob, const ncnn::Mat& kps_blob, float prob_threshold, std::vector<FaceObject>& faceobjects)
int w = score_blob.w;
int h = score_blob.h;
// generate face proposal from bbox deltas and shifted anchors
const int num_anchors = anchors.h;
for (int q = 0; q < num_anchors; q++)
const float* anchor = anchors.row(q);
const ncnn::Mat score = score_blob.channel(q);
const ncnn::Mat bbox = bbox_blob.channel_range(q * 4, 4);
// shifted anchor
float anchor_y = anchor[1];
float anchor_w = anchor[2] - anchor[0];
float anchor_h = anchor[3] - anchor[1];
for (int i = 0; i < h; i++)
float anchor_x = anchor[0];
for (int j = 0; j < w; j++)
int index = i * w + j;
float prob = score[index];
if (prob >= prob_threshold)
// insightface/detection/scrfd/mmdet/models/dense_heads/scrfd_head.py _get_bboxes_single()
float dx = bbox.channel(0)[index] * feat_stride;
float dy = bbox.channel(1)[index] * feat_stride;
float dw = bbox.channel(2)[index] * feat_stride;
float dh = bbox.channel(3)[index] * feat_stride;
// insightface/detection/scrfd/mmdet/core/bbox/transforms.py distance2bbox()
float cx = anchor_x + anchor_w * 0.5f;
float cy = anchor_y + anchor_h * 0.5f;
float x0 = cx - dx;
float y0 = cy - dy;
float x1 = cx + dw;
float y1 = cy + dh;
FaceObject obj;
obj.rect.x = x0;
obj.rect.y = y0;
obj.rect.width = x1 - x0 + 1;
obj.rect.height = y1 - y0 + 1;
obj.prob = prob;
if (!kps_blob.empty())
const ncnn::Mat kps = kps_blob.channel_range(q * 10, 10);
obj.landmark[0].x = cx + kps.channel(0)[index] * feat_stride;
obj.landmark[0].y = cy + kps.channel(1)[index] * feat_stride;
obj.landmark[1].x = cx + kps.channel(2)[index] * feat_stride;
obj.landmark[1].y = cy + kps.channel(3)[index] * feat_stride;
obj.landmark[2].x = cx + kps.channel(4)[index] * feat_stride;
obj.landmark[2].y = cy + kps.channel(5)[index] * feat_stride;
obj.landmark[3].x = cx + kps.channel(6)[index] * feat_stride;
obj.landmark[3].y = cy + kps.channel(7)[index] * feat_stride;
obj.landmark[4].x = cx + kps.channel(8)[index] * feat_stride;
obj.landmark[4].y = cy + kps.channel(9)[index] * feat_stride;
faceobjects.push_back(obj);
anchor_x += feat_stride;
anchor_y += feat_stride;
SCRFD::SCRFD()
int SCRFD::detect(const cv::Mat& rgb, std::vector<FaceObject>& faceobjects, float prob_threshold, float nms_threshold)
int width = rgb.cols;
int height = rgb.rows;
// insightface/detection/scrfd/configs/scrfd/scrfd_500m.py
const int target_size = 640;
// pad to multiple of 32
int w = width;
int h = height;
float scale = 1.f;
if (w > h)
scale = (float)target_size / w;
w = target_size;
h = h * scale;
else
scale = (float)target_size / h;
h = target_size;
w = w * scale;
ncnn::Mat in = ncnn::Mat::from_pixels_resize(rgb.data, ncnn::Mat::PIXEL_RGB, width, height, w, h);
// pad to target_size rectangle
int wpad = (w + 31) / 32 * 32 - w;
int hpad = (h + 31) / 32 * 32 - h;
ncnn::Mat in_pad;
ncnn::copy_make_border(in, in_pad, hpad / 2, hpad - hpad / 2, wpad / 2, wpad - wpad / 2, ncnn::BORDER_CONSTANT, 0.f);
const float mean_vals[3] = 127.5f, 127.5f, 127.5f;
const float norm_vals[3] = 1/128.f, 1/128.f, 1/128.f;
in_pad.substract_mean_normalize(mean_vals, norm_vals);
ncnn::Extractor ex = scrfd_net.create_extractor();
ex.input("input.1", in_pad);
std::vector<FaceObject> faceproposals;
// stride 8
ncnn::Mat score_blob, bbox_blob, kps_blob;
ex.extract("score_8", score_blob);
ex.extract("bbox_8", bbox_blob);
if (has_kps)
ex.extract("kps_8", kps_blob);
const int base_size = 16;
const int feat_stride = 8;
ncnn::Mat ratios(1);
ratios[0] = 1.f;
ncnn::Mat scales(2);
scales[0] = 1.f;
scales[1] = 2.f;
ncnn::Mat anchors = generate_anchors(base_size, ratios, scales);
std::vector<FaceObject> faceobjects32;
generate_proposals(anchors, feat_stride, score_blob, bbox_blob, kps_blob, prob_threshold, faceobjects32);
faceproposals.insert(faceproposals.end(), faceobjects32.begin(), faceobjects32.end());
// stride 16
ncnn::Mat score_blob, bbox_blob, kps_blob;
ex.extract("score_16", score_blob);
ex.extract("bbox_16", bbox_blob);
if (has_kps)
ex.extract("kps_16", kps_blob);
const int base_size = 64;
const int feat_stride = 16;
ncnn::Mat ratios(1);
ratios[0] = 1.f;
ncnn::Mat scales(2);
scales[0] = 1.f;
scales[1] = 2.f;
ncnn::Mat anchors = generate_anchors(base_size, ratios, scales);
std::vector<FaceObject> faceobjects16;
generate_proposals(anchors, feat_stride, score_blob, bbox_blob, kps_blob, prob_threshold, faceobjects16);
faceproposals.insert(faceproposals.end(), faceobjects16.begin(), faceobjects16.end());
// stride 32
ncnn::Mat score_blob,python案例一键自动抠图生成证件照(代码片段)
...会抠图?本文实现基于人工智能的一键自动抠图生成证件照。在进入正文之前,先看最终效果:为了让读者快速体验,我写了个小程序:证照工具箱,可打开直接体验。1人脸检测在制作证件照时,首选需... 查看详情
ps——规定尺寸的证件照的制作
各种尺寸证件照片制作方法根据要求,新建指定尺寸(像素)的画布,分辨率一般选择300即可。ctrl+n打开原拍摄相片,使用选区工具(如魔棒工具)进行选择,将除了背景的人像部分复制,粘贴到新建的画布上ctrl+c,ctrl+vctrl+t自... 查看详情
制作证件照电子档
最近办理了新证件,一直随身携带着感觉又很麻烦,今天突然想到了原来的老办法,制作一个电子档,随时随地可以用。查看了很多网站,竟然没有找到理想的方法,特此记录。一种:有手机,拍照功能强悍,可以就此用手... 查看详情
人脸识别的人像处理流程是怎样的?
...比如刷脸进站、刷脸支付、刷脸考勤、高校学习等领域,人脸识别技术逐渐***了我们的生活,人脸识别的公司为我们提供了更加便捷的生活方式,那么人脸识别技术的人像处理流程是怎样的呢?下面捷易科技就来介绍下。人脸识... 查看详情
机器视觉的主要研究内容和细分方向(超全超赞)
...人体姿态估计人体动作检测人体配装换装行人检测与识别人脸技术相关人脸美颜人脸检测人脸对齐人脸验证人脸检索属性识别表情识别活体检测人脸交换虹膜识别主要软件工具OpenCVTensorFlowPyTorchPILSKI-ImageMatlab主要数据集非常完整... 查看详情
人脸识别介绍
人脸识别人脸识别技术是基于人的脸部特征信息进行身份识别的一种生物识别技术。用摄像机或摄像头采集含有人脸的图像或视频流,并自动在图像中检测和跟踪人脸,进而对检测到的人脸进行脸部的一系列相关技术,通常也叫... 查看详情
加载人像检测模型的代码是
...识别也没那么难。今天我们就来看看如何在40行代码以内简单地实现人脸识别。一点区分对于大部分人来说,区分人脸检测和人脸识别完全不是问题。但是网上有很多教程有无无意地把人脸检测说成是人脸识别,误导群众,造成... 查看详情
人像抠图——基于深度学习一键去除视频背景(代码片段)
前言1.抠图技术应用很广泛,比如证件照,美体,人体区域特殊处理,还有B站的字幕穿人效果等等。这些的关键技术都在于高精度高性能的分割算法。RobustVideoMatting是来自字节跳动视频人像抠图算法(RVM)... 查看详情
证件照制作(一寸二寸照片制作)微信小程序源码
简介:这是一款证件照制作的微信小程序,里面也支持直接微信公众号版本生成安装支持多种尺寸制作支持相册上传于直接相机拍摄支持多种类型的证件制作如,职业证件,公务员证件,身份证等各种类型支持电子照存档等等拥有... 查看详情
可换服装的证件照软件免费下载
想必大家都知道,各种标准的证件照制作都是有一定的要求,而在证件照服装上的严格要求就是其中一项,证件照服装都要求是正装。在照片采集时,如果需要用户都是在穿正装的时候拍照,多少会给用户带来一定的不便。而通... 查看详情
[数字媒体]photoshop基础之图像校正抠图(证件照)和融合
...频制作、动画制作等内容。希望您喜欢~文章目录一.Excel证件照换背景二.PS图像校正三.PS抠图四.PS图像融合五.总结一.Excel证件照换背景大家在找工作或面试过程中,通常会遇到证件照替换背景的问题,下面介绍Excel替换背... 查看详情
[数字媒体]photoshop基础之图像校正抠图(证件照)和融合
...频制作、动画制作等内容。希望您喜欢~文章目录一.Excel证件照换背景二.PS图像校正三.PS抠图四.PS图像融合五.总结一.Excel证件照换背景大家在找工作或面试过程中,通常会遇到证件照替换背景的问题,下面介绍Excel替换背... 查看详情
linux下基于gtk人脸识别界面设计
Linux下基于GTK人脸识别界面设计1.人脸识别简介 人脸识别,是基于人的脸部特征信息进行身份识别的一种生物识别技术。用摄像机或摄像头采集含有人脸的图像或视频流,并自动在图像中检测和跟踪人脸,进而... 查看详情
我有证件照,但没有电子版证件照,现急需电子版证件照,请问如何获取?
...议你这样试试看:1、最佳解决方案可以通过打印机扫描证件,这样才能保证证件的清晰程度。操作步骤:①、首先将证件放在打印机扫描处,摆放端正,盖上盖子。(如图所示)②、在电脑端桌面左下角,点击圆形win图标,在... 查看详情
地标检测与人脸识别
】地标检测与人脸识别【英文标题】:landmarkdetectionvsfacerecognition【发布时间】:2021-07-2613:37:36【问题描述】:人脸地标检测和人脸识别一样吗?或者它们是两个不同的东西?如果是,它们之间有何不同?任何澄清将不胜感激。... 查看详情
❤️python实用工具之制作证件照(有界面附源码赞关藏)❤️(代码片段)
...方式❤️一点想说的想当年我不会Python的时候,做个证件照 查看详情
opencv——floodfill漫水填充,证件照换背景(代码片段)
漫水填充:floodFill函数简单来说,漫水填充就是自动选中与种子像素相连的区域,利用指定颜色进行区域颜色填充。Windows画图工具中的油漆桶功能和Photoshop的魔法棒选择工具,都是漫水填充的改进和延伸。//第一个版本intfloodFill... 查看详情
自动驾驶感知算法实战12——bev基于图像/lidar/多模态数据的3d检测与分割任务
自动驾驶感知算法实战专栏:https://blog.csdn.net/charmve/category_12097938.html目录基本概念背景BEV优势基本方案输入输出参考结构数据集评价指标损失函数关键技术案例分析BEVFormer介绍BEVFormer方案动机实验效果相关工作下一步工作更多... 查看详情