dirty 发表于 2025-1-26 14:50

【嘉楠K230开发板】人脸检测

本帖最后由 dirty 于 2025-1-26 14:54 编辑

<p>&nbsp; &nbsp; &nbsp; 本篇讲述使用K230进行人脸检测。</p>

<p><strong><span style="color:#0000ff;">一.了解AI视觉开发框架</span></strong></p>

<p>&nbsp; &nbsp; &nbsp; K230的KPU是一个内部神经网络处理器,它可以在低功耗的情况下实现卷积神经网络计算,实时获取被检测目标的大小、坐标和种类,对人脸或者物体进行检测和分类,支持INT8和INT16。CanMV官方基于K230专门搭建了配套的AI视觉开发框架。框架结构如下图所示:</p>

<div style="text-align: center;"></div>

<p>&nbsp; &nbsp; &nbsp; 这个框架简单来说就是Sensor(摄像头)默认输出两路图像,一路格式为YUV420,直接给到Display显示;另一路格式为RGB888,给到AI部分进行处理。AI主要实现任务的前处理、推理和后处理流程,得到后处理结果后将其绘制在osd image实例上,并送给Display叠加,最后在HDMI、LCD或IDE缓冲区显示识别结果。</p>

<p>&nbsp; &nbsp; &nbsp; AI视觉开发框架主要API接口有:</p>

<p>●PineLine:将sensor、display封装成固定接口,用于采集图像、画图以及结果图片显示。</p>

<p>●AI2D:预处理(Preprocess)相关接口。</p>

<p>●AIBase:模型推理主要接口。</p>

<p>&nbsp;</p>

<p><strong><span style="color:#0000ff;">二.人脸检测</span></strong></p>

<p>&nbsp; &nbsp; &nbsp; 人脸检测,是将一幅图片中人脸检测出来,支持单个和多个人脸。</p>

<p>&nbsp; &nbsp; &nbsp; 本次人脸检测功能将摄像头拍摄到的画面中的人脸用矩形框标识出来。编程流程如下:</p>

<div style="text-align: center;"></div>

<p>&nbsp; &nbsp; &nbsp; 实现代码如下:</p>

<pre>
<code>'''人脸检测
'''
from media.sensor import * #导入sensor模块,使用摄像头相关接口
from libs.PipeLine import PipeLine, ScopedTiming
from libs.AIBase import AIBase
from libs.AI2D import Ai2d
import os
import ujson
from media.media import *
from time import *
import nncase_runtime as nn
import ulab.numpy as np
import time
import utime
import image
import random
import gc
import sys
import aidemo

# 自定义人脸检测类,继承自AIBase基类
class FaceDetectionApp(AIBase):
    def __init__(self, kmodel_path, model_input_size, anchors, confidence_threshold=0.5, nms_threshold=0.2, rgb888p_size=, display_size=, debug_mode=0):
      super().__init__(kmodel_path, model_input_size, rgb888p_size, debug_mode)# 调用基类的构造函数
      self.kmodel_path = kmodel_path# 模型文件路径
      self.model_input_size = model_input_size# 模型输入分辨率
      self.confidence_threshold = confidence_threshold# 置信度阈值
      self.nms_threshold = nms_threshold# NMS(非极大值抑制)阈值
      self.anchors = anchors# 锚点数据,用于目标检测
      self.rgb888p_size = , 16), rgb888p_size]# sensor给到AI的图像分辨率,并对宽度进行16的对齐
      self.display_size = , 16), display_size]# 显示分辨率,并对宽度进行16的对齐
      self.debug_mode = debug_mode# 是否开启调试模式
      self.ai2d = Ai2d(debug_mode)# 实例化Ai2d,用于实现模型预处理
      self.ai2d.set_ai2d_dtype(nn.ai2d_format.NCHW_FMT, nn.ai2d_format.NCHW_FMT, np.uint8, np.uint8)# 设置Ai2d的输入输出格式和类型

    # 配置预处理操作,这里使用了pad和resize,Ai2d支持crop/shift/pad/resize/affine,具体代码请打开/sdcard/app/libs/AI2D.py查看
    def config_preprocess(self, input_image_size=None):
      with ScopedTiming("set preprocess config", self.debug_mode &gt; 0):# 计时器,如果debug_mode大于0则开启
            ai2d_input_size = input_image_size if input_image_size else self.rgb888p_size# 初始化ai2d预处理配置,默认为sensor给到AI的尺寸,可以通过设置input_image_size自行修改输入尺寸
            top, bottom, left, right = self.get_padding_param()# 获取padding参数
            self.ai2d.pad(, 0, )# 填充边缘
            self.ai2d.resize(nn.interp_method.tf_bilinear, nn.interp_mode.half_pixel)# 缩放图像
            self.ai2d.build(,ai2d_input_size],,self.model_input_size])# 构建预处理流程

    # 自定义当前任务的后处理,results是模型输出array列表,这里使用了aidemo库的face_det_post_process接口
    def postprocess(self, results):
      with ScopedTiming("postprocess", self.debug_mode &gt; 0):
            post_ret = aidemo.face_det_post_process(self.confidence_threshold, self.nms_threshold, self.model_input_size, self.anchors, self.rgb888p_size, results)
            if len(post_ret) == 0:
                return post_ret
            else:
                return post_ret

    # 绘制检测结果到画面上
    def draw_result(self, pl, dets):
      with ScopedTiming("display_draw", self.debug_mode &gt; 0):
            if dets:
                pl.osd_img.clear()# 清除OSD图像
                for det in dets:
                  # 将检测框的坐标转换为显示分辨率下的坐标
                  x, y, w, h = map(lambda x: int(round(x, 0)), det[:4])
                  x = x * self.display_size // self.rgb888p_size
                  y = y * self.display_size // self.rgb888p_size
                  w = w * self.display_size // self.rgb888p_size
                  h = h * self.display_size // self.rgb888p_size
                  pl.osd_img.draw_rectangle(x, y, w, h, color=(255, 255, 0, 255), thickness=2)# 绘制矩形框
            else:
                pl.osd_img.clear()

    # 获取padding参数
    def get_padding_param(self):
      dst_w = self.model_input_size# 模型输入宽度
      dst_h = self.model_input_size# 模型输入高度
      ratio_w = dst_w / self.rgb888p_size# 宽度缩放比例
      ratio_h = dst_h / self.rgb888p_size# 高度缩放比例
      ratio = min(ratio_w, ratio_h)# 取较小的缩放比例
      new_w = int(ratio * self.rgb888p_size)# 新宽度
      new_h = int(ratio * self.rgb888p_size)# 新高度
      dw = (dst_w - new_w) / 2# 宽度差
      dh = (dst_h - new_h) / 2# 高度差
      top = int(round(0))
      bottom = int(round(dh * 2 + 0.1))
      left = int(round(0))
      right = int(round(dw * 2 - 0.1))
      return top, bottom, left, right

if __name__ == "__main__":
    # 显示模式,默认"hdmi",可以选择"hdmi"和"lcd"
    display_mode="lcd"
    if display_mode=="hdmi":
      display_size=
    else:
      display_size=
    # 设置模型路径和其他参数
    kmodel_path = "/sdcard/examples/kmodel/face_detection_320.kmodel"
    # 其它参数
    confidence_threshold = 0.5
    nms_threshold = 0.2
    anchor_len = 4200
    det_dim = 4
    anchors_path = "/sdcard/examples/utils/prior_data_320.bin"
    anchors = np.fromfile(anchors_path, dtype=np.float)
    anchors = anchors.reshape((anchor_len, det_dim))
    rgb888p_size =

    # 初始化PipeLine,用于图像处理流程
    pl = PipeLine(rgb888p_size=rgb888p_size, display_size=display_size, display_mode=display_mode)
    pl.create()# 创建PipeLine实例
    # 初始化自定义人脸检测实例
    face_det = FaceDetectionApp(kmodel_path, model_input_size=, anchors=anchors, confidence_threshold=confidence_threshold, nms_threshold=nms_threshold, rgb888p_size=rgb888p_size, display_size=display_size, debug_mode=0)
    face_det.config_preprocess()# 配置预处理

    clock = time.clock()

    while True:
      clock.tick()
      img = pl.get_frame()            # 获取当前帧数据
      res = face_det.run(img)         # 推理当前帧
      # 当检测到人脸时,打印结果
      if res:
            print(res)

      face_det.draw_result(pl, res)   # 绘制结果
      pl.show_image()               # 显示结果
      gc.collect()                  # 垃圾回收
      print(clock.fps()) #打印帧率</code></pre>

<p>&nbsp; &nbsp; &nbsp; 主函数实现获取当前帧数据,AI推理当前帧,检测到人脸绘制、显示结果,这里用到SD卡路径下人脸检测模型/sdcard/examples/kmodel/face_detection_320.kmodel。AI处理阶段定义在FaceDetectionApp类下config_preprocess、postprocess、get_padding_param。</p>

<p>&nbsp; &nbsp; &nbsp; 这里选用两张照片,运行摄像头正对照片,识别结果如下,可以看到图片中人脸均识别到。</p>

<div style="text-align: center;"></div>

<p>&nbsp;</p>

<p>&nbsp; &nbsp; &nbsp; 至此,实现人脸检测功能。</p>

<p>&nbsp;</p>

lugl4313820 发表于 2025-1-26 22:32

他跟公版算法的相比,如个速更快一些?

dirty 发表于 2025-2-9 19:20

lugl4313820 发表于 2025-1-26 22:32
他跟公版算法的相比,如个速更快一些?

<p>跟分辨率、帧率有些关系,检测结果还算快</p>
页: [1]
查看完整版本: 【嘉楠K230开发板】人脸检测