【K230新技能点亮】LVGL + 检测实战,教你秒做定制化智能界面

Viewed 17

问题描述


当嵌入式设备遇上AI视觉,再加上灵动的图形交互,会碰撞出怎样的火花?今天,我们要给大家带来一个基于K230的「LVGL+检测」 demo,带你解锁嵌入式智能交互的新姿势!

一、硬件环境

  • K230开发板
  • 摄像头

二、软件环境

demo路径:
\CanMV\sdcard\examples\21-AI-With-Others\ai_lvgl.py

三、代码流程

image.png

1. AI模型封装

分别用ObjectDetectionApp和FaceDetectionApp类封装YOLOv8和人脸识别功能,包含预处理(图像缩放/填充)、推理、后处理(置信度过滤、NMS)和结果绘制,开箱即用

2. LVGL交互实现

通过touch_screen类处理触摸输入,user_gui_init函数初始化UI组件(按钮、字体、布局),点击事件直接关联检测模式切换,代码简洁易改。

3. 媒体与线程管理

media_init初始化摄像头和显示屏,face_det_thread和yolov8_det_thread作为独立线程运行检测和绘制结果动作。

image.png

4.适用场景拓展

这个demo只是起点,基于它你可以开发:

  • 智能门禁:人脸识别+LVGL交互界面,支持刷卡/人脸双模式
  • 零售货架:YOLOv8识别商品,LVGL显示价格和库存
  • 宠物监控:识别宠物行为,触摸操作切换监控模式

行动起来!

如果你也想在K230上实现这样的智能交互,不妨从这个demo入手:

  1. 准备好K230开发板、摄像头和显示屏
  2. 加载demo代码,体验目标检测和人脸识别切换
  3. 动手修改UI样式,或者尝试接入自己训练的AI模型

嵌入式智能交互的更多可能,等你来解锁!

1 Answers

文章已同步发表在嘉楠开发者微信公众号上面