各位佬,想问下Pipeline模块图像的调用方法,该模块封装了单摄双通道默认配置,一路将 Camera 的图像直接送给 Display 模块显示;另一路使用 get_frame 接口获取一帧图像供 AI 程序使用。由于get_frame获取的图像,返回时转换成ulab.numpy.ndarray格式,无法使用。那如何调用剩下一路通道中的图像?
各位佬,想问下Pipeline模块图像的调用方法,该模块封装了单摄双通道默认配置,一路将 Camera 的图像直接送给 Display 模块显示;另一路使用 get_frame 接口获取一帧图像供 AI 程序使用。由于get_frame获取的图像,返回时转换成ulab.numpy.ndarray格式,无法使用。那如何调用剩下一路通道中的图像?
你好,可以参考sensor初始化部分,将pipeline内部的内容拿到外边,新增一路图像,代码可以参考:
https://www.kendryte.com/answer/questions/10010000000005867 帖子中的回答
sensor单摄两路初始化,可以增加到3路
上次那个也是我提问的,我试过那种方法了。虽然可以再次调用一个通道做处理,但是对于AI推理这一路,不调用pipeline了(不使用get_frame获取参数),直接使用sensor.snapshot(CAM_CHN_ID_2)获取AI推理的数据,这会导致实际测试时,处理AI推理极其卡顿,并且发烫严重,我尝试了很多方法都无法解决这个卡顿的问题。所以才会继续使用get_frame获取数据,这个至少不会卡顿,也不会过于发烫。这两种方法后续处理都是一样的。
上次那个也是我提问的,我试过那种方法了。虽然可以再次调用一个通道做处理,但是对于AI推理这一路,不调用pipeline了(不使用get_frame获取参数),直接使用sensor.snapshot(CAM_CHN_ID_2)获取AI推理的数据,这会导致实际测试时,处理AI推理极其卡顿,并且发烫严重,我尝试了很多方法都无法解决这个卡顿的问题。所以才会继续使用get_frame获取数据,这个至少不会卡顿,也不会过于发烫。这两种方法后续处理都是一样的。