【opencv】示例-videocapture_obsensor.cpp 读取和处理通过OBSENSOR摄像头获取的视频流数据...

发布于:2024-04-20 ⋅ 阅读:(27) ⋅ 点赞:(0)

a997cc7f76101abad68a185940910440.png

/**
 * 注意: Astra2、Gemini2 和 Gemini2L 相机目前仅支持 Windows 以及 Linux 内核版本不高于4.15,更高版本的 Linux 内核可能会有异常。
*/


#include <opencv2/videoio.hpp>   // 包含为视频捕捉提供的功能
#include <opencv2/highgui.hpp>   // 包含高层GUI(图形用户界面)功能
#include <opencv2/imgproc.hpp>   // 包含图像处理功能
#include <iostream>              // 包含标准输入输出流库


using namespace cv;              // 使用cv命名空间
int main()
{
    // 尝试打开摄像头
    VideoCapture obsensorCapture(0, CAP_OBSENSOR);
    // 如果摄像头打开失败
    if(!obsensorCapture.isOpened()){
        std::cerr << "Failed to open obsensor capture! Index out of range or no response from device";
        return -1;
    }


    // 获取obsensor相机的内参
    double fx = obsensorCapture.get(CAP_PROP_OBSENSOR_INTRINSIC_FX);
    double fy = obsensorCapture.get(CAP_PROP_OBSENSOR_INTRINSIC_FY);
    double cx = obsensorCapture.get(CAP_PROP_OBSENSOR_INTRINSIC_CX);
    double cy = obsensorCapture.get(CAP_PROP_OBSENSOR_INTRINSIC_CY);
    std::cout << "obsensor camera intrinsic params: fx=" << fx << ", fy=" << fy << ", cx=" << cx << ", cy=" << cy << std::endl;


    Mat image;            // 创建用于存放图像的矩阵
    Mat depthMap;         // 创建用于存放深度图的矩阵
    Mat adjDepthMap;      // 创建用于存放调整后的深度图的矩阵


    // 设置深度值的最小和最大范围
    const double minVal = 300;    // 深度值的最小值
    const double maxVal = 5000;   // 深度值的最大值
    while (true)
    {
        // 注释代码:用于捕获深度图像
        // obsensorCapture >> depthMap;


        // 另一种方法捕获深度图(和bgr彩色图像)。
        if (obsensorCapture.grab())
        {
            if (obsensorCapture.retrieve(image, CAP_OBSENSOR_BGR_IMAGE))
            {
                // 显示RGB彩色图像
                imshow("RGB", image);
            }


            if (obsensorCapture.retrieve(depthMap, CAP_OBSENSOR_DEPTH_MAP))
            {
                // 转换深度图到CV_8U,并进行调整,以便进行可视化
                depthMap.convertTo(adjDepthMap, CV_8U, 255.0 / (maxVal - minVal), -minVal * 255.0 / (maxVal - minVal));
                // 应用颜色映射,使深度图可视化更直观
                applyColorMap(adjDepthMap, adjDepthMap, COLORMAP_JET);
                // 显示调整后的深度图
                imshow("DEPTH", adjDepthMap);
            }


            // 将深度图覆盖在bgr图像上
            static const float alpha = 0.6f;
            if (!image.empty() && !depthMap.empty())
            {
                // 再次调整并转换深度图
                depthMap.convertTo(adjDepthMap, CV_8U, 255.0 / (maxVal - minVal), -minVal * 255.0 / (maxVal - minVal));
                // 改变大小以与彩色图像相匹配
                cv::resize(adjDepthMap, adjDepthMap, cv::Size(image.cols, image.rows));
                for (int i = 0; i < image.rows; i++)
                {
                    for (int j = 0; j < image.cols; j++)
                    {
                        // 混合像素值以获得深度覆盖效果
                        cv::Vec3b& outRgb = image.at<cv::Vec3b>(i, j);
                        uint8_t depthValue = 255 - adjDepthMap.at<uint8_t>(i, j);
                        if (depthValue != 0 && depthValue != 255)
                        {
                            outRgb[0] = (uint8_t)(outRgb[0] * (1.0f - alpha) + depthValue * alpha);
                            outRgb[1] = (uint8_t)(outRgb[1] * (1.0f - alpha) + depthValue *  alpha);
                            outRgb[2] = (uint8_t)(outRgb[2] * (1.0f - alpha) + depthValue *  alpha);
                        }
                    }
                }
                // 显示深度信息叠加到彩色图上的图像
                imshow("DepthToColor", image);
            }
            // 释放图像矩阵占用的内存
            image.release();
            depthMap.release();
        }


        // 如果检测到按键,则退出循环
        if (pollKey() >= 0)
            break;
    }
    return 0;
}

这段代码实现的功能是使用opencv库来读取和处理通过OBSENSOR摄像头获取的视频流数据。它会尝试打开摄像头,读取摄像头的内参,并不断地捕获视频帧和深度信息。视频帧将以RGB的形式显示,深度信息将会通过调整转换成为可视化的彩色深度图,并显示出来。此外,它还提供了将深度图与RGB图像相结合显示的功能,这通过混合两个图像的像素值实现。整个过程将持续进行,直到检测到按键操作为止。

depthMap.convertTo(adjDepthMap, CV_8U, 255.0 / (maxVal - minVal), -minVal * 255.0 / (maxVal - minVal));

655bbd963d98ea0510528124d1df5d17.png

混合像素值以获得深度覆盖效果

2c6350ad168b5c687d281540a597ca35.png

// 设置混合的透明度值
static const float alpha = 0.6f; // 可以理解为深度信息在混合中的占比
if (!image.empty() && !depthMap.empty())
{
    // 对深度图进行调整和转换
    depthMap.convertTo(adjDepthMap, CV_8U, 255.0 / (maxVal - minVal), -minVal * 255.0 / (maxVal - minVal));
    // 改变深度图大小以匹配彩色图像的尺寸
    cv::resize(adjDepthMap, adjDepthMap, cv::Size(image.cols, image.rows));
    
    // 遍历图像的每个像素
    for (int i = 0; i < image.rows; i++)
    {
        for (int j = 0; j < image.cols; j++)
        {
            // 获取彩色图像中的像素值
            cv::Vec3b& outRgb = image.at<cv::Vec3b>(i, j);
            // 获取深度图中对应的深度值(通过255减去是为了反转深度值,让高值显得更亮)
            uint8_t depthValue = 255 - adjDepthMap.at<uint8_t>(i, j);
            // 如果深度值有效(非0且非满值)
            if (depthValue != 0 && depthValue != 255)
            {
                // 用alpha值混合原像素值和深度值,更新彩色图像的像素值
                outRgb[0] = (uint8_t)(outRgb[0] * (1.0f - alpha) + depthValue * alpha);
                outRgb[1] = (uint8_t)(outRgb[1] * (1.0f - alpha) + depthValue * alpha);
                outRgb[2] = (uint8_t)(outRgb[2] * (1.0f - alpha) + depthValue * alpha);
            }
        }
    }
    // 显示混合了深度信息的彩色图像
    imshow("DepthToColor", image);
}

在这个代码中,alpha决定了混合时原图像和深度图的占比,alpha越大,则深度图的信息占比越重,覆盖效果越明显;相反,如果alpha较小,则原图的颜色占比较重。通过这种方式,我们可以在彩色图像上“覆盖”深度信息,以视觉上的方式展示出物体的距离信息。