React-Native制作一个通过照片和视频识别鸟类的安卓app

发布于:2024-05-03 ⋅ 阅读:(27) ⋅ 点赞:(0)

前言

首先简单介绍一下这个app是干啥的,实际上我的标题已经差不多说完了.....就是用户可以上传带有鸟类的图片或者视频,然后就可以得到相应的识别效果,这个app的需求是来自于我的一位朋友,所以我就做出来了

正文

讲一下基本用到的技术栈吧,前端用的react-native,后端用的是flask,识别算法部分用的是yolov5,接下来我会从三个大方面讲一下学到的东西,也就是前端后端和识别算法这三个大方面.

前端

前端实际上是我第二次使用rn,算是有点经验了其实,这次我就直接用原生的rn框架创建了,而不是使用上次坑了我一次的expo框架.....,然后这次我又新学了一些东西

图标的使用

原先我想用图标总是傻傻的去用npm下载下来的库里的icon,然而这样非常的麻烦,经常出现失败的情况,而且搞不好要不去Android那个文件夹改一堆链接,于是我直接去例如iconfont-阿里巴巴矢量图标库这样的网站去下载png图标资源,然后用img标签展示就行,这样简单多了,唯一需要注意的大概就是记得把图片的名称改成英文的就成,不然打包的时候似乎会出问题....

redux的使用

有一说一,这是我第一次用redux,这里简单说一下redux的用法:

Redux是JavaScript的一个状态管理库,通常与React一起使用

它通过 centerX 全局单一的状态树[state tree]来存储整个应用的状态。改变状态的唯一方式就是触发动作[action],动作是一个描述发生了什么的纯对象。

Redux 的主要组成部分包括:

1. Store:存储应用的完整状态。想象它就像你应用的“数据库”。

2. Actions:表示一种对状态做出改变的方式。在Redux中,所有的改变都被明确化为动作。它们是一个带有 `type`属性和额外数据的简单JavaScript对象。

3. Reducers: 是改变状态的唯一方式,其是纯函数,接收旧的 state 和一个 action,然后返回新的 state。 关于Redux的基本使用步骤如下:

Step 1:创建 Actions
 

export const SOME_ACTION = 'SOME_ACTION';

export function doSomething()

{ return { type: SOME_ACTION, payload: "Action data" } }

Step 2:创建 Reducers
 

import { SOME_ACTION } from '../actions/sampleActions';

export default function sampleReducer(state = initialState, action)

{ switch (action.type) { case SOME_ACTION: return Object.assign({}, state, action.payload); default: return state; } }

Step 3:创建 Store
 

 import { createStore } from 'redux';

import rootReducer from './reducers';

let store = createStore(rootReducer);

Step 4:使用 Store
 

import { Provider } from 'react-redux';

import { createStore } from 'redux';

import rootReducer from './reducers';

import App from './components/App';

let store = createStore(rootReducer);

render(

<Provider store={store}>

<App />

</Provider>,

document.getElementById('root') );

Step 5:在你的组件中使用 Redux Actions
 

import { connect } from 'react-redux';

import { doSomething } from './actions/sampleActions';

function mapStateToProps(state){ return { stateProp: state.stateProp }; }

function mapDispatchToProps(dispatch){

return { doSomething: () => dispatch(doSomething())

}; }

class MyComponent extends React.Component{ componentDidMount(){ this.props.doSomething(); } render(){ // Render using this.props.stateProp and this.props.doSomething } }

export default connect(mapStateToProps, mapDispatchToProps)(MyComponent); 

一些小吐槽

rn在很多方面挺方便的,但是我用下来总有些隔靴搔痒之感....或许之后我会转向原生的安卓开发()

后端

后端我是第一次用flask,所以先学了一下,大概了解了一下基本接口怎么写和怎么连接数据库就开写了,毕竟我本质上是crud,感觉基本需要说的就大概是怎么调用脚本

脚本调用

这里因为我用了python的虚拟环境,所以不能直接用python驱动脚本,而是要用特定的虚拟环境下的python文件来驱动,这里是一点需要注意的.然后 

@app.route('/video', methods=['POST'])
def video():
    print("Video route started.")
    
    if 'video' not in request.files:
        return 'No video file part', 400

    file = request.files['video']
    if file.filename == '':
        return 'No video file selected', 400
    
    temp_dir = tempfile.TemporaryDirectory() 
    input_video_path = os.path.join(temp_dir.name, 'input.mp4')

    file.save(input_video_path) 
    print(f"Saved video file to {input_video_path}")

    result = run_yolo_video(input_video_path) 

    temp_dir.cleanup()
    
    return jsonify({"data": result}), 200

def run_yolo_video(input_video_path): 
    print("YOLO video function started.")
    model_path = "/etc/nginx/code/birdsearch/yolov5/weights/best.pt"
    command = f"python ../yolov5/detect.py --weights {model_path} --source {input_video_path}"
    print(f"Running command {command}")
    process = subprocess.Popen(command, shell=True, stdout=subprocess.PIPE, stderr=subprocess.PIPE)
    stdout, stderr = process.communicate()
    output = stderr.decode("utf-8")
    print(f"Received output: {output}")

    return output

然后需要讲一下大概就是我这边读取控制台输出的操作:

这个函数 `run_yolo_video(input_video_path)` 是用来通过 YOLO (You Only Look Once) 模型对输入路径下的视频进行对象检测的。

解读这个函数:

1. `print("YOLO video function started.")`: 输出提示信息,表示 YOLO 视频函数已经开始运行。

2. `model_path = "/etc/nginx/code/birdsearch/yolov5/weights/best.pt"`: 这一行定义了模型路径。也就是说,YOLO 模型权重文件被存储在 "/etc/nginx/code/birdsearch/yolov5/weights/best.pt" 路径下。

3. `command = f"python ../yolov5/detect.py --weights {model_path} --source {input_video_path}"`: 通过 Python 运行 YOLO 定位脚本 `detect.py`。`--weights {model_path}`选项指定了模型权重文件的路径。`--source {input_video_path}`选项则定义了要处理的输入视频的路径。

4. `print(f"Running command {command}")`: 打印将要运行的命令。

5. `process = subprocess.Popen(command, shell=True, stdout=subprocess.PIPE, stderr=subprocess.PIPE)`: 使用 `subprocess` 模块运行上面定义的命令。`Popen` 函数创建一个新的进程来运行这个命令,`shell=True` 参数表示通过 shell 运行该命令,`stdout=subprocess.PIPE` 和 `stderr=subprocess.PIPE` 则表示我们想要捕获命令的标准输出和错误输出。

6. `stdout, stderr = process.communicate()`: `communicate` 方法等待进程结束,然后返回一个元组,包含进程的标准输出和错误输出。

7. `output = stderr.decode("utf-8")`: `decode` 函数将错误输出(该输出以字节形式存在)转换为字符串。

8. `print(f"Received output: {output}")`: 打印从 `detect.py` 脚本收到的输出。

yolov5算法

这个其实没啥好说的,就是找开源数据集然后设置好参数,用yolov5train就完事了,很简单,我还租了一个4090服务器进行训练,这样快一点()

结语

总之这个项目顺利完结了,最终打包的apk也给我的那位朋友了,总之差不多就是这样!!!!