AXERA Frigate

简介

此 Docker 镜像用于在 Axera 平台一键部署 Frigate

已支持芯片

  • AX650N
  • AX8850N

已支持 SDK 版本

  • v3.6.2及以上的ubuntu版本(ubuntu_rootfs && ubuntu_rootfs_desktop)

已支持开发板

  • AX650N DEMO Board
  • Axera-Pi Pro

快速上手

安装

导入docker镜像

docker load -i frigate-ax650-8d6d113.tar

准备 config 和 media 目录

root@ax650:~/frigate-runtime# tree -L 1
.
|-- config
|-- docker-compose.yml
`-- storage

2 directories, 1 file

请确认docker-compose.yml内配置的docker镜像和实际导入的一致

请确认docker-compose.yml内config目录和storage目录的映射位置和实际一致

启动容器

docker compose up -d

访问

通过 https://server_ip:8971 访问Frigate
默认用户名 admin , 默认密码 axera123456

配置示例

#ffmpeg全局变量,必须
ffmpeg:
  global_args: ["-hide_banner", "-loglevel", "warning", "-threads", "1"]
  output_args:
    detect: ["-threads", "1", "-f", "rawvideo"]

mqtt:
  enabled: false

go2rtc:
  streams:
    #主码流
    road1:
      - rtsp://10.126.12.104:8554/road1.264
    #子码流
    road1_sub:
      - rtsp://10.126.12.104:8554/road1_sub.264
cameras:
  road1:
    enabled: true
    ffmpeg:
      inputs:
        #录制流的路径,这里使用go2rtc中设置的主码流
        #调试阶段这里可以使用本地码流文件
        - path: rtsp://127.0.0.1:8554/road1
          roles:
            - record
        #检测流的路径,这里使用go2rtc中设置的辅码流
        #调试阶段这里可以使用本地码流文件
        - path: rtsp://127.0.0.1:8554/road1_sub
          roles:
            - detect
      #preset-axera-h264用于解码h264码流
      #preset-axera-h265用于解码h265码流
      #优先使用这个两个解码参数
      hwaccel_args: preset-axera-h264
      #若检测辅码流的分辨率低于检测分辨率,可以降低检测分辨率与码流一致
      #或使用preset-axera-h264-compat/preset-axera-h265-compat解码参数
    
record:
  enabled: true
 
#打开检测功能
#若不设置检测宽高,则默认使用检测码流的原生分辨率
detect:
  enabled: true
  width: 1280
  height: 720
  fps: 5
 
#配置检测引擎使用axengine
detectors:
  axengine:
    type: axengine
 
#配置axengine的目标检测模型
model:
  path: yolov5s_320
  width: 320
  height: 320
  input_pixel_format: bgr
  labelmap_path: /labelmap/coco-80.txt
 
#要跟踪的目标类型
objects:
  track:
    - person
    - car
    - bicycle
    - motorcycle
 
version: 0.16-0

注意:修改配置文件之后,在 Web 页面重启 Frigate 才会生效

关闭

docker stop frigate

若需再次启动,则运行

docker start frigate

官方文档

Downloads last month
37
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support