HTML5原生不支持RTSP及语音对讲,必须通过服务端转协议(如WebRTC)实现;语音对讲需WebRTC双向信令、音频采集编码(Opus)、SDP/ICE/DTLS协商,依赖网关桥接与前端RTCPeerConnection配合。

HTML5 原生不支持 RTSP,更不支持语音对讲
浏览器内核(Chrome、Firefox、Safari)从没实现过 RTSP 协议栈, 标签只认 HTTP、HTTPS、WebRTC、MediaSource Extensions (MSE) 等标准流协议。直接用 src="rtsp://..." 必定失败,控制台会报 DOMException: The element has no supported sources 或类似错误。
所谓“HTML5 播放 RTSP”,实际是靠服务端转协议(如转成 WebRTC、HLS 或 FLV over WebSocket),前端只是消费转换后的流——而语音对讲属于**双向实时信令+音频采集+编码+推流**,远超单纯播放范畴。
语音对讲必须走 WebRTC,且需服务端中继与信令协调
RTSP 设备(如 IPC)本身不提供 WebRTC 接口,要实现对讲,得让设备或网关同时支持:
- 将设备麦克风音频实时采集、编码为
Opus(WebRTC 强制要求)并封装进RTCPeerConnection的发送轨道 - 接收浏览器端上行音频流,并解码后通过设备扬声器播放(或转发给设备 SDK 处理)
- 完成 SDP 协商、ICE 连接、DTLS 握手——这些都依赖独立的信令服务(如
WebSocket+ 自定义 JSON 协议)
常见方案是用 Janus、Mediasoup 或定制化网关(如基于 gstreamer + webrtcbin)做桥接,前端调用 RTCPeerConnection.addTransceiver('audio', {direction: 'sendonly'}) 推流,再监听远端 track 播放下行音频。
立即学习“前端免费学习笔记(深入)”;
纯前端无法绕过设备权限和编解码限制
即使服务端支持了 WebRTC 对讲,前端仍面临硬性约束:
-
navigator.mediaDevices.getUserMedia({audio: true})只能获取本机麦克风,不能“接管”IPC 的麦克风——设备音频必须由服务端从 RTSP 流中分离出音频轨并重推 - 浏览器不暴露原始 PCM 数据写入接口,
Web Audio API无法直接喂给RTCPeerConnection;必须用MediaStreamTrack.getSources()或AudioContext.createMediaStreamDestination()中转,延迟难控 - 部分老旧 IPC 不支持 AAC/PCMA 解码回传,导致对讲单通或无声;需在网关层做音频格式协商与转码(如
ffmpeg -acodec libopus)
真正可用的最小可行路径
别纠结“HTML5 直播 RTSP 对讲”,按以下链路落地:
- 设备端:启用 ONVIF PTZ + 音频输出(如有),或确认其支持 GB/T 28181 / ISUP 协议(国内常用,含语音通道)
- 服务端:部署
GB28181-SIP服务器(如sip.js+mediasoup)或RTSP-to-WebRTC网关(如live555+webrtc-streamer),开启双向音频通道配置项(如webrtc-streamer的-a参数) - 前端:用
adapter.js兼容各浏览器,调用RTCPeerConnection创建连接,用document.getElementById('audioInput').srcObject = stream播放对讲返回音频,用mediaRecorder或Web Audio API + ScriptProcessorNode(已废弃,改用AudioWorklet)做本地语音预处理
真正卡点不在前端代码,而在网关是否把设备音频正确接入 WebRTC 的 sender 轨道——很多开源网关默认只转视频,音频需手动 enable 并检查 GStreamer pipeline 或 FFmpeg 参数。










