ip-camera相关内容
我有一个Blazor托管的应用程序,在该应用程序中,我需要在客户端请求时(通过RTSP PLAY命令)从AXIS摄像机获取H264录制,并以浏览器可以再现视频的方式将其返回。如果向AXIS摄像机查询录制列表,则答案包括此录制列表,即我尝试在浏览器上播放的录制列表
..
我打算做一个 java onvif 应用程序.我创建了一个新项目并从 devicemgmt.wsdl 生成了源代码.还从 remote discovery.wsdl 生成了类.如何使用这些生成的类发现网络中的设备?感谢您的帮助. 解决方案 devicemgmt.wsdl与发现过程无关,ONVIF发现过程基于http://specs.xmlsoap.org/ws/2005/04/discov
..
我有几个 IP 摄像头可以通过 rtsp 传输 720 X264 视频.在 Android 上查看时,流确实不可靠.如果建立了 2 个以上的连接,它们也会失败. 我有一个 ubuntu 服务器,我可以用它来连接和重新传输为 mjpeg 或其他东西.有大量不同的命令,但它们似乎都涉及对视频进行转码. 我怎样才能简单地将实时 rtsp 提要作为 mjpeg 重新传输而不对视频本身做任何事情
..
我的配置: ubuntu 16.04opencv 3.3.1gcc 版本 5.4.0 20160609ffmpeg 版本 3.4.2-1~16.04.york0 我用以下方法构建了 opencv: cmake -D CMAKE_BUILD_TYPE=RELEASE -D CMAKE_INSTALL_PREFIX=/usr/local -D PYTHON_EXECUTABLE=$(which
..
嘿,我正在尝试使用 FFMPEG 录制 IP 摄像机流.但它给了我输入/输出错误.这是命令 ffmpeg -i http://admin:@ip:81/livestream.cgi E:\Video\my.h264 我的相机是 H264 编码的.现在请帮助如何消除此错误.任何帮助将不胜感激. 解决方案 我正在使用它保存我的内容并且它工作正常.检查输入是否正确或在接收流时尝试放置视频的细
..
我想在 webrtc 中使用 IP 摄像头.但是 webrtc 似乎只支持网络摄像头.所以我尝试将 IP 摄像头的流转换为虚拟网络摄像头. 我找到了 IP 摄像机适配器 之类的软件,但它们不能很好地工作 (2-3每秒帧数和 2 秒延迟)并且它们仅适用于 Windows,我更喜欢使用 Linux(如果可能的话). 我尝试 ffmpeg/avconv: 首先,我使用 v4l2loop
..
我在使用 RTSP 的 LAN 流视频上有一个 IPCamera.我已经能够使用 ffplay 命令成功捕获并显示它: ffplay rtsp://admin:123456@192.168.2.50:7070 (带身份验证) 所以我想使用 ffmpeg 库在 C/C++ 中使用编程来实现相同的目标.我想这一定是可能的. 让我说两个简单的问题: 如何使用 FFMPEG 库在 C
..
我正在开发一个应用程序,它将探测连接到网络上的 ONVIF 设备以进行自动发现.根据 ONVIF 核心规范,探测消息的 SOAP 格式为:
..
如何访问我的网络摄像机流? 显示标准网络摄像头流的代码是 导入 cv2将 numpy 导入为 np帽 = cv2.VideoCapture(0)而(真):ret, frame = cap.read()cv2.imshow('frame',frame)如果 cv2.waitKey(1) &0xFF == ord('q'):休息cap.release()cv2.destroyAllWindow
..
我正在尝试使用 Aforge 库流式传输 IPCAM D'Link,但没有成功:我想将视频流显示到 PB 控件中.我的代码: 导入 AForge.Video公开课表1Private Sub Form1_Load(sender As System.Object, e As System.EventArgs) 处理 MyBase.Load尝试Dim stream As New MJPEGStream
..
我已经在 Python 中集成了一个带有 OpenCV 的 IP 摄像头,以便从实时流中逐帧完成视频处理.我已将相机 FPS 配置为 1 秒,以便我可以在缓冲区中每秒处理 1 帧,但我的算法需要 4 秒来处理每一帧,导致缓冲区中未处理的帧停滞,随着时间和时间不断增长;导致指数延迟.为了解决这个问题,我又创建了一个线程,我在其中调用 cv2.grab() API 来清理缓冲区,它在每次调用中将指针移
..
我目前正在为学校做一个项目,急需帮助. 项目的主要要点: 我正在使用 3 台 Bosch Dinion IP 摄像机在讲座期间拍摄学生.我必须在 Visual Studio 上创建一个程序,使讲师能够在一个屏幕上查看所有 3 个摄像头,能够记录所有 3 个镜头,然后将它们保存在数据库中. 关于博世的事情是,可供我在线参考的资料非常有限. 我已经参考了 Bosch 和 Ozeki
..
我从 IP 摄像机获取 MJPEG 流,我正在查看并保存在我的计算机上.可以在here.答案解释了如何从流中提取图像并保存. 为了提取图像,我使用答案中列出的方法并保存它,我只是使用 OpenCV 将图像放入 avi 容器中.代码如下. writer=cv.CreateVideoWriter("video1.avi", cv.CV_FOURCC('X', '2', '6', '4'), f
..
是否有一种轻量、免费且可靠的方式在跨浏览器环境中显示 MJPEG?我正在尝试从 轴显示 MJPEG 流2120 我正在开发的网站上的 IP 摄像头,我发现这在当前版本的 Firefox 中非常可靠.但是,经过一些测试,我发现 IE、Opera 和 Chrome 都在执行此操作时遇到了不同程度的问题(无法访问 Mac,所以我不确定 Safari).Internet Explorer 不支持 MJPE
..
我试图从 opencv 访问我的网络摄像头,但没有成功. VideoCapture capture("http://IP/MJPEG.CGI?.mjpeg&user=username&password=mypassword") 尝试使用 VLC 时它的工作原理: http://IP/MJPEG.CGI?.mjpeg 然后 VLC 要求输入用户名和密码就可以了. 感谢您的帮助 解
..
当我尝试流式传输 ipcam 时,我遇到了如下所示的错误 "[tcp @ 000000000048c640] uri 中缺少端口警告:打开文件时出错 (/build/opencv/modules/videoio/src/cap_ffmpeg_impl.hpp:901)" 将 numpy 导入为 np导入 cv2cv2.__文件__cap = cv2.VideoCapture('http:/
..
我正在使用IP摄像机,并且从摄像机获得了Jpeg帧和音频数据(PCM). 现在,我想根据以上数据创建.avi或.mp4格式的视频文件(音频和视频). 我进行了搜索,我知道ffmpeg库可以做到.但是我不知道如何使用ffmpeg来做到这一点. 您能建议我一些示例代码或ffmpeg的功能吗? 解决方案 如果您的目标是编写一个c ++应用程序来为您执行此操作,请忽略此答案,我将
..
请原谅我的无知,我是Java,HTML和Web开发的新手. 我正在尝试构建一个Web应用程序来控制IP摄像机(Panasonic AW-HE50)的PTZ控件.我可以按照规格表通过浏览器发送基本命令: https: //eww.pass.panasonic.co.jp/pro-av/support/content/guide/DEF/HE50_120_IP/HDIntegratedCamer
..
我有一个连接到IP摄像机的应用程序,该应用程序执行HTTP请求以获取图像和M-JPEG.现在还可以,因为我将相机放在开发室中.但是再过几周,该凸轮就会停产(它们是非常昂贵的凸轮),因此我将不再需要它们来测试和调试我的应用程序. 我想知道的是“模拟"这些凸轮的最佳方法是什么?目前,我的应用程序正在使用2个摄像头,假设它们位于 http://192.168.88.1 和 http://192.1
..
我使用gstreamer播放来自IP摄像机(如Axis)的RTSP流. 我使用这样的命令行: gst-launch-0.10 rtspsrc location=rtsp://192.168.0.127/axis-media/media.amp latency=0 ! decodebin ! autovideosink 它工作正常. 我想用pygtk中的gui控制它,所以我使用了gs
..