我有一个我想通过RTMP广播的videostream。 我使用ffmpeg来做到这一点,使用下面的命令: ffmpeg -i http://192.168.1.77:18000/stream.flv -c copy -f flv rtmp://localhost/myapp/mystream 据我所知,转码videostream会引入一些延迟。 所以我的问题是:是否有可能通过使用此ffmpeg命令(副本)引入输出stream中的延迟? 附注:我试图将我的实时videostreamredirect到一个nginx服务器,以便(通过RTMP)播放几个jwplayers。 到目前为止,我得到了1秒的延迟和一些帧,我想知道是否有可能减less它。
我想用libsoxr编译ffmpeg ,所以在调用./configure时候使用了–enable-libsoxr这个标志。 我已经安装了libsoxr ,并将头文件的位置添加到PATH 。 但是,当我尝试编译它,我得到一个错误: ERROR: libsoxr not found ,并在config.log说: fatal error: soxr.h: No such file or directory #include <soxr.h> 我认为./configure没有使用PATH或者其他的方法来指定ffmpeg依赖关系吗?
我试着做rtmpdump -r“rtmp-raw = rtmpe://watch.playfooty.tv/live playpath = nba1569 swfUrl = http://www.playfooty.tv/play/player/player.swf live = 1 pageUrl = http ://www.playfooty.tv/ “但输出总是像离线一样 RTMPDump v2.2e (c) 2010 Andrej Stepanchuk, Howard Chu, The Flvstreamer Team; license: GPL DEBUG: Parsing… WARNING: Unknown protocol! DEBUG: Parsed host : watch.playfooty.tv DEBUG: Parsed app : live playpath=nba1569 swfUrl=http:/ DEBUG: Protocol : RTMP DEBUG: Hostname : […]
我试图编写一个程序,将灯同步到一个基本的WAV文件播放。 我已经在所有的alsa文档中挣扎,ffplay.c的源代码和在互联网上search,但很难弄清楚如何做一个常见而简单的任务。 基本上我想做两件事,第一件是在audio播放时读取按键事件,并将偏移量存储在文件中。 第二个是取出这些队列文件,稍后加载它们,这次是在一个不同的audio设备,如树莓派。 我在如何首先考虑偏移位置的初始捕捉中的延迟以及如何在完全不同的硬件设备上回放时如何处理该延迟而挣扎。 我知道ffmpeg套件使用了snd_pcm_delay()来处理这个问题,但即使是基本的技巧,我也很苦恼。 这不是一个复杂的播放机制,只是一个循环中的阻塞写入。 我会发布一些代码,但目前我没有和我在一起,这只是一个混乱的当前黑客无法正常工作。
使Linux设备(Raspberry Pi)像另一台计算机的UVC设备一样需要什么? 本质上,我想使用ffmpeg的输出performance为另一台计算机的摄像头input。
当我使用下面的命令,然后得到错误“预置文件”较慢“找不到” /usr/bin/ffmpeg -i mainFile.mp4 -ss 00:03:22 -t 00:00:22 -acodec libfaac -vcodec libx264 -vpre slower -crf 18 -aspect 16:9 -r 25 -b 3000k -vpre main -level 21 -refs 2 -threads 0 spliteFile.mp4 但是,当我尝试基本的ffmpeg命令,那么它工作正常。 /usr/bin/ffmpeg -i mainFile.mp4 -ss 0 -t 100 spliteFile.mp4 请build议。 我想我缺less参数? 提前致谢….
我试图通过执行以下操作在EC2实例上安装ffmpeg: (1)编辑:'/etc/yum.repos.d/dag.repo'并插入: “[DAG] name = Red Hat Enterprise Linux的Dag RPM存储库 baseurl = http://apt.sw.be/redhat/el $ releasever / en / $ basearch / dag gpgcheck = 1 启用= 1' (2)运行“yum更新” 我收到错误' http://apt.sw.be/redhat/el8/en/i386/dag/repodata/repomd.xml :[错误14] HTTP错误404:未find'。 有没有人知道什么是正确的url? 在此先感谢您的帮助。
我有一堆我想要处理的video文件。 我想编写一个程序,可以find每个文件中的audio峰值,并返回出现这些峰值的时间。 我已经用不同的语言查找了很多不同的API,但无法让它们工作。 我偏向于PHP和Java,所以如果有人知道这些语言中的任何良好的audio处理库将是伟大的! 但是我真的不关心这门语言。 我需要在cron上运行这个程序。 另外,是否可以使用系统调用ffmpeg从一个脚本来完成这个? 提前致谢。
我必须将两个(或更多)audio文件(如吉他和鼓音轨)合并到一个文件中。 我正在运行Linux CentOS,我需要一个命令行工具来执行此操作,因为我必须将其作为后台进程的一部分运行,并通过自定义bash脚本的crontab来触发。 我也需要能够改变声像,音量,修剪和开始时间(即,我希望吉他音轨在鼓音轨后1.25ms之后开始,以便它们可以彼此同步)。 我的第一个select是ffmpeg,但是我想知道是否可以比ffmpeg更具体,更可靠和更less模糊。 thx一吨! -K-
我正在尝试在Java中运行Linux命令。 这是命令: “ffmpeg -i rtmp://192.168.1.112/garage/stream26g -f mpegts -acodec libmp3lame -ar 48000 -ab 64000 -s 480×320 -r 30 -vcodec libx264 -b 544k -flags + loop -cmp + chroma -partitions + parti4x4 + partp8x8 + partb8x8 -subq 5 -trellis 2 -refs 0 -coder 0 -me_range 16 -keyint_min 25 -sc_threshold 40 -i_qfactor 0.71 -bt 200k -maxrate 544k -bufsize […]