FFmpeg avcodec_查找_编码器问题

我是ffmpeg的新手 我的问题是“avcodec\u find\u encoder(CODEC\u ID\u H264);”func总是返回null。 ffmpeg配置在我的ubuntu系统下面 ./ffmpeg FFmpeg version SVN-r26306, Copyright (c) 2000-2011 the FFmpeg developers built on Jan 11 2011 10:34:49 with gcc 4.4.5 configuration: --ena

-acodec选项在ffmpeg中不起作用

在我使用这个之前: ffmpeg -i file1.avi -acodec vorbis file2.ogg 一切都很顺利。。。现在,在这个新服务器上,我尝试了这个命令,我得到了成功的转换,但是没有文件 只有当我这样写的时候它才会起作用: ffmpeg -i file1.avi file2.ogg 但音频编解码器是flac,不能在html5的视频中播放 我尝试了不同的编解码器,比如10个不同于列表的编解码器,其中只有3个正在创建文件,但文件大小为0字节 关于: ffmpeg 0.7-rc1

Ffmpeg i586-mingw32msvc-pkg-config应该在哪里?

当我在ubuntu中配置libav时,会出现这样的警告 警告:未找到i586-mingw32msvc-pkg-config,库检测可能失败 这是我的配置代码 ./configure-target os=mingw32-cross prefix=i586-mingw32msvc--arch=x86-prefix=/usr/local/win32-enable memalign hack-disable gpl-disable avisynch-disable postproc-enable run

Ffmpeg-从webm格式创建缩略图并将webm电影转换为flv电影

我有一个我想解决的问题 使用ffmpeg从webm电影制作缩略图 我在尝试这样做时出现了这个错误 缩略图: “不支持未知格式 “作为输入像素格式” 此外,我想将webm电影转换为 flv电影 提前感谢。假设您的ffmpeg副本是在支持webm的情况下编译的,制作缩略图应该非常简单: ffmpeg -i input.webm -vframes 1 output.png 如果希望缩略图比视频小,可能会抛出一些-s WxH 转换为flv同样简单: ffmpeg -i input.webm outpu

Ffmpeg 音频流比视频流短

我通过循环.PNG输入和.AMR音频生成了一系列视频 ffmpeg -loop 1 -i slide001.png -i slide001.amr -vcodec rawvideo -acodec pcm_s16le -t 5 slide001.avi 最终我加入了使用门控码的.AVIs。我尝试加入他们的FFmpeg并没有太大成功 似乎是因为.AMR的实际持续时间比我指定的5秒短,例如,当加入.AVIs时,音频流将不同步(在视频之前) 我想我需要找到一种方法,用静音填充音频,或者以某种方式指定

我如何摆脱';avformat.h';安装视频ffmpeg时没有此类文件或目录错误?

我一直在尝试安装,但sudomake显示此错误,FFmpeg.xs:7:22:致命错误:avformat.h:没有这样的文件或目录。编译已终止。 我的m/c上安装了libavformat53。有什么我必须安装的吗?您需要libavformat的头文件,在ubuntu/debian中称为libavformat-dev aptitude search libavformat sudo aptitude reinstall libavformat53 libavformat-dev libavcode

基于Ffmpeg的视频元数据编辑

我想更改视频元数据 原始视频信息(ffmpeg-i video.mp4) 我的ffmpeg外壳代码: ffmpeg -i test.mp4 -metadata handler_name="Ahmetka" -i logo.png -filter_complex "overlay=(main_w-overlay_w):(main_h-overlay_h)" output.flv 输出视频信息(ffmpeg-i Output.flv) 我该怎么办?看起来不错。在任何-i看起来正常之后,可能尝试将-

基于FFMPEG的原始视频灰度流

我有一个原始视频文件(testvideo_1000f.raw),我正在尝试使用ffmpeg以灰度流形式传输该文件,并将灰度视频输出到output.swf。我用于执行此操作的命令是: ffmpeg/ffmpeg -qmin 2 -qmax 31 -s 320x240 -f rawvideo -flags gray -pix_fmt:output gray -an -i testvideo_1000f.raw output.swf 然而,该命令的结果是灰度级的视频流,但仍然包含一些色度数据。此命令

使用FFmpeg显示2个以上的视频

我找到了使用Ffmpeg组合2个视频的答案 ffmpeg.exe -i LeftInput.mp4 -vf "[in] scale=iw/2:ih/2, pad=2*iw:ih [left]; movie=RightInput.mp4, scale=iw/3:ih/3, fade=out:300:30:alpha=1 [right]; [left][right] overlay=main_w/2:0 [out]" -b:v 768k Output.mp4 有没有一种方法可以

通过android上的ffmpeg将yuv转换为mp4

我必须通过android上的ffmpeg将yuv转换为mp4。当我将wav转换为mp4时,它工作得很好。但当我将yuv或yuv+wav转换为mp4时,我收到了一条错误的消息 Error decoding AAC frame header 有人知道发生了什么吗 下面是完整的调试日志 transferYUV2MP4() enter __transfer_yuv_to_mp4() enter __transfer_yuv_to_mp4() argv[00/17] = ffmpeg __transfe

Ffmpeg av_交错_写入_帧()流式传输WebM时发生未知错误

我在跟踪并遇到了一个有趣的错误。我尝试过使用DirectShow网络摄像头源,也尝试过使用-vcodec拷贝的现有WebM(有限长度)视频。最初,两者都将设法连接到FFServer(我可以看到/feed1.ffm上的200个OK),甚至可能发送一两个帧,但随后FFMpeg会崩溃,出现av\u interleaved\u write\u frame():未知错误。(与此同时,FFServer似乎还不错。) 这似乎是该错误的一个不寻常的变体-通常更常见的情况是,例如,获取av_交错_write_fr

在microsoft visual studio中链接ffmpeg代码

通过使用此链接链接所有.lib文件,我在visual studio上编译了ffmpeg代码。在编译代码时,我遇到了如下错误 致命错误C1083:无法打开包含文件:“X11/Xlib.h”:没有此类文件或目录 1> x11grab.c 我在ffmpeg源代码中找不到x11文件。请帮助解决此错误 确保在配置过程中没有指定--enable-x11grab标志。(您可以尝试显式指定/configure--disable-x11grab)

用FFMPEG编码XAVC-MXF

我正在尝试用XAVC MXF编码4K视频。 我已经成功地在2K的XDCAM MXF中编码 但XAVC MXF似乎需要额外的参数设置 你能给我一些关于设置的建议或示例代码吗 XAVC的格式和编解码器参数。?能否先发布您尝试过的命令行和错误日志。可以用FFMPEG制作XAVC MXF吗。?这是我的第一个检查点。我认为FFMPEG似乎不支持XAVC MXF格式

Ffmpeg 如何使用标记同步两个音频文件

我正在做一个项目,我们使用WebRTC和库来录制音频文件 我希望能够处理服务器端的音频文件,以确保良好的同步 为此,我正在考虑用一个听不见的声音标记标记每条记录的开始,以便分析新记录,然后使用开始偏移量(我已经使用它来压缩由RecordRTC创建的原始文件) 问题是我以前从未做过任何高级音频处理,我环顾四周,找不到合适的方法 有没有其他更好的方法来处理同步?如果没有,如果我能得到一些关于标记技术的提示,我将不胜感激。 多谢各位 编辑: 对于那些不知道RecordRTC如何工作的人,我忘了提到记录

到ffmpeg的管道无效

我正在尝试使用rtmpdump进行测试,并将其传输到ffmpeg,然后传输到新的rtmp目的地 我现在正在使用不受保护的rtmp源代码进行测试,以使其变得简单。我尝试通过管道传输到ffmpeg,但我得到了错误。“管道::处理输入时发现无效数据” 这是我的代码,你能看到问题在哪里吗?非常感谢 C:\livestreamer\rtmpdump\rtmpdump.exe -r "rtmp://176.36.121.6/live/LIVETV/UNIVERSAL_FL" -q | C:\ffmpeg\b

使用FFMPEG,我可以用HLS m3u8格式重写.ts特定的段吗?

我对FFMPEG相当陌生,开始钻研它,超越了我的经验。是否可以重写1个或多个任意的.ts文件段(例如,如果我编辑了一个场景),而不必重新编码整个电影 此外,如果该段的长度已更改,是否与更改m3u8文件中的段长度一样简单?例如,这是原件: #EXTM3U #EXT-X-VERSION:3 #EXT-X-MEDIA-SEQUENCE:0 #EXT-X-ALLOW-CACHE:YES #EXT-X-TARGETDURATION:8 #EXTINF:7.007000, file0.ts #EXTINF:

ffmpeg输出中的fps是什么意思?

我正在用ffmpeg传输一个静态png文件,它基本上占用了我所有的CPU。这对我来说似乎有点贪婪,尽管我限制了输入和输出大小的fps,但我看到了一个巨大的fps打印出来 w:\ffmpeg\bin>ffmpeg.exe -loop 1 -framerate 1 -i w:\colorbar2.png -r 10 -vcodec libx264 -pix_fmt yuv420p -r 10 -f mpegts udp://127.0.0.1:10001?pkt_size=1316 ffmpe

如何使用ffmpeg创建放大效果

我尝试在视频文件上使用ffmpeg创建缩放效果 以下是我正在使用的代码: ffmpeg -i out.mp4 -filter_complex "crop=(640-t):(480-t)" output.mp4 但它给了我一个未定义的常数误差 我知道crop接受iw和ih作为常数,但是否有时间常数或其他方法来实现我的目标?我使用了n常数。 这起到了作用: ffmpeg-i out.mp4-filter_complex“crop=(640-(n*10)):(480-(n*10))”output.m

Ffmpeg libx264:动态更改qp

我需要在某些帧的编码过程中动态更改qp值,但264_encoder_try_reconfigh函数没有该选项。 如果我需要即时更改qp,我应该怎么做 谢谢, Jen你做过任何研究来解决这个问题吗?如果是,请在此处添加您尝试的内容。可能会有帮助你做过任何研究来解决这个问题吗?如果是,请在此处添加您尝试的内容。可能会有帮助

Ffmpeg ffprobe-从文件块获取视频信息

在我的网站上,用户可以上传动态加密并存储在另一台服务器上的视频。我想存储视频比特率、帧速率等,但我无法直接访问它们,我不能仅使用以下命令: ffprobe -show_streams -i file.mp4 我尝试在我的服务器上保存最后一块,其中包含moov atom,但ffprobe正在输出: Format mov,mp4,m4a,3gp,3g2,mj2 detected only with low score of 1, misdetection possible! moov atom n

如何使ffmpeg在文件名中插入时间戳

我试图制作一个bash脚本,从一个ip摄像头抓取一张静止的照片,然后发送电子邮件给它 使用ffmpeg-i-f image2-updatefirst 1 doorbell.jpg从我读到的内容来看,这应该可以工作,但是输出文件名仍然是doorbell.jpg。如何使文件名TIMESTAMPdoorbell.jpg?使用“strftime”功能: “-vframes 1”将使其仅处理接收到的第一帧 您可以使用与strftime兼容的字符串更改日期/时间格式: 其他文件/示例: ffmpeg -

使用cmake链接ffmpeg错误

我使用cmake使用ffmpeg lib创建我的项目,项目很简单 add_executable(testffmpeg main.cpp) link_directories( /usr/lib/x86_64-linux-gnu ) target_link_libraries(testffmpeg libavcodec.a libavutil.a ) make时,有很多未定义的引用错误(我的默认cxx编译器是“export-cxx=/usr/bin/clang++”)导致的clang 但当我只使用

Ffmpeg 沃森语音到文本:窄带比宽带产生更好的效果?

我正在使用IBM Watson转录我们拥有的一个视频库。我目前正在对其功效和准确性进行初步研究 有问题的视频有非常好的音质,根据沃森的文档,我应该使用宽带模式来转录它们 然而,我已经使用窄带和宽带进行了测试,我发现窄带总是稍微好一点,或者在某些情况下好很多(高达10%) 还有其他人做过类似的测试吗?这与文档相反,所以我有点不愿意继续使用窄带,但我可能不得不基于结果 我正在使用ffmpeg将视频转换成音频文件发送给Watson,音频文件显示48KHz采样率,这再次意味着我应该使用宽带并获得更好的效

使用FFmpeg连接四个MP4视频文件

我正在尝试使用FFmpeg连接四个MP4视频文件。(最新版本)这四个mp4视频不同于一般mp4视频,并且有特定的编解码器,我在K-Lite Mega Codec Pack 13.1.0的帮助下在Windows Media Player中播放它们 MediaInfo提供的一个文件的编解码器信息(所有四个文件都有相同的编解码器): 概述 Complete name : Testing - 1.mp4 Format : MPEG-4

Ffmpeg 创建碎片化mp4视频文件时无法设置数据包持续时间

我正在尝试使用ffmpeg 3.2.4中的libavformat从可变帧速率源创建一个片段化mp4视频文件。 显然,mp4视频文件似乎是正确的,因为我可以用VLC播放器播放,没有明显的问题。 无论如何,当使用ffprobe分析mp4文件时,我发现pkt_duration值是错误的,因为它们是针对标称固定的25 fps帧速率源计算的(其中实际rtp源的标称值为15 fps,实际帧持续时间值范围为40到80 ms)。 使用frag\u custom选项(然后使用空数据包调用av\u write\u

FFMPEG:如何设置动画GIF的透明度颜色以覆盖视频?

我有一个视频剪辑,我已经用ffmpeg转换成动画GIF。我想把动画GIF叠加到视频剪辑上。问题是我不知道如何设置GIF的透明度颜色。我希望GIF的纯黑背景是透明的 ffmpeg -i video.mp4 output.gif 这就是我创建动画GIF所做的。同样,看起来很棒。我只需要添加黑色(#000000)作为GIF的透明颜色 谢谢 将我答案中的应用于GIF。谢谢,我会看一看!将我答案中的应用于GIF。谢谢,我会看一看!

使用FFMPEG创建无限MP4(非循环)

我知道mp4流媒体是一个禁忌,这个项目只是为了播放视频:) 我有一个由Raspberry Pi摄像头提供的无限h264流,我想把它封装在无限mp4中,这样我就可以在浏览器中观看 (来源)raspivid-t0-w1640-h1232-fps20-b500000-vf-hf-o- (ffmpeg)ffmpeg-r20-i--vcodec copy-movflags“frag_keyframe+empty_moov”-f mp4管道:1 我所做的是将(源代码)导入(ffmpeg),然后再导入(ffm

在Audacity中输出ffmpeg

我想分割一个mp4文件的音轨,每个音轨接收不同的过滤器,然后合并到一个输出mp4文件。请注意,我不想串联过滤器,而是并行过滤器,然后合并 我想出了以下命令。 ffmpeg-i input.mp4-filter_complex“[0:a]asplit[audio1][audio2];[audio1]高通=f=200:p=1:t=h:w=50;[audio2]低通=f=700:p=1:t=h:w=200;[audio1][audio2]amerge=input=2[out]“-map”[out]-映

在特定偏移量处使用ffmpeg将音频添加到mp4会使输出文件#0不包含任何流

我试图在特定时间使用ffmpeg将音频添加到MP4文件中,最终我还希望音频只播放到某一点,因此,如果您能提供帮助,那就太好了,否则,如果您能帮助我找出导致此错误的原因 我使用的论点 -y "E:\Documents\Content Bar/Photo Booth\PhotosDrop\2018-05-15 14-01-16OUT.mp4" -itsoffset -i "E:\Downloads\wetransfer-250b26\05 Call of Love.mp3" -map 0:0 -m

如何使用ffmpeg解密加密的mp4文件

我使用下面的命令对mp4文件进行加密,该文件包含两个视频曲目和一个音频曲目 fmpeg -i 10M00S.mp4 -c copy -map 0:0 -map 0:1 -map 0:2 -encryption_scheme cenc-aes-ctr -encryption_key 76a6c65c5ea762046bd749a2e632ccbb -encryption_kid a7e61c373e219033c21091fa607bf3b8 10M00S.mp4_enc.mp4 如何使用ffm

如何使用ffmpeg将管道中的图像序列覆盖到视频流上?

我正试图找出ffmpeg的一个问题。 我有以下安装: -DeckLink迷你录音卡(用于HDMI输入) -DeckLink迷你监控卡(用于HDMI输出) 我已成功地从Decklink卡获取HDMI输入,并使用以下命令按原样输出到输出卡: ffmpeg-f decklink-视频输入hdmi-原始格式yuv422p10-i“decklink迷你录音机”-f decklink-pix_fmt UYV422“decklink迷你监视器” 我尝试使用以下命令添加一个复杂的过滤器,以添加图像的覆盖,并

使用ffmpeg将DTS转换为AAC将语音音频向右移动

我正在使用ffmpeg将mkv电影转换为mp4,如下所示: $ ffmpeg -i source.mkv -c:v copy -c:a aac destination.mp4 通过执行此操作,音频流将从原始DTS转换为: Stream #0:1: Audio: dts (DTS), 48000 Hz, 5.1(side), fltp, 1536 kb/s (default) 致AAC: Stream #0:1(und): Audio: aac (LC) (mp4a / 0x6134706D)

Ffmpeg Libav:无法从d.tube读取带有mp4文件的帧

我正在尝试从中读取带有mp4文件的帧。这个网站的视频有一个问题,无论是流视频还是文件视频。当我尝试使用avformat\u find\u stream\u info()时,我收到以下消息: [mov,mp4,m4a,3gp,3g2,mj2 @ 0x1226040] stream 0, offset 0x30: partial file [mov,mp4,m4a,3gp,3g2,mj2 @ 0x1226040] Could not find codec parameters for stream

使用ffmpeg提取帧并找出它们的偏移量(毫秒)

我希望每2秒提取10个连续帧。 (这是因为我希望从“附近偏移量”中选择“最佳”)。 我知道如何每x秒提取一帧: ffmpeg-i/tmp/V.MP4-vf fps=1%02d.jpg 我知道如何从某个起始偏移量中提取10帧: ffmpeg-ss20.0-i/tmp/V.MP4-vframes 10%02d.jpg 我有两个问题: 如何找到每个输出图像的偏移量?我可以尝试并计算它(使用视频fps,在我的例子中是29.97),但这听起来是个坏主意-数据就在视频中,供ffmpeg抓取 是否有一种有效的

ffmpeg设置具有不同顶部和底部条背景颜色的填充

使用此ffmpeg命令设置填充颜色: pad="max(iw\,ih):ow:(ow-iw)/2:(oh-ih)/2:black" 但我想要不同颜色的上衣,比如绿色 对于底部,我想设置蓝色 感谢您的帮助。您需要两个pad过滤器 “pad=(iw+max(iw\,ih))/2:(ih+max(iw\,ih))/2:0:0:color=blue,pad=max(iw\,ih):ow:(ow-iw):(oh-ih):color=green” 这将在顶部或左侧填充绿色,底部或右侧填充蓝色

使用ffmpeg旋转360视频

我有360°视频,我想用ffmpeg微调它的方向。我需要将其水平顺时针旋转90°(向左旋转)。我找到了一些有用的资源,说明旋转过滤器可以做到这一点。所以我试着: ffmpeg -i Petr_doskok.mp4 -vf "scale=2048x1024,rotate=-PI/2" -r 30 -c:v libx265 -b:v 15M -pix_fmt yuv420p -c:a aac -b:a 192K Petr_doskok_rotated.mp4 ffmpeg version 4.1.

如何使用ffmpeg保存解码的原始rgba帧?

我需要将mp4视频转码为存储在文件中的原始视频帧。 我正在尝试此命令,但它失败,无法为“test.rgba”找到合适的输出格式。: ffmpeg -i test.mp4 -vcodec rawvideo -pix_fmt rgba -an test.rgba 就是这个 ffmpeg -i test.mp4 -vf format=rgba -f rawvideo test.rgba

使用FFmpeg将GIF转换为WEBM时视频文件不完整

以低CRF值为目标时,在Q模式下从Gif转换为WebM会输出不完整的视频。例如,运行下面的命令将生成持续时间为1.15秒的WebM视频,而输入Gif为2.16秒 ffmpeg.exe -i in.gif -c:v libvpx-vp9 -b:v 0 -crf 10 -an -f webm out.webm 针对较低的质量(例如CRF=~30),将产生正确完整的视频输出 考虑。考虑。

FFMPEG-如何调整图像覆盖的大小?

我需要将输入3(logo.gif)调整为360x360,但使用scale=360:360会使我的视频质量非常差。这是我的密码: ffmpeg -y -hide_banner -safe 0 -f concat -i "concat.txt" -i "overlay.png" -i "audio.mp3" -ignore_loop 0 -i "logo.gif" -filter_complex "[0]scale=3840x2160,zoompan=z='if(lte(zoom,1.0),1.25

Ffmpeg 以txt格式输出亮度和色度数据

你好 我想知道是否有办法以txt格式获取Y/luma值 这是命令行 - 还有一件事我想知道一次获得所有YUV最小/最大值的方法 塔克斯 注意。使用不太详细的日志级别,并在命令后面附加>output.txt: ffprobe -loglevel error -f lavfi movie=input.mp4,signalstats -show_entries frame_tags=lavfi.signalstats.YMIN,lavfi.signalstats.YLOW,lavfi.signals

Ffmpeg 将mp4转换为hls,但段大小可变

我看到了几个使用ffmpeg轻松地将mp4容器更改为hls的示例,如下所示: ffmpeg -i input.mp4 -profile:v baseline -level 3.0 -s 640x360 -start_number 0 -hls_time 10 -hls_list_size 0 -f hls index.m3u8 我观察到,通常最后一个片段可能与其他片段完全不同(因为它只是一个偏移量)。那么我想固定段长度不是强制性的 我一直在问,是否有可能改变另一个碎片的大小?例如,将除段(1)

Ffmpeg 将WAV转换为TETRA格式

我正在尝试将wav文件转换为TETRA编码文件()。Tetra供消防人员使用,它提供类似无线电的声音 我正在尝试使用()上提供的官方tetra编解码器代码,我们可以使用()上提供的脚本轻松编译它 但是,我不知道如何使用这些文件将wav文件转换为tetra编解码器文件。我试着浏览编译文件的文档(ccoder、cdecoder、scoder、sdecoder) 我尝试了以下命令- tetra/bin/scoder input.wav串行文件合成文件 这里,serial_文件和synth_文件是输出文

编码到h264无法使用ffmpeg c api发送某些帧

使用FFMPEG C API,我试图将生成的图像推送到MP4格式 当我逐帧推送时,muxing似乎在avcodec\u receive\u packet(…)上失败,它在第一帧上返回AVERROR(EAGAIN),但过了一段时间后开始添加我的帧,但是第一帧 我的意思是,当将第1帧推到第13帧时,我有错误,但在第14帧结束(36)之后,该帧被添加到视频中,但编码图像不是第14帧到第36帧,而是添加的第1帧到第23帧 我不明白,这是帧速率(我想要12fps)的问题,还是关键帧/帧间的问题 这里是类的

如何使用libx264静态库编译ffmpeg?

我已经在Linux上安装了x264静态和动态库 我通过/configure--enable-gpl--enable-libx264&&make编译ffmpeg 指向x264动态库的可执行程序链接 我想知道如何配置ffmpeg链接到静态库删除动态库并重新制作,新的ffmpeg将链接到静态库。但是有更好的方法吗?在“配置选项”中,您可以显式地使用静态库设置编译,请查看它。

如何使用ffmpeg'播放设备的音频输出;AVS设备库?

如何使用ffmpeg的AVC设备库将音频输出到音频设备(特别是alsa)。我所能找到的就是,我能从中得到的唯一有用的东西就是,引用 “libavdevice中的(de)muxer属于AVFMT_NOFILE类型(它们使用自己的I/O函数)。传递给avformat_open_input()的文件名通常不引用实际存在的文件,但具有特定于设备的特殊含义-例如,对于xcbgrab,它是显示名称。” 但我不明白在哪里指定AVFMT_NOFILE,在哪里指定要使用的设备。我知道如何获得“AVOutputFo

FFMPEG-vsync丢弃和再生

根据ffmpeg文档 -垂直同步参数 视频同步方法。出于兼容性原因,旧值可以指定为数字。新增加的价值将必须进行调整 始终指定为字符串 下降 作为passthrough,但销毁所有时间戳,使muxer 根据帧速率生成新的时间戳 mpegts mux似乎没有正确地重新生成时间戳(PTS/DTS);但是,vsync之后的输出管道会下降到第二个进程,因为原始h264会强制mpegts重新生成PTS 生成测试流 ffmpeg -f lavfi -i testsrc=duration=20:size=128

ffmpeg:gif到mp4,图像斜向

我有一个gif动画,我正试图转换成mp4视频 ffmpeg -i rb.gif -movflags faststart -pix_fmt yuv420p video.mp4 生成的视频具有除第一帧以外的所有帧,这些帧围绕一条对角线 原件: 是什么导致了这个错误?如何解决此问题?显示完整的日志,并提供指向rb.gif的链接(如果可以)。

Ffmpeg 如何制作音乐命令Discord.py

我正在尝试制作一个音乐机器人,但它似乎不起作用。这是我到目前为止所拥有的 import asyncio import functools import itertools import math import random from keep_alive import keep_alive import discord import nacl import youtube_dl from async_timeout import timeout from discord.ext import c

  1    2   3   4   5   6  ... 下一页 最后一页 共 82 页