A. 录音时间怎么看
录音时间怎么看需要先明确是看录音的创建时间还是录音的时长。查看录音创建时间
1、将所录的音频文件导入电脑;
2、用鼠标在音频文件上单击右键,再在弹出的菜单中点击“属性”;
3、在之后弹出的属性框中就会显示音频文件的创建时间、修改时间及访问时间。
查看录音时长有两种方法
方法一:
1、将所录的音频文件导入到电脑中;
2、将鼠标移动至音频文件上,单击右键,在弹出的菜单中点击“属性”;
3、再点击属性框中的“详细信息”,在所显示的信息中有个“长度”,即是音频文件的时长,可精确到秒。
方法二:
1、将所录的音频文件导入到电脑中;
2、将音频文件拖到专业的音视频剪辑软件中,比如Pr(Premiere)中,可以看到音频显示在音频轨道中,并且自动生成序列;
3、在序列面板的左上角,会显示音频文件的名称,名称下面有一个时间码,并且此时时间线里的时间指示针自动在0处;
4、按空格键开始播放音频,当整个音频播放完毕,时间码所显示的数字就是该音频文件所播放的时长,可精确到毫秒(1秒=1000毫秒)。
小提示:
相对来说,专业的音视频剪辑软件所显示的音频总时长会更加精准。
B. 英文音频转中文音频时间码
用计算机软件或单片机电路,对SMPTE 30格式的音频时间码解码,要求在输入端输入SMPTE格式音频,在输出端输出同步的时间显示出来即可,可以计算机软件显示,或也可用数码管显示。
C. 时间码怎么弄
时间码信号来自于音频或视频录制工具,同步起来很简闷顷升单,所以每一个装置里的时间码数值都是相同的。装置可以整体工作,或者同步和运行可以分开。两个或更多不相连接的装置同步的流程又称为”Jam同步”,这就是为什么两个或更精确的TC能使已经jam同步的装置保持时间码的同步,并能保证和时间码数值的匹配。
TC流是一个速率,这个速率是关于两个时间码值慢慢变得不同的。时间码时钟越稳定,同步时时钟能单独运行的时间越长。建议定期用时间码装置做重新jam或同步。
不同的蚂老TC模式应用的场景是不同的。比如FreeRun模式,就算装置是在备用或录制模式,还是会一直输出时间码信号,反之,RecordRun Timecode模式只有在装置录制的时候,输出运行时间码数值。
External Timecode模式要求有一个外部时间编码源。这个模式可以用于避开低质量的内部编码电路,用由高精度的间码装置生产的时间码信号乎念代替。
External TC Auto Rec模式中,从主设备到子设备,时间码信号能自动控制开始或停止录制。后一种模式广泛应用于在授权的RecRun TC装置上远程操作记录仪。利用Genlock或给所有的装置发一个参考视频信号,是一个习惯性的做法,一般所有的装置都能同步准确运行。
D. 国粤音轨怎么对齐
国粤音轨可通过:对齐视频画面、调整延迟、使用时间码、手动调整四步来对齐。
1、对齐视频画面:在录制视频时,要尽量将画面对准音频源,可以用音频峰值来辅助。然后在音频编辑软件中找到视频帧率,然后在视频编辑软件中将两段视频同步为同一帧率,这样可以确保音频和视频保持一致。
2、调整延迟:使用数字音频工作站调整每个音轨的延迟,以使两个音轨开始和结束的时间点相同。可以使用DAW的视觉波形来帮助匹配开始和雹谈渗结侍团束的时间点。
3、使用时间码:时间码使音频对齐处理变得更加简单。如果每个音轨都有一个时间码,那么可以将它们与视频的时间码对齐。这样在视频编辑软件中可以直接通过时间码将音轨和视频对齐。
4、手动调整:如果以上方法都无法解决时间码和自动延迟调整,则可以手动调整音轨以对齐。使源脊用可移动的控制杆仔细调整音轨,并使用耳机仔细监听两个音轨之间的差异并进行调整。
E. premiere cc 时间线 变成帧显示了 怎么弄成时间显示的如图
如果你是用的自定帧,且时基设置在15帧/秒以下时,显示格式就只有画框模式选择,而没有时间码格式显示。如果非要改世禅拆为时间码显示,袭激只有将该序列的时基改为15帧/秒以上时,时间码格式显示才有效。具体操作如下:
在项目面板里面找到需要修改的序列,点击右键,选择“序列设置”
在播放指示器位置点右键即可出现时间码显示格搜枣式,而不仅仅是只有画框一个选项了。
F. 急急急!有谁知到 LTC时间码 的编码方式和的解码方法吗
时间编码
一、概念
这里我们要说明一下媒体流处理中的一个重要概念-时间编码。
时间编码是一个为了视频和音频流的一种辅助的数据。它包含在视频和音频文件中,我们可以理解为时间戳。
SMPTE timecode 是一个SMPTE 时间和控制码的总和,它是一视频和音频流中的连续数字地址桢,标志和附加数据。它被定义在ANSI/SMPTE12-1986。它的目的就是提供一个可用计算机处理的视频和音频地址。
最多SMPTE时间码的数据结构是一个80bit的一桢,它包含下面的内容:
a、 一个hh::mm::ss::ff(小时::分钟::秒::桢)格式的时间戳。
b、 8个4位的二进制数据通常叫做“用户位”。
c、 不同的标志位
d、 同步序列
e、 效验和
这个格式在DirectShow中被定义为TIMECODE_SAMPLE。
时间码分为两种形式,一种是线性的时间格式LTC(纵向编码),在连续时间中每一个时链知间码就代表一桢。另外一种时间码是VITC(横向编码),它在垂直消隐间隔中储存视频信号的两条线,有些地方在10到20之间。
LTC时间码要加到比如录像带中会非常容易,因为它是分离的音频信号编码。但它不能在磁带机暂停、慢进、快进物唤闷的时候被读取。另外在非专业的录像机中它有可能会丢失一路音频信号。
VITC时间码和LTC不同,它可以在0-15倍速度的时候读取。它还可以从视频捕获卡中读取。但是它要是想被录制到磁带上可能就需要一些别的设备了,通常那些设备比较昂贵。
SMPTE时间码同时支持有两种模罩弯式,一种是非丢桢模式,一种是丢桢模式。在非丢桢模式中,时间码是被连续增长的记录下来。它可以完成时实的播放工作达到30桢,或更高。
NTSC制式的视频播放标准为29.97桢/ 每秒,这是考虑到单色电视系统的兼容性所致。这就导致一个问提,在非掉桢模式下会导致一个小时会有108桢的不同步,就是真实时间中一个小时的时候,时间码只读了00:59:56:12,当你计算流媒体的播放时间的时候会有一些问题。为了解决这种问题,我们可以在可以容忍的情况下跳桢实现。这种方式的实现是通过在每分钟开始计数的时候跳过两桢但00,20,30,40,50分钟时不跳桢。采用这样的方案我们的网络测试结果每小时误差少于一桢,每24小时误差大概在3桢左右。
在现在的实际工作中,虽然两种模式都被同时提供,但丢桢模式通常被我们采纳。
二、 时间码的典型应用
控制外围设备来进行视频捕获和编辑是一种典型的应用程序。这种应用程序就需要标识视频和音频桢的每一桢,它们使用的方法就是使用SMPTE时间码。线性编辑系统通常会控制三个或者更多的磁带机器,而且还要尽可能的切换视频于光盘刻录机之间。计算机必须精确的执行命令,因此必须要在特定的时间得到录像带指定位置的地址。应用程序使用时间码的方法有很多中,主要有下面这些种:
a、 在整个编辑处理过程中跟踪视频和音频源
b、 同步视频和音频。
c、 同步多个设备
d、 在时间码中使用未定义的字节,叫做:userbits。这里面通常包含日期,ascii码或者电影的工业信息等待。
三、 捕获时间码
通常,时间码是通过一些有产生时间码能力的捕获卡设备来产生的。比如一个rs-422就需要时间码来控制外围设备和主机通信。
在时间吗产生以后,我们需要从流格式的视频和音频中获得时间码,这是可以在以后进行访问的。然后我们处理时间码通过下面两步:
a、 建立一个每一桢位置的非连续的索引,将时间码和每一桢一一对应。这个列表是在捕获完成后的文件末尾被写入的。列表可以是一个象下面的这个结构的矩阵数组,为了简明起见,这里提供的只是DirectShowTIMECODE_SAMPLE结构的一个简化。
struct {
DWORD dwOffset; // 在桢中的偏移位
char[11] szTC; // 在偏移值中的时间码的值
// hh:mm:ss:ff是非掉桢的格式 hh:mm:ss;ff 是掉桢的格式
} TIMECODE;
例如,这里可以给出一个视频捕获流中的时间码:
{0, 02:00:00:02},
{16305, 15:21:13:29} // 位于16305桢的时间格式
使用了这张表,任何桢的时间码都会很好计算。
B、还有一种做法就是将时间码作为视频和音频数据写入。这种我们不推荐使用因此不作介绍了。
被写入时间码的文件就可以编辑,复合,同步等操作了。这里就写到这里,对于我们理解时间码已经足够了。其它的很多是关于标准的介绍,大家感兴趣可以参阅一下。
G. pr从音频更新时间码
pr从音频更新时间码步骤:打开Adobe Premiere Pro并进入主界面。进樱尺拦入主界面点击菜单栏的编辑进入编辑菜单,选择首选项选择媒体。在首选项中选择媒体。找到时间码并更改。最后点击确定困罩即可脊胡
H. 音频基本知识
外界传来的声音引起人耳鼓膜振动经听小骨及其他组织传给听觉神经,听觉神经传给大脑,这样就听到了声音。
音调 :声音的高低,由频率决定,频率越高音调越高。
响度 :又称音量、音强,由振幅和距离声源的距离决定。
音色 :又称音品,由发声物体本身材料、结构决定。
单声道 :单声道是指把来自不同方位的音频信号混合后统一由录音器材把它记录下来,再由一只音箱进行重放。在单声道的音响器材中,你只能感受到声音、音乐的前后位置及音色、音量的大小,而不能感受到声音从左到右等横向的移动。
双声道 :双声道就是有两个声音通道,其原理是人们听到声音时可以根据左耳和右耳对声音相位差来判断声源的具体位置,在电路上它们往往各自传递的电信号是不一样的,电声学家在追求立体声的过程中,由于技术的限制,在最早的时候只有洞扮饥采用双声道来实现。
立体声 :就是指具有立体感的声音。是一个几何概念,是指在三维空间中占有位置的事物。因为声源有确定的空间位置,声音有确定的方向来源,人们的听觉有辨别声源方位的能力,尤其是有多个声源同时发声时,人们可以凭听觉感知各个声源在空间的位置分布状况。
模拟信号 :音频信号是典型的连续信号,在时间和幅度上都是连续的。在任何一个特定的时间点都有一个对应是幅值。我们把时间和幅度上都是连续的信号称为模拟信号。
数字信号 :在某些特定的时刻对这种模拟信号进行测量叫做采样。在有限个特点时间的采样得到的信号叫做离散时间信号。采到的幅值是一个实数,因此幅度还是一个连续的值,当我们将幅值限定为有限个数值,就称为离散数值信号。我们把时间和幅值都用离散的值表示的时候,此时表示的信号就是数字信号。
人们日常生活听到的各种声音信息是典型的连续信号,它不仅在时间上连续,而且在幅度上也连续,我们称之为模拟音频。在数字音频技术产生之前,我们只能用磁带或胶木唱片来存储模拟音频,随着技术的发展,声音信号逐渐过渡到了数字化存储阶段,可以用计算机等设备将它们存储起来。
模拟音频数字化 :对于计算机来说,处理和存储的只可以是二进制数,所以在使用计算机处理和存储声音信号之前,我们必须使用模数转换(A/D)技术将模拟音频转化为二进制数,这样模拟音频就转化为数字音频了。所谓模数转换就是将模拟信号转化为数字信号,模数转换的过程包括采样、量化和编码三个步骤。模拟音频向数字音频的转换是在计算机的声卡中完成的。
采样 : 采样是指将时间轴上连续的信号每隔一定的时间间隔抽取出一个信号的幅度样本,把连续的模拟量用一个个离散的点表示出来,使其成为时间上离散的脉冲序列。
着名的采样定理(Nyquist 定理)中给出有明确的答案:要想不产生低频失真,采样频率至少应为所要录制的音频的最高频率的2 倍。例如,电话话音的信号频率约为3.4 kHz ,采样频率就应该≥6.8 kHz ,考虑到信号的衰减等因素,一般取为8kHz 。
量化 :将采样后离散信号的幅度用二进制数表示出来的过程称为量化。每个采样点所能表示的二进制位数称为量化精度,或量化位数。量化精度反映了度量声音波形幅度的精度。
编码 :采样和量化后的信号还不是数字信号,需要将它转化为数字编码脉冲,这一过程称为编码。模拟音频进采样、量化和编码后形成的二进制序列就是数字音频信号。
PCM编码 : PCM(Pulse Code Molation),即脉冲编码调制,指模拟音频信号只经过采样、模数转换直接形成的二进制序列,未经过任何编码和压缩处理。PCM编码的最大的优点就是音质好,最大的缺点就是体积大。
非平衡音频 : 使用两根线(一根信号线,一根地线)传送一路(单声道)音频信号。非平衡音频传输过程中信号不稳定,举例说明:比如我们需要将音频信号A从一段传送到另一端,这个过程会有其他型号进入到这一根线,比如电脑的wifi信号B,手机产生的信号C等。等到音频接收端收到的信号就变为了信号A+B+C。
平衡音频信号 :使用三跟线(分别是热端、冷端、地线)来传送一路音频信号。传输原理:热端和冷端传纳返送的信号是同一个信号,信号的发送端把一个声音信号分成两路,一路正相进入热端,一个反相后进入冷端。在信号的接收端把冷端进行反相和热端合并,得到最终的信号。
抗干扰原理:我缺正们将音频信号A从一端发送另一端。在发送前,先兵分两路,让原始的A进入热端,把A做一个反相之后进入冷端,变成-A,然后出发! 路上遇到了变压器来的干扰B进入线路,。热线上的信号变成了A+B,冷线上的信号变成了-A+B。还有手机干扰C,热线上变成了A+B+C,冷线上变成了-A+B+C。 现在到接收端了,先把冷端做一个反相-(-A+B+C)=A-B-C 。然后,把这个反相过的冷端和热端的信号混合,也就是(热端)+(冷端):(A+B+C)+(A-B-C)。
结果呢,不用我说了吧,B和C这两个干扰源在这里正好被完全抵消了!消得干干净净!剩下的只有我们要传送的信号A!
AES/EBU 是一种无压缩的数据音频格式,以单向串行码来传送两个声道的高质量数字音频数据(最高24bit量化),及传送相关的控制信息 ( 包括数字信道的源和目的地址、 日期时间码、 采样点数、 字节长度和其它业 务 信息) 并有检测误码的能力。
AES/EBU信号数字格式
同步符 :也称引导符,占据每个子帧开头的4bit,用以标识每一个子帧的开始。子帧的开始:分三种情况,分别是一般子帧A,一般子帧B,既是块的开始也是子帧A的开始;用于区分上述三种情况,AES/EBU规定了X、Y、Z三种同步符,用以分别标识。
音频数据 :AES/EBU 支持 16- 24 bit 的音频样本数据。 在音频样本大于 20 bit 时, 数据同时占据辅助和音频数据域; 在等于、小于 20
bit 时, 仅存放在音频数据域中, 4 bit 辅助域可用于存放其它数据。
V(合法标记)位 :合法标记位表示此音频采样是否正确、有无包错误、是否适合作为数模转换。
U(用户)位 :没有定义,可以用户定义使用。
C(通道状态)位 :每一个子帧的音频样本都对应一个C(通道状态)位,所以一个块中的A、B子帧各送了192个bit C(通道状态)位;在节目端,各自的192bit被分别记忆组合,形成了两个24字节的数据集合,称为通道状态块。子帧 A、B 的通道状态块是独立的, 与 A、B 声道的音频样品对应。 通道状态块每192 帧更新一次。
P(奇偶校验)位 :为偶校验位, 可检出子帧中奇数个错。
通道状态块数据结构 :
同步符 :也称引导符,占据每个子帧开头的4bit,用以标识每一个子帧的开始。子帧的开始:分三种情况,分别是一般子帧A,一般子帧B,既是块的开始也是子帧A的开始;用于区分上述三种情况,AES/EBU规定了X、Y、Z三种同步符,用以分别标识。
音频数据 :AES/EBU 支持 16- 24 bit 的音频样本数据。 在音频样本大于 20 bit 时, 数据同时占据辅助和音频数据域; 在等于、小于 20 bit 时, 仅存放在音频数据域中, 4 bit 辅助域可用于存放其它数据。
V(合法标记)位 :合法标记位表示此音频采样是否正确、有无包错误、是否适合作为数模转换。
U(用户)位 :没有定义,可以用户定义使用。
C(通道状态)位 :每一个子帧的音频样本都对应一个C(通道状态)位,所以一个块中的A、B子帧各送了192个bit C(通道状态)位;在节目端,各自的192bit被分别记忆组合,形成了两个24字节的数据集合,称为通道状态块。子帧 A、B 的通道状态块是独立的, 与 A、B 声道的音频样品对应。 通道状态块每192 帧更新一次。
P(奇偶校验)位 :为偶校验位, 可检出子帧中奇数个错。
通道状态块 :
Data Burst Format :
I. LTC/SMPTE In 是什么
线性(或纵向岩派)时间码(LTC)是SMPTE时间码数据的编码,作为曼彻斯特双相编郑羡码的音频信号。 音频信号通常喊枣拍记录在VTR轨道或其他存储媒体上。