信息论
信息论概述
信息论是运用概率论与数理统计的方法研究信息传输和信息处理系统中一般规律的新兴学科。核心问题是信息传输的有效性和可靠性以及两者间的关系。
信息论作为一门科学理论,发端于通信工程。它具有广义和狭义两个概念:
狭义信息论是应用统计方法研究通讯系统中信息传递和信息处理的共同规律的科学,即研究概率性语法信息的科学;
广义信息论是应用数学和其他有关科学方法研究一切现实系统中信息传递和处理、信息识别和利用的共同规律的科学,即研究语法信息、语义信息和语用信息的科学。
信息是事物及其属性标识的集合
信息就是信息,信息是物质、能量、信息及其属性的标示。
信息是确定性的增加。即肯定性的确认。
信息论形成和发展
人们对于信息的认识和利用,可以追溯到古代的通讯实践。中国古代的“烽燧相望”和古罗马地中海诸城市的“悬灯为号”,可以说是传递信息的原始方式。随着社会生产的发展,科学技术的进步,人们对传递信息的要求急剧增加。到了20世纪20年代,如何提高传递信息的能力和可靠性已成为普遍重视的课题。美国科学家N.奈奎斯特、德国K.屈普夫米勒、前苏联A.H.科尔莫戈罗夫和英国R.A.赛希尔等人,从不同角度研究信息,为建立信息论作出很大贡献。1948年,美国数学家C.E.香农(被称为是“信息论之父”)出版《通信的数学理论》,1949年发表《噪声中的通信》,从而奠定了信息论的基础。20世纪70年代以后,随着数学计算机的广泛应用和社会信息化的迅速发展,信息论正逐渐突破香农狭义信息论的范围,发展为一门不仅研究语法信息,而且研究语义信息和语用信息的科学。它的建立是人类认识的一个飞跃。世界上各种事物都是充满矛盾不断发展的,物质的运动主要是靠内部矛盾运动所产生的能量,而事物之间的普遍联系则靠的是信息。信息是关于事物的运动状态和规律,而信息论的产生与发展过程,就是立足于这个基本性质。信息论迅速渗透到各个不同学科领域,但还不够完善。为了适应科学技术发展的需要,迎接信息化社会的到来,一门新的科学正在迅速兴起,这就是广义信息论,或者叫做信息科学。信息科学是由信息论、控制论、计算机、人工智能和系统论等相互渗透、相互结合而形成的一门新兴综合性学科。信息科学登上现代科技舞台,与能量科学、材料科学鼎足而立 ,将为科学技术的发展作出贡献。
信息论内容
信息论内容包括信息熵、信源编码、信道编码、信道容量、信息失真率理论、信号检测和估计等。
信息量
信息的度量是信息论研究的基本问题之一。对于应用范围如此广泛的信息提出一个统一的度量是困难的。美国数学家C.E.香农在1948年提出信息熵作为信息量的测度。根据人们的实践经验,一个事件给予人们的信息量多少,与这一事件发生的概率(可能性)大小有关。一个小概率事件的发生,如“唐山发生七级以上大地震”使人们感到意外,它给人们的信息量就很多。相反一个大概率事件的出现,如“12月15日北京未下雪”给人们的信息量就很少。因此,用I(A)=- logP(A)〔P(A)表示事件A发生的概率〕来度量事件A给出的信息量,称为事件A的自信息量。若一次试验有M个可能结果(事件),或一个信源可能产生M个消息(事件),它们出现的概率分别为tp://wiki.mbalib.com/w/images/math/0/e/b/0eb5ca3dddd8b31347fdef9936c089ea.png" alt="p1,p2,\cdots,pM"> ,则用tp://wiki.mbalib.com/w/images/math/c/0/a/c0ae508fccd2932dc072e9a3c50a9967.png" alt="H=-\sum_{i=1}^MP_ilogP_i">来度量一次试验或一个消息所给出的平均信息量。当对数取 2为底时,单位为比特;当对数取e为底时,则单位为奈特。H的表达式与熵的表达式差一个负号,故称负熵或信息熵。
信息传输模型
信息传输系统主要由信源、信道和信宿组成,下图为信息传输系统的基本模型。信源是产生消息的系统。信宿是接受消息的系统,信道则是传输消息的通道。图中编码器、译码器的作用是把消息变换成便于传输的形式。
tp://wiki.mbalib.com/w/images/a/ad/%E4%BF%A1%E6%81%AF%E4%BC%A0%E8%BE%93%E6%A8%A1%E5%9E%8B.jpg" alt="Image:信息传输模型.jpg" width="700" height="303" longdesc="/wiki/Image:%E4%BF%A1%E6%81%AF%E4%BC%A0%E8%BE%93%E6%A8%A1%E5%9E%8B.jpg">
信源编码
信源是产生消息(包括消息序列)的源。消息通常是符号序列或时间函数。例如电报系统中的消息是由文字、符号、数字组成的报文(符号序列),称为离散消息。电话系统中的消息是语声波形(时间函数),称为连续消息。消息取值服从一定的统计规律。因此,信源的数学模型是一个在信源符号集中取值的随机变量序列或随机过程。信源编码器将消息变换为一个数字序列(通常为二进制数字序列)。在离散情形,若信源产生M个可能消息,它们出现的概率分别为tp://wiki.mbalib.com/w/images/math/0/e/b/0eb5ca3dddd8b31347fdef9936c089ea.png" alt="p1,p2,\cdots,pM">,每个消息由N个信源符号组成,便可取信源编码与数字序列一一对应。第i个消息对应的数字序列长(数字个数)为li,li相等的称等长编码,否则称变长编码。定义tp://wiki.mbalib.com/w/images/math/7/c/3/7c3c0a23331d703c8eb91e9639369a63.png" alt="R={1 \over N}\sum_{i=1}^MP_il_i">为编码速率,它表征平均每个信源符号要用多少个数字来表示。若取信源译码器为信源编码器的逆变换器,则在无噪信道(信源编码器的输出即为信源译码器的输入) 情况下,消息可以正确无误地传送。这时信源编码问题是要找出最小的速率R及其相应的编码。已经证明,对于相当广泛的信源类,当N可以任意大时这个最小极限速率tp://wiki.mbalib.com/w/images/9/92/%E4%BF%A1%E6%81%AF%E8%AE%BA%E4%B9%8B%E4%BF%A1%E6%BA%90%E7%BC%96%E7%A0%81.jpg" alt="Image:信息论之信源编码.jpg" width="248" height="40" longdesc="/wiki/Image:%E4%BF%A1%E6%81%AF%E8%AE%BA%E4%B9%8B%E4%BF%A1%E6%BA%90%E7%BC%96%E7%A0%81.jpg">称为信源的熵率,是信源的一个重要参数。对于固定的N,最优编码就是赫夫曼编码。在连续消息的情形,信息编码器不可能使消息与数字序列一一对应,因此译码也不是编码的逆变换。通常的方法是先对连续消息进行采样和量化,变为离散消息,再将离散消息变换为数字序列。信源译码器先将数字序列逆变换为离散消息,再用内插法求得连续消息。这样一来,即使在无噪信道的情况下,发送消息与接收消息之间也会产生误差,称为消息失真。可以用一个非负函数d(u,v)来度量消息 u,v之间的失真大小。这时信源编码问题是在保证平均失真不超过给定允许极限D 的条件下找出最小速率R 及其相应编码。求解这一问题导致熵推广到失真率函数,信源编码的失真率理论因而得到发展。
信道编码
信道是传输信息的媒质或通道,如架空明线、同轴电缆、射频波束、光导纤维等。有时为研究方便将发送端和接收端的一部分如调制解调器也划归信道。信息论把信息传送过程中受各种干扰的影响都归入信道中考虑。根据干扰的统计特性,信道有多种模型。最简单的是离散无记忆恒参信道,它可以用信道入口符号集X、出口符号集Y和一组条件概率P(y|x)(x∈X,y∈Y)来描述。若信道输入信号x=(x1,x2,…,xN),则相应的输出(受扰)信号y=(y1,y2,…,yN)出现的概率为tp://wiki.mbalib.com/w/images/math/b/e/7/be7a882e797c645b1b4517f53f8ae6ac.png" alt="p=(y|x)=\prod_{i=1}^NP(y_i|x_i),N=1,2,\cdots">信道编码器将数字序列每K个一组变换为字长N 的信号(码字),称为分组编码。若数字和信道符号都是二进制的(可用0,1表示),则R=K/N 定义为编码速率,它表明每个信道符号表示多少个数字。N-K 称为编码冗余度。信道编码(纠错编码)的基本思想就是增加冗余度以提高可靠性。更确切地说,信道译码器可以利用编码冗余度将受扰信号变换为正确的发送数字序列。重复编码乃一简例。信道编码器将输入数字重复三次, 如将01011变换为000111000111111。信道译码器可用门限译码,即先将输入译码器的信道符号每三个一组地相加,再将结果逐个与阈值 2比较,小于阈值2的译为0,否则译为1。这样若受扰信号010110100011011虽然错了 5个符号,但译码仍为01011与发送数字序列完全相同。信息论得出的重要结论是:对于一个有噪信道,只要在信道编码中引入足够而有限的冗余度,或等价地说编码速率足够小,就能通过信道渐近无误地传送消息。更确切地说,对充分长的数字序列,其接收错误概率可以任意小。信道编码问题是要找出使信道渐近无误地传输消息所能达到的最大编码速率R和相应的编码。已经证明,对于离散无记忆恒参信道,这个最大极限编码速率为tp://wiki.mbalib.com/w/images/7/70/%E4%BF%A1%E6%81%AF%E8%AE%BA%E4%B9%8B%E4%BF%A1%E9%81%93%E7%BC%96%E7%A0%81.jpg" alt="Image:信息论之信道编码.jpg" width="146" height="27" longdesc="/wiki/Image:%E4%BF%A1%E6%81%AF%E8%AE%BA%E4%B9%8B%E4%BF%A1%E9%81%93%E7%BC%96%E7%A0%81.jpg">,它是对X上一切概率分布 p取极大值。p为信道转移概率(条件概率),
tp://wiki.mbalib.com/w/images/0/06/%E4%BF%A1%E6%81%AF%E8%AE%BA%E4%B9%8B%E4%BF%A1%E9%81%93%E7%BC%96%E7%A0%811.jpg" alt="Image:信息论之信道编码1.jpg" width="256" height="63" longdesc="/wiki/Image:%E4%BF%A1%E6%81%AF%E8%AE%BA%E4%B9%8B%E4%BF%A1%E9%81%93%E7%BC%96%E7%A0%811.jpg">
称为交互信息;C 称为信道容量,是信道的重要参数。
信息传输定理
对图中的信息传输系统,若啛/TS<C/TC,其中啛为信源的熵率,C为信道容量,TS和TC分别为信源符号和信道符号的持续时间,则一定存在编码和译码使消息可通过信道渐近无误地传送。反之,若啛/TS>C/TC,则不存在这样的编码和译码。
信息论研究的主流始终是围绕这个基本定理展开的,只是信源和信道的模型更复杂而已。上述定理是实际存在的,但没有给出实现这一理想传输的具体编码方法。寻找实现这一理想传输的编码和译码方法则是编码理论研究的目标。虽然这一目标至今尚未达到,但信息论的研究成果对设计新通信系统的作用是人们所肯定的。
信息论的应用
信息论的意义和应用范围已超出通信的领域。自然界和社会中有许多现象和问题,如生物神经的感知系统、遗传信息的传递等,均与信息论中研究的信息传输和信息处理系统相类似。因此信息论的思想对许多学科如物理学、生物学、遗传学、控制论、计算机科学、数理统计学、语言学、心理学、教育学、经济管理、保密学研究等都有一定的影响和作用。另一方面,由于借助负熵定义的信息量只能反映符号出现的概率分布(不肯定性),不能反映信息的语义和语用层次。一篇重要的报告和一篇胡说乱道的文章可以具有同样的信息,这显然不符合常识。因此现阶段信息论的应用又有很大的局限性。把信息的度量推广到适合于语义信息和语用信息的情况,曾经做过许多尝试。但至今还没有显著的进展。
编码学 密码学与密码分析学 数据传输 数据压缩 检测理论 估计理论 信息论第一定律:信息守恒定律
信息论是运用概率论与数理统计的方法研究信息传输和信息处理系统中一般规律的新兴学科。核心问题是信息传输的有效性和可靠性以及两者间的关系。
信息论作为一门科学理论,发端于通信工程。它具有广义和狭义两个概念:
狭义信息论是应用统计方法研究通讯系统中信息传递和信息处理的共同规律的科学,即研究概率性语法信息的科学;
广义信息论是应用数学和其他有关科学方法研究一切现实系统中信息传递和处理、信息识别和利用的共同规律的科学,即研究语法信息、语义信息和语用信息的科学。
信息是事物及其属性标识的集合
信息就是信息,信息是物质、能量、信息及其属性的标示。
信息是确定性的增加。即肯定性的确认。
信息论形成和发展
人们对于信息的认识和利用,可以追溯到古代的通讯实践。中国古代的“烽燧相望”和古罗马地中海诸城市的“悬灯为号”,可以说是传递信息的原始方式。随着社会生产的发展,科学技术的进步,人们对传递信息的要求急剧增加。到了20世纪20年代,如何提高传递信息的能力和可靠性已成为普遍重视的课题。美国科学家N.奈奎斯特、德国K.屈普夫米勒、前苏联A.H.科尔莫戈罗夫和英国R.A.赛希尔等人,从不同角度研究信息,为建立信息论作出很大贡献。1948年,美国数学家C.E.香农(被称为是“信息论之父”)出版《通信的数学理论》,1949年发表《噪声中的通信》,从而奠定了信息论的基础。20世纪70年代以后,随着数学计算机的广泛应用和社会信息化的迅速发展,信息论正逐渐突破香农狭义信息论的范围,发展为一门不仅研究语法信息,而且研究语义信息和语用信息的科学。它的建立是人类认识的一个飞跃。世界上各种事物都是充满矛盾不断发展的,物质的运动主要是靠内部矛盾运动所产生的能量,而事物之间的普遍联系则靠的是信息。信息是关于事物的运动状态和规律,而信息论的产生与发展过程,就是立足于这个基本性质。信息论迅速渗透到各个不同学科领域,但还不够完善。为了适应科学技术发展的需要,迎接信息化社会的到来,一门新的科学正在迅速兴起,这就是广义信息论,或者叫做信息科学。信息科学是由信息论、控制论、计算机、人工智能和系统论等相互渗透、相互结合而形成的一门新兴综合性学科。信息科学登上现代科技舞台,与能量科学、材料科学鼎足而立 ,将为科学技术的发展作出贡献。
信息论内容
信息论内容包括信息熵、信源编码、信道编码、信道容量、信息失真率理论、信号检测和估计等。
信息量
信息的度量是信息论研究的基本问题之一。对于应用范围如此广泛的信息提出一个统一的度量是困难的。美国数学家C.E.香农在1948年提出信息熵作为信息量的测度。根据人们的实践经验,一个事件给予人们的信息量多少,与这一事件发生的概率(可能性)大小有关。一个小概率事件的发生,如“唐山发生七级以上大地震”使人们感到意外,它给人们的信息量就很多。相反一个大概率事件的出现,如“12月15日北京未下雪”给人们的信息量就很少。因此,用I(A)=- logP(A)〔P(A)表示事件A发生的概率〕来度量事件A给出的信息量,称为事件A的自信息量。若一次试验有M个可能结果(事件),或一个信源可能产生M个消息(事件),它们出现的概率分别为tp://wiki.mbalib.com/w/images/math/0/e/b/0eb5ca3dddd8b31347fdef9936c089ea.png" alt="p1,p2,\cdots,pM"> ,则用tp://wiki.mbalib.com/w/images/math/c/0/a/c0ae508fccd2932dc072e9a3c50a9967.png" alt="H=-\sum_{i=1}^MP_ilogP_i">来度量一次试验或一个消息所给出的平均信息量。当对数取 2为底时,单位为比特;当对数取e为底时,则单位为奈特。H的表达式与熵的表达式差一个负号,故称负熵或信息熵。
信息传输模型
信息传输系统主要由信源、信道和信宿组成,下图为信息传输系统的基本模型。信源是产生消息的系统。信宿是接受消息的系统,信道则是传输消息的通道。图中编码器、译码器的作用是把消息变换成便于传输的形式。
tp://wiki.mbalib.com/w/images/a/ad/%E4%BF%A1%E6%81%AF%E4%BC%A0%E8%BE%93%E6%A8%A1%E5%9E%8B.jpg" alt="Image:信息传输模型.jpg" width="700" height="303" longdesc="/wiki/Image:%E4%BF%A1%E6%81%AF%E4%BC%A0%E8%BE%93%E6%A8%A1%E5%9E%8B.jpg">
信源编码
信源是产生消息(包括消息序列)的源。消息通常是符号序列或时间函数。例如电报系统中的消息是由文字、符号、数字组成的报文(符号序列),称为离散消息。电话系统中的消息是语声波形(时间函数),称为连续消息。消息取值服从一定的统计规律。因此,信源的数学模型是一个在信源符号集中取值的随机变量序列或随机过程。信源编码器将消息变换为一个数字序列(通常为二进制数字序列)。在离散情形,若信源产生M个可能消息,它们出现的概率分别为tp://wiki.mbalib.com/w/images/math/0/e/b/0eb5ca3dddd8b31347fdef9936c089ea.png" alt="p1,p2,\cdots,pM">,每个消息由N个信源符号组成,便可取信源编码与数字序列一一对应。第i个消息对应的数字序列长(数字个数)为li,li相等的称等长编码,否则称变长编码。定义tp://wiki.mbalib.com/w/images/math/7/c/3/7c3c0a23331d703c8eb91e9639369a63.png" alt="R={1 \over N}\sum_{i=1}^MP_il_i">为编码速率,它表征平均每个信源符号要用多少个数字来表示。若取信源译码器为信源编码器的逆变换器,则在无噪信道(信源编码器的输出即为信源译码器的输入) 情况下,消息可以正确无误地传送。这时信源编码问题是要找出最小的速率R及其相应的编码。已经证明,对于相当广泛的信源类,当N可以任意大时这个最小极限速率tp://wiki.mbalib.com/w/images/9/92/%E4%BF%A1%E6%81%AF%E8%AE%BA%E4%B9%8B%E4%BF%A1%E6%BA%90%E7%BC%96%E7%A0%81.jpg" alt="Image:信息论之信源编码.jpg" width="248" height="40" longdesc="/wiki/Image:%E4%BF%A1%E6%81%AF%E8%AE%BA%E4%B9%8B%E4%BF%A1%E6%BA%90%E7%BC%96%E7%A0%81.jpg">称为信源的熵率,是信源的一个重要参数。对于固定的N,最优编码就是赫夫曼编码。在连续消息的情形,信息编码器不可能使消息与数字序列一一对应,因此译码也不是编码的逆变换。通常的方法是先对连续消息进行采样和量化,变为离散消息,再将离散消息变换为数字序列。信源译码器先将数字序列逆变换为离散消息,再用内插法求得连续消息。这样一来,即使在无噪信道的情况下,发送消息与接收消息之间也会产生误差,称为消息失真。可以用一个非负函数d(u,v)来度量消息 u,v之间的失真大小。这时信源编码问题是在保证平均失真不超过给定允许极限D 的条件下找出最小速率R 及其相应编码。求解这一问题导致熵推广到失真率函数,信源编码的失真率理论因而得到发展。
信道编码
信道是传输信息的媒质或通道,如架空明线、同轴电缆、射频波束、光导纤维等。有时为研究方便将发送端和接收端的一部分如调制解调器也划归信道。信息论把信息传送过程中受各种干扰的影响都归入信道中考虑。根据干扰的统计特性,信道有多种模型。最简单的是离散无记忆恒参信道,它可以用信道入口符号集X、出口符号集Y和一组条件概率P(y|x)(x∈X,y∈Y)来描述。若信道输入信号x=(x1,x2,…,xN),则相应的输出(受扰)信号y=(y1,y2,…,yN)出现的概率为tp://wiki.mbalib.com/w/images/math/b/e/7/be7a882e797c645b1b4517f53f8ae6ac.png" alt="p=(y|x)=\prod_{i=1}^NP(y_i|x_i),N=1,2,\cdots">信道编码器将数字序列每K个一组变换为字长N 的信号(码字),称为分组编码。若数字和信道符号都是二进制的(可用0,1表示),则R=K/N 定义为编码速率,它表明每个信道符号表示多少个数字。N-K 称为编码冗余度。信道编码(纠错编码)的基本思想就是增加冗余度以提高可靠性。更确切地说,信道译码器可以利用编码冗余度将受扰信号变换为正确的发送数字序列。重复编码乃一简例。信道编码器将输入数字重复三次, 如将01011变换为000111000111111。信道译码器可用门限译码,即先将输入译码器的信道符号每三个一组地相加,再将结果逐个与阈值 2比较,小于阈值2的译为0,否则译为1。这样若受扰信号010110100011011虽然错了 5个符号,但译码仍为01011与发送数字序列完全相同。信息论得出的重要结论是:对于一个有噪信道,只要在信道编码中引入足够而有限的冗余度,或等价地说编码速率足够小,就能通过信道渐近无误地传送消息。更确切地说,对充分长的数字序列,其接收错误概率可以任意小。信道编码问题是要找出使信道渐近无误地传输消息所能达到的最大编码速率R和相应的编码。已经证明,对于离散无记忆恒参信道,这个最大极限编码速率为tp://wiki.mbalib.com/w/images/7/70/%E4%BF%A1%E6%81%AF%E8%AE%BA%E4%B9%8B%E4%BF%A1%E9%81%93%E7%BC%96%E7%A0%81.jpg" alt="Image:信息论之信道编码.jpg" width="146" height="27" longdesc="/wiki/Image:%E4%BF%A1%E6%81%AF%E8%AE%BA%E4%B9%8B%E4%BF%A1%E9%81%93%E7%BC%96%E7%A0%81.jpg">,它是对X上一切概率分布 p取极大值。p为信道转移概率(条件概率),
tp://wiki.mbalib.com/w/images/0/06/%E4%BF%A1%E6%81%AF%E8%AE%BA%E4%B9%8B%E4%BF%A1%E9%81%93%E7%BC%96%E7%A0%811.jpg" alt="Image:信息论之信道编码1.jpg" width="256" height="63" longdesc="/wiki/Image:%E4%BF%A1%E6%81%AF%E8%AE%BA%E4%B9%8B%E4%BF%A1%E9%81%93%E7%BC%96%E7%A0%811.jpg">
称为交互信息;C 称为信道容量,是信道的重要参数。
信息传输定理
对图中的信息传输系统,若啛/TS<C/TC,其中啛为信源的熵率,C为信道容量,TS和TC分别为信源符号和信道符号的持续时间,则一定存在编码和译码使消息可通过信道渐近无误地传送。反之,若啛/TS>C/TC,则不存在这样的编码和译码。
信息论研究的主流始终是围绕这个基本定理展开的,只是信源和信道的模型更复杂而已。上述定理是实际存在的,但没有给出实现这一理想传输的具体编码方法。寻找实现这一理想传输的编码和译码方法则是编码理论研究的目标。虽然这一目标至今尚未达到,但信息论的研究成果对设计新通信系统的作用是人们所肯定的。
信息论的应用
信息论的意义和应用范围已超出通信的领域。自然界和社会中有许多现象和问题,如生物神经的感知系统、遗传信息的传递等,均与信息论中研究的信息传输和信息处理系统相类似。因此信息论的思想对许多学科如物理学、生物学、遗传学、控制论、计算机科学、数理统计学、语言学、心理学、教育学、经济管理、保密学研究等都有一定的影响和作用。另一方面,由于借助负熵定义的信息量只能反映符号出现的概率分布(不肯定性),不能反映信息的语义和语用层次。一篇重要的报告和一篇胡说乱道的文章可以具有同样的信息,这显然不符合常识。因此现阶段信息论的应用又有很大的局限性。把信息的度量推广到适合于语义信息和语用信息的情况,曾经做过许多尝试。但至今还没有显著的进展。
编码学 密码学与密码分析学 数据传输 数据压缩 检测理论 估计理论 信息论第一定律:信息守恒定律
热门专栏
热门词条
应收账款
区域货币
区间估计
金融危机
资本成本
CPI(Consumer Price Index)
汇率
资产
经济
美元
单向定单
租赁期
外汇通
外汇佣金
服务
SME
ISO
认可
增量成本
什一税
CFO
MIT
加工
MG金融集团
销售
股价反弹
抽签偿还
股利收入
技术
空头陷阱
资本
REF
市场
中国股市
中小企业
备付金率
美国
两会
价格
吊空
指数
股灾
葡萄牙币
调至市价
pt
清算
电子汇兑
税粮
下降三角形
外汇
FDI
投资
Writer
银行
阴烛
管理
MACD
width
企业
冲账
黄金
短期同业拆借
Theta
peg
货币
外汇交易法
金融中介理论
艾略特波段理论的含义
消费发展战略
产品
巴塞尔资本协议
贴现现金流
计期汇票
联系汇率制度
拔档
美国贝勒大学
汇差清算率
延期付款汇票
短期国际商业贷款
Exposure
集中竞价
标准普尔(S&P)
金融
不完全竞争市场理论 (金融)
公司
正利差
分期付款汇票
软通货
出口物价指数
选择权买方
指标
资金
百分比回撤
无记名汇票最低报价戴维·凯特标准·普尔 500指数抵押品持平德国工业产值德国消费者物价指数成本协同效益
单位
非农就业人口
股票
交易
道琼斯公用事业平均指数
持平
指示汇票
产品竞争力
财务指标 盈利能力比率
外汇实盘交易方式
德国伊弗研究所景气调查