\documentclass{article}
\usepackage[ngerman]{babel}
\usepackage[T1]{fontenc}
\usepackage[latin1]{inputenc}
\usepackage{amsmath,amssymb}
\usepackage[left=3cm,right=3cm,top=2cm,bottom=2cm]{geometry} %Anpassung der Seitenränder
%\pagestyle{headings}
\begin{document}
\begin{center}\huge Formelsammlung DNT\par\bigskip\large\today\end{center} %Dann eben nicht als Titel sondern manuell
\section{Lineare Quantisierung}
\begin{table}[htbp]
\begin{center}
\caption{\textit{Übersicht der Datenraten}}
\begin{tabular}{|p{5cm}|p{3cm}||p{6cm}|}\hline
Signal & Abtastfrequenz / kHz & Frequenzbereich / kHz \\ \hline \hline
Telefonsprache/ISDN & 8 & 0 \leq f \leq 4 \\ \hline
Breitbandsprache & 16 & 0 \leq f \leq 8 \\ \hline
normale Sprache & 40 & 0 \leq f \leq 20 \\ \hline
\end{tabular}
\end{center}
\end{table}
\textbf{Definition des Rechteckimpulses:}
\begin{displaymath} \textstyle
\[ rect(t)= \left\{ \begin{matrix}
1, \quad |t|\leq \frac{1}{2} \\
0, \quad |t| > \frac{1}{2}
\end{matrix}
\right. \]
\end{displaymath}
\textbf{Abtasttheorem und Tiefpassstruktur vor dem Abtasten:}
\begin{equation} \textstyle
f_a > 2 \cdot f_{max} \mbox{ mit } f_a = \frac{1}{T}\mbox{ und für Tiefpass: } f_g < \frac{f_a}{2}
\end{equation}
\textbf{Intervallhöhe in Abhängigkeit von k:}
\begin{equation} \textstyle
x = \frac{A_{max} + \left|-A_{max} \right|}{2^k} = \frac{2 * A_{max}}{2^k}
\end{equation}
\textbf{Abbildung eines Analogwertes innerhalb eines Intervalls auf die Intervallmitte:}
\begin{equation} \textstyle
\hat{x}(n) = \underbrace{sign[\overbrace{x(n)}^{Analogwert}]}_{Vorzeichen \mbox{ } von \mbox{ } \hat{x}(n)} \cdot [\underbrace{int(\frac{\left|x(n)\right|}{\Delta x})}_{naechst\mbox{ }kleinere,\mbox{ }ganze\mbox{ }Zahl}+0,5] \cdot \Delta x
\end{equation}
\textbf{Quantisierungsfehler:}
\begin{equation} \textstyle
e(n) = \hat x(n) - {x}(n)\stackrel{Abbildung\mbox{ }in\mbox{ }der\mbox{ }Mitte}{\rightarrow}\frac{-\Delta x}{2} \leq e \leq \frac{\Delta x}{2}
\end{equation}
\textbf{SNR (Quantisierungsfehler bei Audiosignalen als Rauschen hörbar):}
\begin{equation} \textstyle
\underbrace{SNR}_{signal-to-noise\mbox{ }ratio}/dB = 10 log_{10} \cdot (\frac{S}{N})= k \cdot 6,02
\end{equation}
Das Signal-Rausch-Verhältnis gilt nur unter folgenden Bedingungen:
\begin{enumerate}
\item Verwendung des gesamten Quantisierungsbereiches
\item Amplitudenwertes des abgetasteten Signals sind gleichverteilt
\end{enumerate}
\textbf{Fehler N als Erwartungswert des Quadrates von e(n)(Die Fehler sind gleichverteilt!):}
\begin{equation} \textstyle
N = \int\limits_{\frac{-\Delta x}{2}}^{\frac{\Delta x}{2}}e^2(n) \cdot \underbrace{p(e)}_{\frac{1}{\Delta x}}\,de = \frac{1}{\Delta x} \left[\frac{e^3}{3}\right]^{\frac{\Delta x}{2}}_{\frac{-\Delta x}{2}}=\frac{(\Delta x)^2}{12}
\end{equation}
\textbf{Signal S als Erwartungswert des Quadrates von x(n)(Werte idR \underline{nicht} gleichverteilt!):}
\begin{equation} \textstyle
N = \int\limits_{-A_{max}}^{A_{max}}x^2(n) \cdot \underbrace{p(x)}_{\frac{1}{2 \cdot A_{max}}}\,dx = \frac{1}{2A_{max}} \left[\frac{x^3}{3}\right]^{-A_{max}}_{A_{max}}=\frac{(A_{max})^2}{3}
\end{equation}
\textbf{Faltungsintegral:}
\begin{equation} \textstyle
y(t) = \int_{-\infty}^{\infty}\underbrace{x(\tau)}_{Eingangssign al} \cdot h(t-\tau)\,d\tau = x(t) \underbrace{\ast}_{Faltungsoperator} \underbrace{h(t)}_{Stossantwort}
\end{equation}
\textbf{Diskrete Faltung ausgedrückt durch eine Summe:}
\begin{equation} \textstyle
y(n) = \sum^{\infty}_{m=-\infty} x(m) \cdot h(n-m) = x(n) \ast h(n)
\end{equation}
\textbf{Diskrete Fouriertransformation (DFT), vom Zeit- in den Frequenzbereich:}
\begin{equation} \textstyle
X(f) = \int_{-\infty}^{\infty} x(t) \cdot e^{-j2 \pi ft} \,dt \underbrace{=}_{t\rightarrow nT}\sum^{\infty}_{n=-\infty} x(nT) \cdot e^{-j2 \pi fnT}=X_{abgetastet}(f) \mbox{ mit T=1/fa}
\end{equation}
\textbf{Diskrete Fouriertransformation (DFT):}
\begin{equation} \textstyle
\mbox{mit } f=f_k=k \cdot \frac{f_a}{N}\Rightarrow X(k) = \sum^{N-1}_{n=0} x(\underbrace{n}_{bekannt}) \cdot e^{-j2 \pi (k\frac{f_a}{N})nT}=\sum^{N-1}_{n=0} x(nT) \cdot e^{-j2k\frac{n}{N}}
\end{equation}
Daraus ergeben sich aus dem Zeitsignal x(t) für $k=(0,1,2,...,\frac{N}{2})$ N komplexe Spektralwerte.
Für ungerade k's kann der Realteil und für gerade k's kann der Imaginärteil von X(k) Werte ungleich 0 annehmen.
\textbf{Definition der IDFT:}
\begin{equation} \textstyle
\mbox{mit } n=0,1,...,N-1 \Rightarrow x(n) = \sum^{N-1}_{k=0} X(k) \cdot e^{-j2k\frac{n}{N}}
\end{equation}
\textbf{Z-Transformation(beschreibt eine Bewegung auf dem Einheitskreis):}
\begin{equation} \textstyle
z = e^{j2\pi fT}= \underbrace{\Rightarrow}_{f=\frac{f_a}{2}}e^{j\pi \frac{f_a}{f_a}}=-1
\end{equation}
\textbf{Linearphasiges Verhalten bei sym. Aussehen des FIR-Filters:}
\begin{equation} \textstyle
\Phi (f)= -2 \pi f \frac{N}{2}T = -\pi N \frac{f}{f_a}
\end{equation}
\textbf{Gruppenlaufzeit (Versatz Ein/Ausgang) eines linearphasigen FIR-Filters:}
\begin{equation} \textstyle
\tau_g= \frac{-1}{2 \pi} \cdot \underbrace{\frac{d\Phi (f)}{df}}_{\frac{-\pi N}{f_a}}=\frac{N}{2}T
\end{equation}
\textbf{Autokorrelka:}
\begin{equation} \textstyle
\tau_g= \frac{-1}{2 \pi} \cdot \underbrace{\frac{d\Phi (f)}{df}}_{\frac{-\pi N}{f_a}}=\frac{N}{2}T
\end{equation}
\textbf{Autokorrelationsfunktion AKF:}
\begin{equation} \textstyle
R_{xx}(l) = \sum^{N-1}_{n=0} x(n)x(n+l)
\end{equation}
\textbf{Kreuzkorrelationsfunktion KKF:}
\begin{equation} \textstyle
R_{xy}(l) = \sum^{\infty}_{n=-\infty} x(n)y(n+l)
\end{equation}
\section{Statistische Signalbeschreibung}
\textbf{Verteilungsfunktion (stetig steigende Funktion):}
\begin{equation} \textstyle
P(u)= prob\left\{x(t)
\end{equation}
\textbf{Wahrscheinlichkeitsdichtefunktion (kann zu jeder zeit alle Werte annnehmen):}
\begin{equation} \textstyle
p(u) = \frac{dP(u)}{du}
\end{equation}
\textbf{Mittelwert:}
\begin{equation} \textstyle
\mu_x = E\left\{x\right\}= \int_{-\infty}^{\infty} p(x)x \,dx
\end{equation}
\textbf{Leistung:}
\begin{equation} \textstyle
P_x = E\left\{x^2\right\}= \int_{-\infty}^{\infty} p(x)x^2 \,dx
\end{equation}
\textbf{Varianz, Leistung des Wechselanteils:}
\begin{equation} \textstyle
\sigma^2_x = E\left\{(x- \mu_x)^2\right\}= \int_{-\infty}^{\infty} p(x)(x- \mu_x)^2 \,dx = P_x - \mu^2_x
\end{equation}
\section{Informationstheorie}
\textbf{Informationsgehalt eines Zeichens:}
\begin{equation} \textstyle
I_i = ld(\frac{1}{p(x_i)}) \mbox{ mit } \sum^{N}_{i=1} p(x_i) = 1
\end{equation}
\textbf{Entropie, mittlerer Informationsgehalt in Bit pro x Zeichen:}
\begin{equation} \textstyle
E\left\{I_i\right\} = H(x) = \sum^{N}_{i=1} p(x_i) \cdot I_i = \sum^{N}_{i=1} p(x_i) \cdot ld(\frac{1}{p(x_i)})
\end{equation}
\textbf{Entscheidungsgehalt, maximaler Wert der Entropie:}
\begin{equation} \textstyle
H_0 = \sum^{N}_{i=1} p(x_i) \cdot ld(\frac{1}{p(x_i)}) = \sum^{N}_{i=1} \frac{1}{N} \cdot ld(\frac{1}{1/N}) \mbox{ mit } H_0 \geq H_x
\end{equation}
Nur bei unterschiedlichen Wahrscheinlichkeiten der Zeichen bzw. bei $H_0 > H_x$ macht es sich über eine geeignete Codierung Gedanken zu machen.
\textbf{Redundanz, rel. Redundanz:}
\begin{equation} \textstyle
R = H_0-H_x \mbox{ relativ } r= \frac{H_0-H_x}{H_0}
\end{equation}
\textbf{Matrix der Übergangswahrscheinlichkeiten($x_j$ ist von $x_i$ abhängig!):}
\begin{equation} \textstyle
\[
\left[p(x_j|x_i)\right]= \begin{pmatrix}
& x_j \rightarrow & & \\
x_i & & A& B \\
\downarrow & A & p(A|A) & p(B|A) \\
& B & p(A|B) & p(B|B)
\end{pmatrix}
\]
\end{equation}
\textbf{Wahrscheinlichkeit des Auftretens eines Zeichenpaares:}
\begin{equation} \textstyle
p(x_j\underbrace{,}_{Paar!}x_i)= p(x_i) \cdot p(x_j|x_i)
\end{equation}
\textbf{Matrix zur Berechnung der Paarwahrscheinlichkeiten:}
\begin{equation} \textstyle
\left[p(x_i,x_j)\right] = \left[p(x_i) \cdot p(x_j|x_i)\right]=
\[
\begin{pmatrix}
p(x_{i1}) \cdot p(x_{j1}|x_{i1}) & p(x_{i1}) \cdot p(x_{j2}|x_{i1}) \\
p(x_{i2}) \cdot p(x_{j1}|x_{i2}) & p(x_{i2}) \cdot p(x_{j2}|x_{i2})
\end{pmatrix}
=\]
\[
\begin{pmatrix}
\sum_{j=1} p(x_i,x_j)= p(x_i) \\
\sum_{i=1} p(x_i,x_j)= p(x_j)
\end{pmatrix}
\]\
\end{equation}
\textbf{Bedingte Entropie einer Quelle:}
\begin{equation} \textstyle
H(Y|X) = E\left\{ld\frac{1}{p(Y_j|X_i)}\right\} = \sum^{N}_{i=1} \sum^{N}_{j=1} p(x_i,y_j) \cdot ld\frac{1}{p(Y_j|X_i)}
\end{equation}
\textbf{Entropie eines Zeichenpaares:}
\begin{equation} \textstyle
H(X,Y) = \sum^{N}_{i=1} \sum^{N}_{j=1} p(x_i,y_j) \cdot ld\frac{1}{p(x_i \cdot y_j)}
\end{equation}
\end{document}
Lesezeichen