Details

Autor: Patrick Grosa
Titel: On the Understanding of Protograph-based Low-Density Parity-Check Convolutional Code Design
Typ: Dissertation
Fachgebiet: Informationstechnik
Reihe: Mobile Nachrichtenübertragung, Nr.: 71
Auflage: 1
Sprache: Englisch
Erscheinungsdatum: 06.01.2015
Lieferstatus: lieferbar
Umfang: 106 Seiten
Bindung: Soft
Preis: 59,00 EUR
ISBN: 9783938860823
Umschlag: (vorn)
Inhaltsverzeichnis: (pdf)


Bestellung

Abstrakt in Englisch

The optimization process of communication systems having an iterative structure somewhere within the transmission, in the particular case studied, it is in the receiver, is a delicate process. The main intention is to match the behavioral peculiarities of individual components in order to achieve a performance gain through their interaction. However, the component-wise optimization with regard to each other mostly pays off when specific prerequisites, which often lead to trade-offs (if the system has to work for various conditions), are met. Hence, system designers are interested in methods that can enable a straight-forward match while covering a broader set of environments.
With the (recent) rise of the so-called Low-Density Parity-Check codes (LDPCC), a very powerful kind of forward error correction codes has entered almost every recent wireless communication standard. Though these codes have widely known benefits, the researcher’s desire for improvement (e. g., reducing gap to capacity, reducing complexity) is without limits. This eventually leads to the application of paradigms, which were previously established for other codes, to LDPCC and the introduction of LDPC Convolutional Codes (LDPCCC).
This thesis tries to tackle the issue of straight-forward matching of a decoder to an equalizer, in a so-called turbo receiver, by the utilization of a particular type of LDPCCC. This kind of code is derived from well-studied structural templates of block code variants, named protographs, through a multi-step derivation process. The steps involved are studied with respect to parameters affecting the code and its performance. As a first step, the basic protograph is unwrapped to a composition graph that reflects the structural distinctiveness of convolutional codes of band parity-check matrix. Here, the syndrome former memory and the termination length are the tunable variables that have behaviors that partially counteracts. Then, an adaptation of the code to the equalizer is feasible, but only within certain limits. The extrinsic information gained for small to medium amounts of a-priori information can be raised by increasing the syndrome former memory, due to the introduction of lower degree nodes that can provide higher reliability. In turn, the enlargement of the composition graph lowers this by installing higher degree nodes between the lower degree nodes at the ends of the graph. Technically speaking, the termination length of the composition graph, which is referred to as the Terminated Convolutional Protograph, increases. However, they help reduce the rate loss induced by the addition of low degree nodes. A recommendation of the parameter set preferred depends on the operating point suggested.
In the next step, the TCPG is lifted to the final code (that are named Protographbased Low-Density Parity-Check Convolutional (PG-LDPCC) codes), where the nodes are duplicated and the edges are permuted. Here, the size of these permutations is important since it, along with the other two variables mentioned before as well, is related to the final block size. Eventually, the system designer has a set of conditions to be satisfied along with and a set of tools for creating codes spanning a design space and has to choose from it. For such a code design challenge, ensemble maps are introduced in order to provide the overview tool at hand.
Furthermore, the opportunity to adapt to certain prerequisites is extended to the study of puncturing methods for the special case of PG-LDPCCCs. Since the derivation process is multi-tiered, puncturing can be applied to different code representations at each stage. In light of this multi-tiered challenge, the error probability distribution over the graph is examined, in particular its fixed point behavior. A modification of extrinsic transfer curve is also feasible by puncturing, but the influence of the puncturing scheme on the transfer curve is also very limited.

Abstrakt in Deutsch

Die Optimierung von Kommunikationssystemen mit rückgekoppelten Funktionseinheiten ist eine komplexe Herausforderung. Die Hauptaufgabe dabei ist es, die besonderen Eigenheiten der Komponenten so aufeinander abzustimmen, dass sie bei ihrer Interaktion einen Leistungsgewinn des Gesamtsystems erzielen. Aber, in den meisten Fällen ist eine derartige Optimierung davon geprägt, dass diese nur für bestimmte Rahmenbedingungen optimal ist, was letztendlich zu Abwägungen führt, falls die Komponenten auch unter verschiedenen Bedingungen arbeiten sollen. Aus diesem Grund sind Systemdesigner sehr interessiert an Möglichkeiten, um diese Abstimmung auf einfache Weise durchzuführen und damit eine größere Bandbreite an Randbedingungen abzudecken.
Obwohl Low-Density Parity Check codes (LDPCC) sehr leistungsfähige Vorwärtsfehlerkorrekturverfahren sind und mittlerweile eine so große Verbreitung gefunden haben, dass sie Teil fast jeden neuen Kommunikationsstandards sind, wurde und wird nach weiteren Verbesserungsmöglichkeiten geforscht. Eine Option der Fortentwicklung nutzt die Anwendung bereits bekannter Paradigma auf diese Art der Fehlerkorrektur was zu den sogenannten LDPC Convolutional Codes (LDPCCC) führte.
In der vorliegenden Arbeit wird das Problem eines iterativen Empfängers angegangen, der einen Dekoder unter Benutzung von Low-Density Parity-Check Convolutional Code (LDPCCC) auf einfache Art und Weise an einen Entzerrer anpasst. Da beide Komponenten auf Empfängerseite iterativ rückgekoppelt zu finden sind, wird dies auch als Turbo Empfänger bezeichnet. Dabei werden die verwendeten Codes von gut untersuchten strukturellen Vorlagen, genannt Protographen, in einem mehrstufigen Verfahren abgeleitet und die einzelen Schritte werden hinsichtlich der zur Verfügung stehenden Parameter und der daraus resultierenden Leistungsfähigkeit untersucht. Im ersten Schritt, wird der Ausgangsgraph vervielfacht und neu neusortiert zu einer Anordnung, welche die Faltungsstruktur der Paritätsmatrix verdeutlicht. In diesem Schritt sind die syndrombeeinflussende Gedächtnislänge und die Terminierungslänge von großer Bedeutung und zeigen teilweise entgegenarbeitende Verhaltensweisen. An dieser Stelle ist eine Anpassung zum Entzerrer möglich, jedoch nur begrenzt. Die extrinsische Information, die mittels kleiner bis mittlerer a-priori Information gewonnen werden kann, vergrößert sich mit steigender syndrombeeinflussender Gedächtnislänge durch die Einführung von niedrigen Knotengraden, die eine höhere Zuverlässigkeit bereitstellen können. Im Gegensatz dazu wird dieser Gewinn durch Vergrößerung des Graphen, der Terminierter Faltungsprotograph (TFPG) genannt wird, durch eine steigende Terminierungslänge, mit der höhergradige Knoten zwischen den Enden eingeführt wird, reduziert. Allerdings wird damit auch der Ratenverlust veringert, der durch die niedrigen Knotengrade induziert wird. Eine generelle Empfehlung ist daher nicht möglich und hängt vom Arbeitspunkt ab.
In einem nächsten Schritt wird der TFPG zum finalen Kode erhoben, wobei wiederum Knoten dupliziert und Kanten permutiert werden. Hierbei spielt die Permutationsgröße eine entscheidende Rolle, da diese, genauso wie die bereits erwähnten Parameter, die letztendliche Blockgröße beeinflussen. Schlussendlich muss der System Designer die gegebenen Rahmenbedingungen auf den Designraum der Codes abbilden und aus diesem wählen, oder durch einen Algorithmus für unterschiedliche Bedingungen wählen lassen. Zu diesem Zweck werden dem Designer sogenannte Code Ensemble Maps an die Hand gegeben.
Zudem wird die Möglichkeit der Punktierung von PG-LDPCCC untersucht um diese für spezifische Randbedinungen anzupassen. Diese Punkturierung kann dabei auf unterschiedlichen Ebenen des Herleitungsprozesses angewendet werden. Zu diesem Zweck werden Fehlerverteilungen über den Graphen hinweg, im Speziellen sein sogenanntes Fixpunktverhalten, untersucht. Auch hier ist eine Anpassung der extrinsischen Transferkurve möglich, aber auch diese besitzt nur eine eingeschränkter Wirkung.