Bitte benutzen Sie diese Kennung, um auf die Ressource zu verweisen: http://dx.doi.org/10.18419/opus-3598
Autor(en): Tas, Ilhan
Titel: Wissensbasierte lexikalische Substitution
Sonstige Titel: Knowledge-based lexical substitution
Erscheinungsdatum: 2015
Dokumentart: Abschlussarbeit (Bachelor)
URI: http://nbn-resolving.de/urn:nbn:de:bsz:93-opus-104149
http://elib.uni-stuttgart.de/handle/11682/3615
http://dx.doi.org/10.18419/opus-3598
Zusammenfassung: Lexikalische Mehrdeutigkeit ist eine fundamentale Eigenschaft von Sprachen, in denen viele Wörter mehrere sich von einander unterscheidende Bedeutungen haben. Wohingegen eine Person beim Lesen eines Textes oder in der Führung einer Konversation ihr angeeignetes Wissen beziehungsweise die Lebenserfahrung und den Kontext zu Hilfe nimmt um die richtige Lesart zu bestimmen, sieht dieser Prozess bei einem Rechner anders aus. Für diesen sind Texte nichts anderes als Zeichenketten respektive eine Aneinanderreihung von Buchstaben. Folglich müssen die ambigen Wörter, im Hinblick auf einen maschinellen Umgang mit natürlicher Sprache, aufgelöst und die richtige Lesart bestimmt werden. Lexikalische Mehrdeutigkeit ist ein weitreichendes Problem der maschinellen Verarbeitung natürlicher Sprache und gehört zu den immer mehr an Bedeutung gewinnenden Forschungsgebieten der Computerlinguistik. Lexikalische Substitution ist ein relativ neues Paradigma zur Lösung dieses Problems und wurde von McCarthy und Navigli bei SemEval 2007 eingeführt. Ziel dieser Herangehensweise ist die Generierung und das Ranking von Substitutionskandidaten für ein Zielwort im Hinblick auf ihre Angemessenheit bezüglich des Kontexts, in dem das zu ersetzende Wort erscheint. Dieser Ansatz ist eng verwandt mit der Wortbedeutungsdisambiguierung (engl. Word Sense Disambiguation, kurz WSD). Die drei Hauptansätze in der lexikalischen Substitution lassen sich in die Kategorien überwachte, unüberwachte und wissensbasierte Systeme eingliedern. Diese Arbeit stellt ein wissensbasiertes Modell für ein vokabular-globales Substitutionssystem vor. Grundlage hierfür ist der Lesk-Algorithmus. Mithilfe des Lesk-Algorithmus’ wird ein Ranking für potentielle Substitute aufgestellt und anschließend lexikalische Substitution auf dem CoInCo-Korpus durchgeführt.
Lexical ambiguity is a fundamental characteristic of languages, in which many words have multiple and different meanings. While a person can use his experiences or the context to identify the intendent meaning of an ambiguous word in a text or a conversation, this process still looks different in computers. For computers texts are nothing else than strings respectively a sequence of characters. Hence with regard to a mechanical handling of natural languages, ambiguous words must be disambiguated to find the correct reading in a specific context of use. Lexical ambiguity is a far-reaching problem of natural language processing and is one of increasingly important research areas of computational linguistics. Lexical substitution is a novel approach to deal with ambiguity and was introduced during SemEval 2007 by McCarthy and Navigli. The aim of this approach is the identification and ranking of substitutions for a target word in terms of their appropriateness with regard to the context in which the word to be replaced appears. This task is strongly related to Word Sense Disambiguation (WSD). The three main approaches of lexical substitution can be monitored to the categories supervised, unsupervised and knowledge-based systems. This thesis presents a knowledge-based vocabulary-global substitution system. Based on the Lesk-Algorithm a ranking is done for candidate substitutes and finally lexical substitution is performed on the CoInCo corpus.
Enthalten in den Sammlungen:05 Fakultät Informatik, Elektrotechnik und Informationstechnik

Dateien zu dieser Ressource:
Datei Beschreibung GrößeFormat 
BCLR_0207.pdf861,62 kBAdobe PDFÖffnen/Anzeigen


Alle Ressourcen in diesem Repositorium sind urheberrechtlich geschützt.