Freut mich, dass doch noch jemand antwortet :)
Ich versuche auf die Punkte, die du angesprochen hast einzugehen. (Dabei möchte ich allerdings darauf hinweisen, dass das im Wesentlichen auf eigener Lektüre beruht; NSM kam in meinem Studium bislang nicht vor. Tatsächlich stoße ich hin und wieder auf Dinge, die ich falsch verstanden hatte, bzw. bei denen offensichtlich Uneigkeit zwischen verschiedenen Autoren herrscht. Es ist also nicht ausgeschlossen, dass ich Unsinn erzähle...)
(04.04.2013, 13:47:44)kunnukun schrieb: Bin eben dem Link zu NSM gefolgt. Erinnert das nicht sehr an das Projekt 'Generative Semantik' u. a. von McCawley und dem frühen Lakoff?
Beide Ansätze sind - soweit ich weiß - Ende der 1960er Jahre entstanden. Die generative Semantik in den USA als Reaktion auf die Rolle der Semantik in der generativen Grammatik, während der Grundgedanke zu NSM wohl von
Bogusławski stammt, der seinerseits eine Idee von Leibniz empirisch überprüfen wollte; das wurde von Anna Wierzbicka weiter entwickelt. Ansonsten würde ich sagen, dass ein Unterschied (wobei ich die generative Semantik zugebenermaßen nur aus der "linguistischen Geschichtsschreibung" (linguistic wars und so) kenne) vielleicht die eingenommene Perspektive ist: die Arbeit von Wierzbicka bzw. innerhalb des NSM Frameworks (wenn man das so nennen will) dreht sich stark um Fragestellungen des Zusammenhangs zwischen Sprache und Kultur, interkulturelle Kommunikation etc.; daher hatte ich das auch im Thread zur sprachlichen Relativität erwähnt. In einem Artikel, der auch mal in einem meiner Pragmatikkurse besprochen wurde (
Different cultures, different languages, different speech acts: Polish vs. English) geht es (meiner Meinung nach relativ aufgeregt) z.B. um so Fragen wie die Vergleichbarkeit von Sprechakten und die Verwendung von bestimmten sprachlichen Mitteln (Imperative), was in ein kulturelles Erklärungsmuster eingebettet wird, und evtl. ein bisschen als kennzeichnend für diesen Ansatz gelten kann (ebenso wie "Ethnozentrismusvorwürfe" ...)
(04.04.2013, 13:47:44)kunnukun schrieb: Lakoff einst: 'kill' - 'verursachen, dass ... stirbt'. daher 'verursachen' eine Art 'semantic prime' bzgl. 'kill' ?
'Kill' wird in NSM so expliziert:
Someone X killed someone Y:
someone X did something to someone else Y
because of this, something happened to Y at the same time
because of this, something happened to Y's body
because of this, after this Y was not living anymore
(Goddard 2010:465)
Das ist relativ "verbose" verglichen mit einer ad-hoc gebildeten Repräsentation wie
cause( X, die(Y)) / cause( X, become(Y, dead(Y) ) ) oder stärker formalisiert, wie man das in der semantischen Darstellung in RRG findet.
Allerdings verwenden solche Darstellungen eine künstliche Beschreibungssprache, während - wie der Name schon andeutet - in ersterem natürliche Sprache dazu verwendet wird; die Metasprache ist zugleich eine Variante der Objektsprache (wobei Explikationen grundsätzlich in alle Sprachen, für die eine NSM ausgearbeitet wurde übersetzbar sind). Ein wesentliches Ziel ist abzubilden, wie Sprecher der jeweiligen Sprache das "Explikandum" konzeptualisieren, und das auf eine Weise, die für sie selbst intuitiv verständlich ist. Insbesondere in den Texten, die sich mit pragmatischen Themen innerhalb von NSM befassen finden sich relativ Häufig so Aussagen, dass beispielsweise die Grice'schen Konversationsmaximen oder die Höflichkeitskonzeption von Brown/Levinson eben nicht universell, sondern ethnozentrisch und (etwas polemisch formuliert) das Produkt westlicher Gelehrter seien, ebenso wie auch solche formalen Repräsentationen, die eben keine emische Perspektive abbilden würden.
(04.04.2013, 13:47:44)kunnukun schrieb: Der Gedanke semantischer 'Primes' findet sich ja auch in der alten Komponentenanalyse. Klingt nach erstem Eindruck jedenfalls nicht völlig neu, doch mag mir allein von http://www.griffith.edu.au her der Knackpunkt noch nicht klar geworden sein.
Für semantische Primitiva gelten in NSM zwei Bedingungen: sie werden als universell angenommen (Wierzbicka sagt im oben angeführten Radiobeitrag ja sogar, sie wären angeboren; andere Autoren halten sich da bedeckter) und sie werden in allen Sprachen als lexikalische Einheiten realisiert, treten etwas vereinfacht ausgedrückt also als Wörter im weiteren Sinne auf ("Strong Lexicalisation Hypothesis"). Zumindest das Zweite ist bei der Komponentenanalyse, wo es eher um abstrakte Merkmale resp. Komponenten geht ja nicht so, oder? Ansonsten lässt sich hier auch wieder Saussures Zeichenmodell anwenden: es existiert eine Menge von abstrakten Konzepten ("semantic primes"), für die sich jeweils die Repräsentanten in einer Sprache (sog. "Exponenten") angeben lassen; dabei wird allerdings nicht ausgeschlossen, dass die jeweiligen Exponenten neben dieser noch weitere, je Sprache verschiedene Bedeutungen haben können, also polysem sind.
In der NSM-Literatur habe ich zwei wesentliche Argumentationslinien für die semantischen Primitiva gefunden:
Begriffe werden in NSM durch Paraphrase ("reductive paraphrase") definiert. Wenn man Zirkularität vermeiden will, ist die Annahme solcher "semantischer Sackgassen", die nicht weiter definierbar sind, recht naheliegend. Leider bin ich (sprach)philosophisch nicht so bewandert, aber wenn ich das richtig verstanden habe, ist das ja keine sonderlich neue Einsicht; expliziert erwähnt werden Leibniz, Descartes, Arnauld und andere Philosophen des 17. Jahrhunderts (auf die sich so weit ich weiß ja auch Chomsky bezieht). Gäbe es denn eine andere Lösung für dieses Problem? Oder wäre vielleicht die Definition von Wörtern, in dem man sie durch andere ersetzt an sich schon problematisch? Ich glaube, schon in dem Radiointerview sagt sie, dass sie sich diese "Semantic Primes" nicht einfach nur ausgedacht, sondern per Trial & Error empirisch mit Muttersprachlern überprüft hätte. Ich hatte überlegt, wie man diese Primes experimentell z.B. in einem EEG-Experiment untersuchen könnte; eine wirkliche Idee hatte ich bisher aber noch nicht, weil die meisten sehr abstrakte Konzepte abbilden. Die "semantic primes" sind also vielleicht nicht falisizierbar im eigenlichen Sinne.
Die zweite Argumentationslinie bezieht sich eher auf die Sapir-Whorf-Hypothese. In der NSM Literatur habe ich relativ stark die Meinung rausgelesen, dass Sprache und Kultur zusammen zu verstehen seien, und zwar aus einer kulturinternen Perspektive, was zunächst zu einem Paradoxon führt, weil jeder Teil einer Kultur ist, und damit jede Betrachtung verzerrt ist. Wenn man allerdings annimmt, dass es eine geringe Zahl universeller Konzepte gibt, die in allen Sprachen lexikalisiert sind und universelle Kombinationsregeln aufweisen, hat man eine Art Minisprache, von der angenommen wird, dass sie für alle gleich ist, und die daher als Beschreibungssprache dienen kann.
Zu diesen Explikationen ist evtl. noch zu sagen, dass von ihnen angenommen wird, dass sie auch Implikationen, prototypische Verwendungen und so was erfassen (wobei sich mir da die theoretische Frage stellt, inwiefern das überhaupt möglich ist). Wenn man sagt, dass Semantik die Bedeutung an sich und Pragmatik die Bedeutung im Gebrauchskontext betrifft, würde ich sagen, dass in der Argumentation in der NSM-Theorie kein Unterschied mehr zwischen Semantik und Pragmatik besteht, allerdings bin ich mir nicht sicher, ob das geteilt wird.
Ansonsten sind die semantic primes zwar recht auffällig, aber nicht das einzige Merkmale von NSM: einfache Konzepte sind z.B. Allolexie (mehrere Exponenten für ein Primitivum) und Portmanteaus (Exponenten, die vollständig auf zwei oder mehrere Primes zurückführbar sind, etwa 'can't' für can not). Etwas elaborierter sind dann semantische Moleküle: es gibt einmal Explikationen, die nur aus Semantic Primes bestehen, und es gibt welche, die auf andere zurückgreifen. Ich hatte das eigentlich so verstanden, dass man bei den Primes davon ausgeht, dass sie universell sind, während man bei den Molekülen kognitive Signifikanz/Salienz annimmt, aber die Frage nach der Universalität offen lässt; in dem Radiobeitrag sagt Wierzbicka aber, dass beide universell sind, die einen aufgrund von Angeborenheit, die anderen aufgrund ähnlicher Kongnition/Wahrhnehmung. Spannend finde ich dabei, dass auf diese Weise Netzwerke von Konzepten entstehen. Außerdem kann man den Aufbau von Explikationen analysieren. Jeder Zeile kommt eine bestimmte Funktion zu, einzelne können auch in anderen auftreten, aber die spezifische Konstellation ist kennzeichnend für ein bestimmtes Konzept. Dadurch können dann z.B. Verbklassen differenziert werden, wo dann z.B. das Konzept der semantic templates ins Spiel kommt.
In meiner Hausarbeit hatte ich mich – weils für einen Pragmatikkurs war – für Cultural Scripts interessiert; dabei wird NSM dafür verwendet, quasi kulturelle Normen usw. mit Hilfe von NSM zu formulieren ("Ethnopragmatics").
Mein Eindruck ist ein bisschen, dass NSM an sich quasi eine Sprachtheorie ist, die von der Bedeutung her kommt (anders als z.B. eben frühe strukturalistische Ansätze) aber z.B. auch Grammatik/Syntax mit einbezieht (zuletzt "Ethnosyntax")
Gar nicht so leicht, das alles auf den Punkt zu bringen, ohne die Aspekte auszulassen, die sofort zu nachfragen führen würden. Aber vielleicht ist es ja doch irgendwie interessant :) Habe leider auch nicht die gesamte Literatur dazu rezipieren können und bestimmt auch einiges vergessen; insbesondere Frau Wierzbicka hat ja ein recht umfangreiches Gesamtwerk vorzuweisen. Über Kommentare oder Berichtigungen würde ich mich freuen.
Goddard, Cliff 2010. „The Natural Semantic Metalanguage approach“. In: Heine, Bernd + Heiko Narrog.
The Oxford Handbook of
Linguistic Analysis. Oxford: Oxford University Press, S. 459–484.
(Auch Online:
http://www.griffith.edu.au/__data/assets...k_Ch18.pdf)