Czym jest semantyka w prostych słowach? Kryłowa M.N. Analiza funkcjonalno-semantyczna jako podstawa systematycznego badania jednostek językowych

Subskrybuj
Dołącz do społeczności koon.ru!
W kontakcie z:

Semantyka to słowo, które weszło do naszego języka z języka greckiego, gdzie jego znaczenie było „znaczące”. W filologii po raz pierwszy zastosował go we Francji M. Breal, który zajmował się nie tylko rozwojem języka, ale także historią. Wielu językoznawców potrafi powiedzieć, czym jest semantyka. Termin ten jest zwykle rozumiany jako taka nauka, która poświęcona jest znaczeniu słowa, mnogości liter i zdań.

A jeśli będzie jaśniej?

Najbardziej ogólne znaczenie tego terminu (co zwykle ma na myśli) można wyjaśnić jako „semantykę leksykalną”. Zajmuje się znaczącym ładunkiem poszczególnych słów. Ale językoznawcy, którzy badają alfabety zachowane od starożytności, wiedzą, jaki jest ładunek semantyczny poszczególnych liter. Niektórzy eksperci zajmują się tekstami, frazami, pełnymi zdaniami. Obszar ten jest kolejnym obszarem zastosowania semantycznego podejścia naukowego.

Analizując, czym jest semantyka, należy wspomnieć o związkach z innymi dyscyplinami. W szczególności bliskie powiązania z:

  • logika
  • filozofia językowa;
  • teorie komunikacji;
  • antropologia (język, symbole);
  • semiologia.

Rozważając naukę bardziej szczegółowo, konieczne jest natychmiastowe sformułowanie przedmiotu, który eksploruje: pola semantycznego. Jest to taki kompleks terminów, dla których charakterystyczny jest pewien wspólny czynnik.

Przedmiot studiów

Jeśli zapytasz filologa, czym jest semantyka, specjalista odpowie: tym terminem określa się naukę, która zajmuje się nie tylko znaczącym ładunkiem słów, ale także filozoficznymi aspektami językowymi. Ponadto dyscyplina obejmuje również języki używane przez programistów, logikę formalną i semiotykę. Za pomocą narzędzi wypracowanych w semantyce możliwa jest efektywna analiza tekstu. Dzięki tej nauce możliwe jest wyodrębnienie korelacji fraz, słów, symboli, relacji ze znaczeniami.

Opisane znaczenie jest jednak tylko ogólnym wyobrażeniem o tym, czym jest semantyka. W rzeczywistości koncepcja jest teraz znacznie szersza. Ma zastosowanie do niektórych wyspecjalizowanych filozofii, a nawet w ramach jednego z podejść, które wzywają ludzi do zmiany postawy wobec świata, odejścia od „kultury konsumenckiej”. Problem ten stał się bardzo istotny w ostatnich latach, a jedno z jego rozwiązań nazwano „ogólną semantyką”. Nie trzeba dodawać, że ma wielu fanów.

Zrozumienie istoty

Tak się złożyło, że semantyka języka jest nauką, dla której problem rozumienia jest bardzo istotny. Mówiąc najprościej, laik może z łatwością powiedzieć, czym zajmuje się matematyka czy fizyka, ale nie każdy szybko odnajdzie się na polu badań semantycznych. Co zaskakujące, nie tyle lingwiści, co psychologowie postawili sobie za zadanie sformułowanie zrozumienia istoty semantyki. Równocześnie interpretacja symboli, znaków jest zagadnieniem właściwym wyłącznie językoznawstwu, a nie żadnej innej nauce. Znaczenia poszukuje się biorąc pod uwagę środowisko, w którym przedmioty zostały użyte: specyfikę społeczności, kontekst, okoliczności.

Semantyka lingwistyczna zwraca szczególną uwagę na mimikę twarzy, ruchy ciała, dźwięki jako sposoby przekazywania informacji. Wszystko to tworzy sensowny kontekst. W przypadku języka pisanego rolę takich czynników strukturalnych odgrywają akapity i znaki interpunkcyjne. Ogólnym terminem dla tego obszaru informacji jest kontekst semantyczny. Działalność analityczna w dziedzinie semantyki jest ściśle powiązana z szeregiem pokrewnych dyscyplin zajmujących się słownictwem, etymologią symboli i słów, zasadami ortografii i wymowy. Nauka wiąże się także z pragmatykami.

Cechy nauki

Semantyka języka dotyczy ściśle określonych zagadnień, charakteryzuje się określonym obszarem wiedzy. Właściwości tej dyscypliny często pozwalają scharakteryzować ją jako syntetyczną. Rozważany obszar jest ściśle związany z filozofią lingwistyczną, ma związek z filologią, semiotyką. Jednocześnie występuje ostry kontrast z regułami składniowymi, kombinatoryką, która nie zwraca uwagi na ładunek semantyczny użytych symboli i znaków.

Cechą semantyki jest obecność istotnych powiązań z reprezentatywnymi teoriami semantycznymi, w tym z tymi, które dotyczą relacji, korespondencji i prawdy znaczenia. Nie jest już tylko nauką o języku, ale dyscypliną filozoficzną, która skupia się na rzeczywistości i jej odzwierciedleniu poprzez możliwości języka.

Językoznawstwo

Nauka ta jest jednym z dodatkowych obszarów wchodzących w skład ogólnego drzewa semantyki jako dyscypliny badawczej. Przedmiotem uwagi tej sfery semantyki jest słownictwo. Językoznawstwo zajmuje się ładunkiem semantycznym charakterystycznym dla poziomów słownictwa, zdań i fraz. Podobnie językoznawstwo analizuje większe obiekty – teksty, rozbudowane narracje.

Studiując językoznawstwo i semantykę, konieczne jest jasne zrozumienie bliskich relacji między podmiotami. W przypadku językoznawstwa ważne stają się odsyłacze i stosowane oznaczenia. Osobliwością tego kierunku jest badanie relacji tkwiących w jednostkach językoznawstwa. Podobnie jak semantyka zdania, językoznawstwo zwraca szczególną uwagę na frazy, jednak w nieco inny sposób. Tutaj badacze skupiają się na homonimach, anonimach, synonimach, paronimach, metronomach. Zadaniem, jakie przed nimi stoją, jest zrozumienie dość dużych elementów tekstu, ułożenie ich z małych i maksymalne rozszerzenie ładunku semantycznego.

gramatyka montagowska

Autorem tej struktury semantyki był Richard Montagu. Po raz pierwszy wyraził swoje teorie w 1960 roku. Pomysł polegał na zorganizowaniu definicji w taki sposób, aby wykorzystywała terminologię rachunku lambda. Zademonstrowane przez niego materiały dobitnie dowiodły, że sens tkwiący w tekście można rozłożyć na części, elementy, stosując reguły łączenia. Zwrócono również uwagę na względną rzadkość takich przepisów.

W tym czasie po raz pierwszy użyto terminu „atom semantyczny”. Jego rozumienie, a także praca z prymitywami, stanowiły w latach siedemdziesiątych podstawę semantyki pytań. W ten sposób zaczęła się rozwijać hipoteza myślowa. A dzisiaj wielu uznaje, że gramatyka Montagu była wyjątkowo dobrze proporcjonalnym, logicznym wynalazkiem. Niestety, odmienność od semantyki mowy stanowiła wyraźna zmienność uwarunkowana kontekstem. Język, jak wierzył Montagu, nie był tylko systemem etykiet przypisywanych przedmiotom i zjawiskom, ale zestawem narzędzi. Zwrócił uwagę na to, że znaczenie każdego z tych narzędzi nie jest związane z konkretnymi obiektami, ale ze specyfiką funkcjonowania.

A co z przykładami?

Semantyka w odczytaniu Montagu jest dobrze zilustrowana w następujący sposób. Filologom znane jest pojęcie „niepewności semantycznej”. Jest to sytuacja, w której przy braku kilku części kontekstu nie można określić dokładnego znaczenia przedmiotu (słowa, frazy). Co więcej, nie ma takich słów, których identyfikacja byłaby całkowicie możliwa i poprawna przy braku środowiska.

Semantyka formalna

Pomysł ten został sformułowany jako udoskonalenie postulatów Montagu. Należy do ujęć teoretycznych wysoce sformalizowanych i pracuje z językami naturalnymi. Za pomocą tej metody można również analizować rosyjską semantykę. Osobliwością jest przypisywanie wartości różnym jednostkom: prawdzie, zależności funkcjonalnej, indywidualności. Dla każdej jednostki ujawnia się prawda, stosunek w aspektach logiki do innych zdań. Wszystko to pozwala uzyskać wystarczającą ilość informacji do analizy tekstu jako całości.

Prawdziwa semantyka warunkowa

Autorem tej teorii był Donald Davidson. Teoria należy do wielu sformalizowanych. Główną ideą jest określenie powiązań między zdaniami. Podejście to obejmuje pracę z językami naturalnymi. Semantyka słowa, zdania, tekstu zobowiązuje do poszukiwania i opisywania takich warunków, w których jakiś przedmiot badań staje się prawdziwy.

Na przykład tylko w sytuacji, gdy śnieg jest biały, wyrażenie „śnieg jest biały” będzie prawdziwe. To znaczy w istocie zadaniem filologa jest ustalenie, w jakich warunkach znaczenie wyrażenia staje się prawdziwe. W semantyce słowa z góry określony jest zestaw wartości wybranych na podstawie konkretnego obiektu oraz zestaw reguł, który pozwala na ich łączenie. Praktycznym zastosowaniem tej metody jest tworzenie abstrakcyjnych modeli, jednocześnie istotą podejścia jest określenie korespondencji między wyrażeniami a rzeczywistymi rzeczami i zdarzeniami, a nie abstrakcyjnymi wynikami modelowania.

Sztuczna semantyka

Pod tym pojęciem powszechnie rozumie się takie frazy, słowa, na podstawie których tworzona jest użyteczna treść. Zadaniem językoznawcy jest skomponowanie rdzenia semantycznego, który przyciągnie uwagę czytelnika. Termin ten jest obecnie najbardziej aktualny w odniesieniu do nowoczesnych technologii, w szczególności Internetu. Aby zwiększyć frekwencję na stronie wirtualnej, ważne jest ukształtowanie jej treści tekstowej w taki sposób, aby zawierały klucze, które mogą zainteresować użytkownika. Sztuczna semantyka jest obecnie szeroko stosowana w celach reklamowych.

Informatyka proponuje interpretować semantykę jako sekcję, która zajmuje się znaczeniem konstrukcji tkwiących w języku. Jest to do pewnego stopnia przeciwieństwo składni, której zakresem jest forma wyrażania konstruktów. Semantyka to zbiór reguł interpretacji składni. Jednocześnie wartości są ustalane pośrednio, możliwości zrozumienia deklarowanych słów i symboli są jedynie ograniczone. Zwyczajowo mówi się o semantyce jako relacjach, właściwościach, które dają formalną ideę przedmiotu. Stosowane jest podejście logiczne, na podstawie którego budowane są modele i teorie na podstawie interpretacji otrzymanych informacji.

Semantyka jako metoda promocji projektu

Stosując podstawowe zasady semantyki, specjalista może opracować taki rdzeń, który następnie będzie podstawą do powstania programu SEO. Rdzeń semantyczny to lista zapytań, które odbiorcy mogą wprowadzić w wirtualnym systemie wyszukiwania w celu zapoznania się z potrzebnymi im usługami i towarami. Aby poprawnie uformować taki rdzeń, musisz wyobrazić sobie, czego potrzebuje klient, przed jakimi celami stoi.

Ustalenie potrzeb grupy docelowej najczęściej wiąże się z przeprowadzeniem wywiadu lub krótkiej ankiety. Przy odpowiednim podejściu do tego zadania możliwe jest sformułowanie z dużą dokładnością tego, czego potrzebuje użytkownik.

Rdzeń semantyczny: cechy

Aby poprawnie uformować ten podstawowy obiekt do promocji projektu, musisz najpierw zrozumieć naturę żądań użytkowników. Dzielą się one na cztery główne kategorie:

  • Informacja;
  • transakcje;
  • nawigacja;
  • ogólne prośby.

Zapytania wyszukiwania informacji

Osoby te pytają wyszukiwarkę, czy mają problem do rozwiązania. System wystawia listę witryn, które mniej więcej odpowiadają danej, po czym klient zaczyna przeglądać strony z górnej listy wyników, badając wyniki pod kątem trafności. Osoba zatrzymuje się, gdy możliwe jest znalezienie niezbędnych danych.

Najczęściej prośby o informacje rozpoczynają się słowem pytającym, choć często uciekają się do ekspresji myśli, która jest stosunkowo nieoczywista dla języka maszynowego - proszą o pomoc lub radę, informację zwrotną lub zasady (instrukcje). Jeżeli właściciel zasobu wie, które zapytania najczęściej prowadzą użytkownika do niego (lub może prowadzić), konieczne jest utworzenie rdzenia semantycznego dla każdej strony, uwzględniającego te informacje. Jeśli projekt ma charakter niekomercyjny, to właśnie zapytania o informacje generują prawie cały ruch. Aby zarabiać na witrynie, możesz skorzystać z reklamy kontekstowej lub innych podobnych funkcji.

Nawigacja i transakcje

Nawigacyjne - są to zapytania, które dają jasny opis wirtualnej strony. To dzięki nim w przyszłości dokonają się przemiany.

Transakcje, według wielu ekspertów SEO, to najciekawsza kategoria ze wszystkich możliwych żądań. Dzięki nim możesz zorientować się, do jakich celów klient poszukuje witryny. Jedni potrzebują materiałów do przejrzenia, inni pobierają pliki, jeszcze inni dokonują zakupów. Znając cechy zapytań transakcyjnych, możesz zbudować własny biznes w Internecie. Nawiasem mówiąc, jakiś czas temu to za ich pośrednictwem rozwinęło się prawie wszystko, co oferowało usługi, strony internetowe, sklepy wirtualne.

Cecha pytania

Nie wszystko jest takie proste i proste. Zapytania, które może zidentyfikować specjalista SEO, tworzące rdzeń semantyczny, są używane przez wszystkich konkurentów. Z jednej strony ich zastosowanie nie może zagwarantować sukcesu programu promocyjnego – rywali jest zbyt wielu. Jednocześnie ich brak sprawia, że ​​program rozwoju strony jest prawie niemożliwy. Stosując konkurencyjne zapytania, możesz skutecznie przyciągnąć odbiorców na promowaną stronę. Jeśli promocja ma opierać się właśnie na takich zapytaniach, konieczne jest kontrolowanie, czy użytkownik, raz na stronie, może dokonać odpowiedniej transakcji.

Nie każdy jest pewien, czy warto skorzystać z tego typu zapytania, jeśli strona promowana jest nie o charakterze komercyjnym, ale informacyjnym. Eksperci zapewniają, że jest to absolutnie słuszna decyzja. W takim przypadku konieczne jest zapewnienie użytkownikowi możliwości wykonywania czynności na stronie. Najprostszą opcją jest reklama kontekstowa dopasowana do treści, program partnerski.

Ogólne prośby

Są to takie sformułowania, z których trudno zrozumieć, czego dokładnie szuka użytkownik. Na przykład może to być „silnik samochodowy” lub „pędzel do różu”. Z jakiego powodu użytkownik szuka informacji, tylko z samego żądania nie jest wcale jasne. Jednego interesuje to, jak przedmiot jest ułożony i z czego jest wykonany, inny szuka okazji do zakupu, a trzeci przegląda ofertę na rynku. Być może użytkownik chce znaleźć instrukcję wykonania przedmiotu lub wykonania pracy na własną rękę, ale inna osoba jest zainteresowana zamówieniem usługi - na przykład tapetowaniem pokoju. Konieczne jest uwzględnienie typowych próśb przy tworzeniu kontekstowego rdzenia, ale nie należy kłaść na nie szczególnego nacisku, jeśli projekt nie jest poświęcony np. wszystkim możliwym rodzajom pędzli do różu lub tapety i wszystkim z tym związanym, od kwestii produkcyjnych po zasady barwienia.

Częstotliwość: rywalizacja na każdym kroku!

Charakterystyka częstotliwości jest jedną z kluczowych przy wyborze odpowiedniej zawartości rdzenia semantycznego. W ogólnym przypadku wszystkie zapytania są podzielone na trzy duże grupy, natomiast niska częstotliwość obejmuje mniej niż dwieście razy w miesiącu w wyszukiwarce, Wysoka częstotliwość pytania zadawane ponad tysiąc razy są dodawane, a średni poziom to wszystko pomiędzy wskazanymi granicami.

Wartości te są ogólne, dla każdego konkretnego obszaru będą unikalne, liczby znacznie się różnią. Aby poprawnie uformować rdzeń semantyczny, trzeba nie tylko znać wskaźniki wyszukiwarki dla zapytań, które mają zostać uwzględnione, ale także reprezentować hierarchiczną strukturę tworzonej witryny, wypracować wewnętrzną optymalizację. Eksperci uznają Yandex.Wordstat za jedno z najbardziej przydatnych nowoczesnych narzędzi do tworzenia rdzenia semantycznego. Pomaga określić częstotliwość zapytań, na podstawie których można sporządzić rozszerzoną listę i pozbyć się zbędnych, pustych żądań. Aby stworzyć strukturę, zaleca się wykonanie co najmniej trzech cykli pracy z listą zapytań przy wykorzystaniu możliwości Yandex.Wordstat.

Słowo - główna jednostka strukturalna i semantyczna języka, służąca do nazywania przedmiotów i ich właściwości, zjawisk, relacji rzeczywistości, posiadająca zestaw cech semantycznych, fonetycznych i gramatycznych właściwych dla każdego języka. W słowie wyróżnia się następujące struktury: fonetyczną (zorganizowany zbiór zjawisk dźwiękowych tworzących powłokę dźwiękową słowa), morfologiczną (zbiór morfemów), semantyczną (zbiór znaczeń słów).

Semantyczna (semantyczna) struktura wyrazu - uporządkowany zbiór powiązanych ze sobą elementów, tworzących pewien uogólniony model, w którym warianty leksykalno-semantyczne przeciwstawiają się sobie i charakteryzują się względem siebie.

Wariant leksyko-semantyczny (LSV) - jednostka dwustronna, której stroną formalną jest forma dźwiękowa słowa, a stroną treściową jest jedno ze znaczeń tego słowa.

Słowa, które mają tylko jedno znaczenie, są reprezentowane w języku przez jeden wariant leksykalno-semantyczny, wyrazy wieloznaczne - przez liczbę wariantów leksykalno-semantycznych odpowiadającą liczbie różnych jego znaczeń.

Analiza znaczenia słowa pokazuje, że zwykle słowa mają więcej niż jedno znaczenie. Słowa, które mają jedno znaczenie, tj. monosemantyczny , relatywnie kilka. Należą do nich zwykle terminy naukowe, takie jak: wodór, cząsteczka. Większość angielskich słów to słowa wieloznaczne. Im częściej słowo jest używane, tym więcej ma znaczeń. Na przykład słowo Tabela ma co najmniej 9 znaczeń we współczesnym angielskim: 1) a kawałek z meble; 2) ten osoby siedzący w ten Tabela; 3) śpiewać. Jedzenie na stole, posiłki; 4) cienki płaski kawałek kamienia, metalu, drewna itp.; 5)pl. płyty kamienne; 6) słowa wycięte w nich lub napisane na nich (dziesięć tabel)dziesięć przykazania); 7) uporządkowany układ faktów, liczb itp.; 8) część obrabiarki, na której mają być prowadzone prace; 9) poziom, płaskowyż. Nazywa się słowa, które mają wiele znaczeń polisemantyczny . Wynika z tego, że pojęcie struktury semantycznej ma zastosowanie tylko do słów polisemantycznych, ponieważ struktura semantyczna jest w rzeczywistości strukturą LSW, a jeśli słowo ma tylko jedno LSW, to nie może mieć struktury LSW.

Struktura semantyczna wyrazu obejmuje zbiór wariantów leksykalno-semantycznych, zorganizowanych w określony sposób i tworzących uporządkowany zbiór, hierarchię. Istnieją różne klasyfikacje, które odzwierciedlają różnicę w podejściu do semantycznej struktury słowa i hierarchicznych relacji jego elementów.

Aplikowanie podejście synchroniczne w badaniu struktury semantycznej słowa można wyróżnić następujące główne typy znaczeń:

    główne znaczenie słowa , który ujawnia największą fiksację paradygmatyczną i względną niezależność od kontekstu;

    wartości prywatne (wtórne, pochodne) , które, przeciwnie, wykazują największą fiksację syntagmatyczną i nie są w zauważalny sposób uwarunkowane relacjami paradygmatycznymi;

    znaczenie mianownika , który jest bezpośrednio ukierunkowany na przedmioty, zjawiska, działania i właściwości rzeczywistości;

    znaczenie wywodzące się z mianownika , który jest w stosunku do niego drugorzędny. Na przykład w słowie ręka znaczenie 'końcowa część ramienia ludzkiego poza nadgarstkiem' (podaj rękę) jest mianownikiem, natomiast znaczenia 'rzecz jak ręka' (wskazówka godzinowa, wskazówka minutowa), 'pracownik pracujący rękami' (fabryka przejęła dwieście dodatkowych rąk) są derywatami mianownikowymi;

    bezpośrednie (wewnętrzne) znaczenie , bezpośrednio związane z przedmiotami i zjawiskami rzeczywistości materialnej, może się ujawnić przy zapoznawaniu się z samymi rzeczywistościami, a te ostatnie działają w związku z tym jako nieodzowny warunek i obiektywne kryterium określania objętości semantycznej wyrazu;

    figuratywny (metaforyczny, figuratywny, figuratywny) , które słowo nabywa w wyniku świadomego jego użycia w mowie do oznaczenia przedmiotu, który nie jest jego zwykłym lub naturalnym desygnatem. Wartości przenośne są tworzone z bezpośredniego znaczenia zgodnie z pewnymi modelami wyprowadzania semantycznego i realizują się tylko w określonych warunkach kontekstowych. Nie tylko nazywają obiekt lub zjawisko, ale także charakteryzują go na podstawie podobieństwa z innym obiektem lub zjawiskiem. Semantyczna struktura czasownika umrzeć obejmuje następujące LSV: 1. przestają żyć, wygasają (bezpośrednie znaczenie); 2. stracić siły witalne, stać się słabym, omdlewanym (umiera nadzieja/zainteresowanie; hałas/rozmowa umrze); 3. być zapomnianym, zagubionym (Jego sława nigdy nie umrze); 4. gnicie (kwiaty/rośliny giną). Wartości 2, 3, 4 są przenośne.

Znaczenie jest przenośne 'czas' słowa 'piasek': Piaski się kończą; oznaczający 'wygrać' jednym słowem 'grunt': Wylądowała bogatego męża; Zdobył pierwszą nagrodę.

    Zgodnie z przedmiotami nazewnictwa i celu społecznego znaczenia dzieli się na konceptualne i stylistyczne. konceptualistyczny takie znaczenia leksykalne nazywa się , w której orientacja podmiotowo-pojęciowa prowadzi i definiuje; stylistyczny (kulturowo-historyczne) to te znaczenia, w których funkcja nazywania i oznaczania przedmiotów i pojęć łączy się z funkcją charakteryzowania samych słów.

    Wśród pojęciowych znaczeń leksykalnych znajdują się: abstrakcyjny wartości np. świadek - 1. dowody, zeznania; oraz konkretny , np. świadek - 2. osoba, która ma wiedzę o zdarzeniu z pierwszej ręki i jest gotowa ją opisać; 3. osoba składająca zeznania pod przysięgą w sądzie; 4. osoba, która składa swój podpis na dokumencie; rzeczowniki pospolite oraz własny mianownikowy oraz zaimek (zaimki). wyróżniać się specjalny znaczeń związanych z terminami i profesjonalizmami.

    Znaczenia stylistyczne rozpoznawane są znaczenia słów należących do różnych warstw stylistycznych słownictwo język i obszary zastosowań. Archaizmy i neologizmy, dialektyzmy i egzotyki również mają znaczenie stylistyczne i nie tylko słowa, ale także poszczególne LSV mogą być archaiczne, neologiczne, dialektalne i egzotyczne.

    Analizując związek słowa w języku i mowie, pojęcia zamierzone znaczenie (znaczenia słowa jako jednostki języka) i ekstensywny znaczenie (nabyte przez słowo w danym kontekście jego użycia). Termin znaczenie słownikowe .

Z drugiej strony znaczenia „mowy” dzielą się na: zwykły (ustalone znaczenia przyjęte w języku, w którym słowo jest zwykle i naturalnie używane, tj. odzwierciedlające połączenia syntagmatyczne charakteryzujące własną semantykę słowa) oraz okolicznościowy znaczenia (nadane danemu słowu w danym kontekście użycia mowy i stanowiące pewne odstępstwo od utartych i powszechnie uznanych, tj. znaczeń, które nie będąc wynikiem regularnego połączenia słów, są wyłącznie kontekstowe). Na przykład znaczenie czasownika siedzieć w zdaniu „Gdzie mam usiąść tych wszystkich ludzi?” jest umowne, w zdaniu „Poszła do salonu i usiadła na skraju krzesła, żeby nie usiąść jej dobry rypsowy garnitur” (J. i E. Bonett) jest okazjonalny.

Stosowanie podejście diachroniczne oznacza klasyfikację znaczeń według ich cech genetycznych oraz według ich rosnącej lub malejącej roli w języku i umożliwia przypisanie następujących rodzajów znaczeń:

    początkowy (oryginalny) wartości i pochodne pochodzą od nich. Na przykład w semantyce słowa rura pierwotną wartością jest „muzyczny instrument dęty składający się z jednej tuby”, a wartością pochodną jest „rura z drewna, metalu itp., zwłaszcza do przesyłania wody, gazu itp.”; „wąska tuba z gliny, drewna itp. z miską na jednym końcu do wciągania dymu tytoniowego” itp. Co więcej, przy takiej klasyfikacji często konieczne staje się wyodrębnienie znaczenia pośredniego, które, w sposób diachroniczny, jest jednym z ogniw w rozwoju semantycznym słowa między znaczeniami pierwotnymi i już ustalonymi znaczeniami pochodnymi. Na przykład w strukturze semantycznej rzeczownika tablica znaczenie 'stół', będąc transferem metonimicznym, działa jako pośredni łącznik między znaczeniem 'rozciągnięta powierzchnia drewna' (co z kolei jest pośrednie między 'stół' a pierwotnym znaczeniem - 'długi cienki zwykle wąski kawałek tarcicy ”) oraz znaczenie „komitet”, również związane z transferem metonimicznym. Tak więc przy podejściu diachronicznym znaczenie słowa tablica można przedstawić w postaci:

długi cienki zwykle wąski kawałek tarcicy

rozszerzona powierzchnia drewna

(przelew metonimiczny)

(przelew metonimiczny)

    znaczenie etymologiczne – historycznie najwcześniejsza wartość;

    archaiczne znaczenie - znaczenie wyparte z użycia przez nowsze słowo, ale zachowane w wielu stabilnych kombinacjach, na przykład: znaczenie "pogląd" na słowo rumieniec: w ten pierwszy rumieniec"od pierwszego wejrzenia"; znaczenie słowa „duch” w słowie duch: do dawać w górę ten duch„poddaj ducha”; oznaczający "cząstka" na słowo paczka: część oraz paczka"Integralna część"; jednocześnie słowo to istnieje w innym znaczeniu (znaczeniach) jako aktywny element współczesnego słownictwa.

    przestarzała wartość – przestarzała wartość;

    współczesne znaczenie - znaczenie, które jest najczęstsze we współczesnym języku.

adnotacja

Artykuł poświęcony jest problematyce analizy semantycznej tekstów. Rozważane są różne metody: diagramy zależności pojęciowych i sieci semantyczne; podejścia oparte na funkcjach leksykalnych i zajęciach tematycznych; modele ramowe i ontologiczne; logiczne modele reprezentacji wiedzy. Każdy z nich ma swoje wady i zalety.

Tworzenie nowych metod analizy semantycznej tekstów ma znaczenie w rozwiązywaniu wielu problemów językoznawstwa komputerowego, takich jak tłumaczenie maszynowe, autoabstrakcja, klasyfikacja tekstów i inne. Równie ważny jest rozwój nowych narzędzi do automatyzacji analizy semantycznej.

Metody i systemy semantycznej analizy tekstu

Semantyka to gałąź językoznawstwa, która bada znaczenie semantyczne jednostek językowych. Oprócz wiedzy o budowie języka semantyka jest ściśle związana z filozofią, psychologią i innymi naukami, gdyż nieuchronnie rodzi pytania o pochodzenie znaczeń słów, ich związek z byciem i myśleniem. W analizie semantycznej konieczne jest uwzględnienie cech społecznych i kulturowych native speakera. Proces ludzkiego myślenia, podobnie jak język, który jest narzędziem wyrażania myśli, jest bardzo elastyczny i trudny do sformalizowania. Dlatego analiza semantyczna jest słusznie uważana za najtrudniejszy etap automatycznego przetwarzania tekstu.

Stworzenie nowych metod analizy semantycznej tekstów otworzy nowe możliwości i pozwoli
poczynić znaczne postępy w rozwiązywaniu wielu problemów językoznawstwa komputerowego, takich jak tłumaczenie maszynowe, autoabstrakcja, klasyfikacja tekstów i inne. Nie mniej istotny jest rozwój nowych narzędzi do automatyzacji analizy semantycznej.

W chwili obecnej istnieje kilka metod przedstawiania znaczenia wypowiedzi, ale żadna z nich nie jest uniwersalna. Wielu badaczy pracowało nad skorelowaniem znaczenia tekstu. Tak więc I.A. Melchuk wprowadził pojęcie funkcji leksykalnej, rozwinął pojęcia walencji syntaktycznej i semantycznej i rozpatrzył je w kontekście słownika wyjaśniająco-kombinatorycznego, który jest modelem języka. Pokazał, że znaczenia słów nie są bezpośrednio powiązane
z otaczającą rzeczywistością, ale z wyobrażeniami native speakera na temat tej rzeczywistości.

Większość badaczy uważa, że ​​analiza semantyczna powinna być przeprowadzana po analizie składniowej. W.Sz. Rubashkin i D.G. Lahuti wprowadził hierarchię powiązań syntaktycznych w celu wydajniejszej pracy analizatora semantycznego. Najważniejsze są obligatoryjne powiązania ról, następnie powiązania koreferencyjne, następnie opcjonalne powiązania ról, a dopiero potem powiązania podmiotowo-skojarzeniowe.

Słynny językoznawca E.V. Paducheva proponuje rozważenie klas tematycznych słów, w szczególności czasowników, ponieważ niosą one główny ładunek semantyczny: czasowniki percepcji, czasowniki wiedzy, czasowniki emocji, czasowniki podejmowania decyzji, czynności mowy, ruchy, czasowniki dźwiękowe, czasowniki egzystencjalne, itd. Istotny w tym podejściu jest pomysł podziału pojęć języka na pewne grupy semantyczne, biorąc pod uwagę fakt, że pojęcia te mają pewien nietrywialny wspólny składnik semantyczny. Elementy takich grup mają tendencję do posiadania tego samego zestawu pojęć zależnych. Jednak głównym problemem tego podejścia jest to, że dobór zajęć tematycznych i zestawienie słowników semantycznych jest procesem niezwykle czasochłonnym, silnie uzależnionym od indywidualnego postrzegania i interpretacji pojęć przez konkretną osobę.

Uniwersalny język reprezentacji wiedzy powinien być wygodnym narzędziem do wydobywania nowej wiedzy z już istniejących, co oznacza konieczność stworzenia aparatu do sprawdzania poprawności wypowiedzi. Tutaj przydatne są logiczne modele reprezentacji wiedzy. Na przykład język semantyczny zaproponowany przez V.A. Tuzow zawiera formalizmy logiki predykatów, zawiera pojęcia „atomowe”, „funkcje” nad tymi pojęciami oraz reguły wnioskowania, które można wykorzystać do opisu nowych pojęć. Niewykluczone, że myśl naukowa rozwinie się w kierunku tworzenia takich języków semantycznych w przyszłości.

Pomimo tego, że niektóre naukowe i techniczne idee w dziedzinie przetwarzania tekstu rozwijają się dość szybko, wiele problemów w analizie semantycznej pozostaje nierozwiązanych. Większość badaczy dochodzi do wniosku, że słownik wspierający analizę semantyczną musi operować znaczeniami, a zatem opisywać właściwości i relacje pojęć, a nie słów. Powstaje jednak pytanie, jak właściwie ustrukturyzować i zaprezentować informacje w takich słownikach, aby ich przeszukiwanie było wygodne i szybkie, a poza tym można było uwzględnić zmiany w języku naturalnym (zanikanie starego i pojawianie się nowego). koncepcje). W niniejszym artykule podjęto próbę usystematyzowania znanych osiągnięć w dziedzinie analizy semantycznej oraz poniekąd znalezienie odpowiedzi na to i inne pytania.

Badanie semantyki w ramach teorii „Znaczenie ↔ Tekst”

Tworząc teorię „Znaczenie Tekst” I.A. Melchuk wprowadził pojęcie funkcji leksykalnej.
Z formalnego punktu widzenia funkcja leksykalna to funkcja, której argumentami są jakieś słowa lub frazy danego języka, a wartościami są zbiory słów i fraz tego samego języka. Jednocześnie są one bardzo interesujące i brane są pod uwagę tylko takie funkcje leksykalne, które mają frazeologicznie powiązane znaczenia - znaczenia możliwe przy jednych argumentach, a niemożliwe przy innych.

Innymi słowy, funkcja leksykalna to pewna relacja semantyczna, na przykład „równość znaczenia” (Syn), „przeciwieństwo znaczenia” (Anti) itp. Niech będzie pewna liczba jednostek leksykalnych - słowa i frazy; następnie ta funkcja leksykalna przypisuje każdej z tych jednostek zestaw jednostek leksykalnych, które są w odpowiednim związku semantycznym z jednostką pierwotną.

Wartości tej samej funkcji leksykalnej z różnych argumentów mogą całkowicie lub częściowo pokrywać się; wartości różnych funkcji z jednego argumentu również mogą się pokrywać. Alternatywne korelaty zawarte w wartości danej funkcji leksykalnej danego argumentu nie muszą być wymienne zawsze iw jakimkolwiek kontekście. Mogą różnić się cechami stylistycznymi, wszelkiego rodzaju zgodnością, gramatycznymi warunkami użytkowania, a nawet znaczeniem. Szczególnie ważne jest podkreślenie tego ostatniego: różne korelaty nie zawsze muszą być całkowicie synonimiczne; wystarczy, że ich znaczenia mają część wspólną, odpowiadającą danej funkcji leksykalnej, a różnice nie wykraczają poza pewne granice, czyli nie są „zbyt znaczące”.

W ogólnym przypadku funkcja leksykalna nie jest zdefiniowana dla wszystkich słów i fraz. Po pierwsze, niektóre funkcje są zdefiniowane tylko dla tej lub innej części mowy: tak więc Oper, Func i Labor są wyobrażalne tylko dla rzeczowników. Po drugie, tę lub inną funkcję można zdefiniować tylko dla słów o określonej semantyce: Magn - dla słów, których znaczenie pozwala na stopniowanie („więcej – mniej”); Oper, Func i Labor są zdefiniowane tylko dla nazw sytuacji.

Należy mieć na uwadze, że nawet przy całkowicie odpowiednim (pod względem właściwości składniowych i semantycznych) argumencie funkcja leksykalna może nie mieć znaczenia (w danym języku). Na przykład synonimy w zasadzie są możliwe dla dowolnych słów, ale tylko niektóre je mają. Wynika to z frazeologicznego charakteru funkcji leksykalnych.

Należy jeszcze raz podkreślić, że początkowo funkcje leksykalne zostały wprowadzone specjalnie do opisu zgodności leksykalnej, a nie do reprezentowania znaczenia w sensie ogólnym, więc nie wszystkie z nich należy interpretować jako jednostki semantyczne. Związek między funkcjami leksykalnymi a znaczeniem nie jest jednoznaczny. Niektóre funkcje leksykalne mogą twierdzić, że mają status elementów semantycznych, inne mogą w ogóle nie mieć znaczenia, a jeszcze inne mogą obejmować bardzo złożone znaczenie.

Z naszego punktu widzenia mówienie o funkcjach leksykalnych jako o funkcjach „wielowartościowych” nie jest całkowicie poprawne i wygodne. Wygodniej jest mówić o predykatach leksykalnych. Poniżej znajduje się lista prostych standardowych „funkcji” leksykalnych (tu zostaną przedstawione w postaci predykatów).

1. Syn (x, y), x, y to synonimy.

2. Conv (x, y), x, y są konwersyjne.

3. Anty (x, y), x, y to antonimy.

4. Der (x, y), y jest pochodną składniową x, czyli y ma to samo znaczenie co x, ale należy do innej części mowy:

S0 (x, y), y jest rzeczownikiem pochodzącym od x (x nie jest rzeczownikiem);

A0 (x, y), y jest przymiotnikiem pochodzącym od x (x nie jest przymiotnikiem);

Adv0 (x, y), y to przysłówek pochodzący od x (x nie jest przysłówkiem);

V0 (x, y), y to czasownik wywodzący się z x (x nie jest czasownikiem).

Innymi słowy, „x”y (Der (x, y) « S0 (x, y) Ú A0 (x, y) Ú Adv0 (x, y) Ú V0 (x, y)).

5. Gener (x, y), y jest pojęciem uogólniającym w stosunku do pojęcia oznaczanego przez x (x = truskawka, y = jagoda). Predykat ten zależy od zgodności leksykalnej słów w danym języku: jeśli x i m są słowami dwóch różnych języków, które mają to samo znaczenie, to odpowiednio dla Gener (x, y) i Gener (m, n), y i n mogą nie być zgodne w znaczeniu.

Sytuacja jest pewnym odzwierciedleniem leksykalnym (w danym języku) jakiejś części rzeczywistości. Sytuacje oznaczane przez poszczególne jednostki leksykalne języków naturalnych (leksemów) mają zwykle od jednego do czterech elementów semantycznych, czyli aktantów semantycznych, oznaczanych wielkimi literami łacińskimi A, B, C, D. Jednocześnie każdy taki leksem jest powiązany z aktantami głębokimi składniowymi są jego zależne, odpowiadające podmiotowi i mocnym dopełnieniom (jeśli leksem ten jest realizowany przez czasownik-orzecznik). Głębokie aktanty składniowe numerowane są cyframi arabskimi: 1, 2, 3, 4.

6. Si (x, y), i = 1, …, 4, y to typowa nazwa i-tego aktanta dla x.

7. Sc (x, y), y to stała circ, czyli typowa nazwa dla pomniejszego składnika danej sytuacji x:

Sloc (x, y), y – typowa nazwa miejsca, w którym występuje ta sytuacja x; „gdzie…” (x = bitwa, y = pole (bitwa));

Sinstr (x, y), y – typowa nazwa instrumentu użytego w danej sytuacji x; „ten, przez który / za pomocą którego…” (x = walka, x = instrument (walki));

Smod (x, y), y - typowa nazwa sposobu (sposób, charakter) realizacji tej sytuacji x; „jak…” (x = życie, y = obraz (życia));

Sres (x, y), y – typowa nazwa wyniku tej sytuacji; „co dostajesz” (x = kopia, y = kopia).

Innymi słowy, „x”y (Sc (x, y) « Sloc (x, y) Ú Sinstr (x, y) Ú Smod (x, y) Ú Sres (x, y)).

8. Predykaty względne Znak (x, y), y to typowa nazwa jednej „rzeczy”, jednego „kwantu” pewnego x; Mult (x, y), y to typowa nazwa kolekcji, zbiór.

9. Sigur (x, y), y jest metaforą x (x = sen, y = uścisk (sen)).

10. Centr (x, y), y - oznaczenie typu „centralnej” części obiektu lub procesu.

11. Ai (x, y), i = 1, …, 4, y – typowe określenie i-tego aktantu według jego rzeczywistej roli; "który..."; "ten, który..."

12. Ablei (x, y), i = 1, …, 4, y – typowa definicja i-tego aktantu przez jego potencjalną rolę w sytuacji; "ten, który może..."; "ten, który może być..."

13. Mag0 (x, y) oraz Magni (x, y), i = 1, …, 4, y oznaczają „wysoki stopień”, „intensywność” samej sytuacji x (Magn0) lub jej i-tego aktanta (Magni ).

14. Ver (x, y), y - „poprawne”, „odpowiadające celowi”, „co następuje” w stosunku do x.

15. Bon (x, y), y - "dobry" w stosunku do x.

16. Advix (z, y), i = 1, …, 4, x = A, B, C, D, y - nazwa sytuacji jako definicja z czasownikiem określającym inną sytuację:

AdviA (z, y), i = 1, …, 4, y to słowo utworzone z z, które zastępując z w tekście, wymaga przekształcenia w wierzchołek (zamiast z) pierwszego aktanta tego z (x = towarzyszyć, y = razem z).

AdviB (z, y), i = 1, …, 4, y wymaga, aby drugi aktant z stał się wierzchołkiem (x = źle, y = źle).

17. Loc (x, y), y - przyimek typowej lokalizacji (przestrzenna, czasowa lub abstrakcyjna):

Locin (x, y), y – lokalizacja „statyczna” (x = Moskwa, y = in);

Locad (x, y), y - przyimek kierunku (x = Moskwa, y = do);

Locab (x, y), y to przyimek usunięcia (x = Moskwa, potem y = z).

Innymi słowy, „x” y (Loc (x, y) « Locin (x, y) Ú Locad (x, y) Ú Locab (x, y)).

Czasami Loc(x, y) nie można jednoznacznie określić (x=śnieg, y=on i y=in).

18. Copul (x, y), y – czasownik łączący „być”, „być” (x = atakowany, y = atakowany).

19. Oper1 (x, y), Oper2 (x, y), y – czasownik łączący nazwę pierwszego (odpowiednio drugiego) aktanta jako podmiotu z nazwą sytuacji jako pierwszego przedmiotu (jeśli x = wsparcie , następnie y = render dla Oper1 (x, y) i y = znajdź lub spotkaj się dla Oper2 (x, y)).

20. Func0 (x, y), Func1 (x, y), Func2 (x, y), y to czasownik, którego tematem x jest nazwa sytuacji, a jako obiekt (x = deszcz, y = idź).

21. Labor12 (x, y), y to czasownik łączący nazwę pierwszego aktanta jako podmiot, z nazwą drugiego aktanta jako pierwszego dopełnienia, a z nazwą sytuacji jako drugiego przedmiotu (x = porządek, y = nagroda; x = kara, y = ujawnienie).

22. Causij (x, y), y – działanie aktantów „aby zrobić to…”, „przyczyna”. W przypadku bez wskaźników aktanta Caus (x, y), x jest nazwą nieuczestnika sytuacji (x = przestępstwo, y = pchanie). Występuje osobno tylko z czasownikami, w innych przypadkach jest częścią parametrów złożonych.

23. Incep (x, y), y - „zacznij”. Własności są takie same jak dla Causij (x, y).

24. Perf (x, y), y - „idealny”, y niesie zakończenie działania, osiągnięcie jego naturalnej granicy. Perf (x, y) nie ma osobnego niezależnego wyrażenia w języku rosyjskim; zazwyczaj ten predykat ma wartość prawda, jeśli y jest perfekcyjny (x = przeczytaj, y = przeczytaj).

25. Wynik (x, y), y - „wynik”, czyli y - „stan jako wynik ...”; używane dla form niedoskonałych (x = połóż się, y = połóż się dla Perf (x, y), y = połóż się dla wyniku (x, y)).

26. Fakt j (x, y), y - „do realizacji”, „do spełnienia”. Indeks górny (cyfry rzymskie) reprezentuje, w razie potrzeby, stopień spełnienia domniemanego wymagania, z niższym indeksem przypisanym do niższego stopnia (jeśli x = pułapka i j = I, to y = wyzwalacz; jeśli j = II, to y = połów).

27. Rzeczywiste j1,2(x,y), y – „wdrożenie”, „spełnienie warunku” zawartego w x. Indeks j ma takie samo znaczenie jak powyżej - stopień ukończenia; indeks dolny oznacza aktant o głębokiej składni spełniający warunek (x = dług (gotówka), y = rozpoznanie dla Realu I1,2(x, y), y = spłata dla Realu II1,2(x, y)).

28. Destr (x, y), y to typowa nazwa akcji „agresywnej” (x = osa, y = użądlenia).

29. Czapka (x, y), y - „głowa” (x = wydział, y = dziekan).

30. Ekwipunek (x, y), y - „personel” (x = populacja, y = stany).

31. Doc (x, y), y - "dokument":

Docres (x, y), y - "dokument będący wynikiem"; „ucieleśniony” (x = raport, y = raport);

Docperm (x, y), y - „dokument dla prawej strony ...” (x = pociąg, y = (podróż) bilet na Docperm Oper2 (x, y));

Doccert (x, y), y - "dokument poświadczający..." (x = wyższa edukacja, y = dyplom).

Innymi słowy, „x” y (Doc (x, y) « Docres (x, y) Ú Docperm (x, y) Ú Doccert (x, y)).

Oprócz prostych predykatów leksykalnych wymienionych powyżej, ich kombinacje mogą być również używane do opisu zgodności leksykalnej - predykaty złożone:

AntiReal2 (x, y): niezaliczenie egzaminu/niezdanie egzaminu;

IncepOper2 (x, y): zdobywaj popularność, popadaj w rozpacz;

IncepOper2 (x, y): idź na sprzedaż, wejdź pod ostrzał;

CausOper2 (x, y): poddać kontroli, wprowadzić do obiegu.

Jak wspomniano wcześniej, w ogólnym przypadku funkcja leksykalna nie jest zdefiniowana dla wszystkich słów i fraz. Funkcję można zdefiniować tylko dla słów o określonej semantyce. Na przykład Cap and Equip - dla słów, których znaczenie implikuje obecność „szefa” i „personelu”, czyli nazw instytucji i organizacji w najszerszym tego słowa znaczeniu; Rzeczywiste — dla słów, których znaczenie zawiera składnik „wymagać” („potrzeba”) itp.

Jeśli funkcje leksykalne są reprezentowane jako predykaty, nie ma trudności.
W przypadkach, w których funkcje leksykalne nie są zdefiniowane, odpowiadające im predykaty będą fałszywe.

Szczególna rola w badaniu semantyki w ujęciu I.A. Melczuka gra wartościowość słów, to znaczy zdolność słów do łączenia się z innymi słowami. Słowa, które definiują sytuację, mają walencje. Są to wszystkie czasowniki, niektóre rzeczowniki (słowne), przymiotniki (oznaczające porównanie: więcej, mniej, wyższy, niższy), niektóre przyimki i przysłówki.

Istnieją dwa rodzaje walencji słów: syntaktyczne i semantyczne. Chociaż ten podział jest czasem dość arbitralny. Walencje semantyczne są określane przez leksykalną analizę sytuacji danej przez dane słowo. Weźmy przykład ze słowem czynsz lub czynsz. A dzierżawi C oznacza, że ​​za pewną opłatą D osoba A nabywa od innej osoby B prawo do obsługi nieruchomości C w czasie T. Dlatego istotne dla sytuacji leasingu
są następującymi „uczestnikami” lub aktantami semantycznymi: przedmiot najmu (ten, który wynajmuje), pierwszy przedmiot najmu (co jest wynajmowane), kontrahent (ten, od którego najem jest pobierany), drugi przedmiot (opłata) i termin.

Aktanty te są konieczne, ponieważ eliminacja któregokolwiek z nich zmienia znaczenie sytuacji. Na przykład, jeśli usuniesz ten termin, sytuacja leasingu zostanie przekształcona w sytuację kupna i sprzedaży. Z drugiej strony akty te są wystarczające, gdyż w sytuacji najmu nie jest wymagane wskazanie z jakiego powodu, gdzie, kiedy i w jakim celu został zrealizowany. Chociaż odpowiednie formy wyrazowe są gramatycznie dołączone do czasownika rent.

Innymi słowy, walencję semantyczną określa liczba aktantów semantycznych. Zatem czasownik rent ma walencję semantyczną równą 5, ponieważ ma 5 aktantów semantycznych. Formalnie sytuację tę można zapisać jako predykat P (x1, x2, x3, x4, x5), gdzie x1 to „kto”, x2 to „co”, x3 to „od kogo”, x4 to „opłata”, x5 to „termin”.

Nie wszystkie aktanty semantyczne można zdefiniować w zdaniu, niektóre mogą po prostu nie być wymienione lub w ogóle nie mają wyrażenia składniowego. Walencje składniowe są określane przez liczbę aktantów składniowych, które są prezentowane bezpośrednio w tekście (tj. podmiotów i przedmiotów dołączonych do czasownika) i zależą od kontekstu.

Na przykład wartościowość semantyczna czasownika miss wynosi 4, ponieważ ma 4 aktantów: kto (wykonawca), w co / za co (cel), z czego (broń - opcjonalnie) i co (organ, oznacza). Ale w większości kontekstów tylko jedna walencja jest wyrażona składniowo, na przykład w zdaniu „On celował przez długi czas, ale chybił”. Niemniej jednak zdanie „Przeoczył okno z butelką” nie jest do końca poprawne.

Z formalnego punktu widzenia mamy konstrukcję opisaną poniżej. Aby nie kojarzyć osobnego predykatu z każdym czasownikiem (i innymi słowami), rozważymy predykat, którego wymiar jest większy o 1: P val(y, x1, x2, …, xn), podczas gdy y będzie samym słowem , a x1, x2, …, xn są jego wartościowościami. Aby odróżnić aktanty syntaktyczne od semantycznych, możesz użyć multiwskaźnika, aby wskazać aktanty podane w tekście. Zapis oznacza, że ​​dane są aktanty i1, i2, …, ik.
W szczególności, jeśli podane są wszystkie aktanty, to otrzymujemy. Niektóre warianty (zestawy wielu indeksów) mogą być niedozwolone w tym języku. Jeżeli zbiór i1, i2, …, ik jest dopuszczalny, to implikacja

Co więcej, jeśli istnieją dwa zestawy prawidłowych multiindeksów oraz , takie, że (i1, i2, …, ik) Ę (i1", i2", …, is"), to zachodzi podobna implikacja

Słownik wyjaśniająco-kombinatoryczny jest jednym z głównych wynalazków teoretycznych I.A. Melczuka.
W pewnym sensie model języka zaproponowany przez I.A. Melchuk przedstawia język jako zbiór haseł słownikowych z ogromną ilością różnych informacji; reguły gramatyczne w takim słowniku odgrywają raczej drugorzędną rolę. Słownik wyjaśniająco-kombinatoryczny odzwierciedla przede wszystkim nietrywialną zgodność leksemów. Możemy myśleć o języku jako o bardzo dużym modelu, w którym zdefiniowane są predykaty leksykalne działające w sposób opisany powyżej.

Artykuł słownika wyjaśniająco-kombinatorycznego zawiera informacje o walencjach danego wyrazu, co jest prawdziwe nie tylko w jego ramach, ale także w ramach całego języka jako całości. Walencja odpowiada orzecznikowi, gdzie są aktanty semantyczne słowa cx, n jest wartościowością słowa cx. Na przykład w zdaniu Petya czyta książkę, cx = przeczytaj, n = 2: y1 = Petya, y2 = książka, czyli warunkowo możesz napisać P val (cx , y1, y2) = 1.

Zbiór artykułów w słowniku wyjaśniająco-kombinatorycznym można uznać za pewien podmodel oryginalnego modelu, jakim jest język. Predykaty leksykalne zdefiniowane teraz w węższym zestawie będą działać podobnie.

Niech F oznacza zbiór dobrze uformowanych fraz języka naturalnego L i j н F będzie frazą z tego zbioru; – wyraz cx jest zawarty w wyrażeniu j, a cx í L. Niech cx będzie rzeczownikiem lub przymiotnikiem. Oznaczmy przez Predykat zbiór predykatów zdefiniowanych na L. Jednym z elementów tego zbioru jest wprowadzony wcześniej predykat wartościowości P val (cx , y1, …, yn).

Podobnie możemy założyć, że istnieją inne predykaty:

jest predykatem płci Płeć , gdzie н (g1, g2, g3), g1 = kobieta; g2 = mężczyzna; g3 = por.;

jest przyimkiem przyimka Przyimek , gdzie О (pr1, …, prk) jest zbiorem przyimków, które można połączyć z danym słowem;

jest predykatem przypadku Cases , gdzie jest przypadkiem słowa cx; dla różnych języków liczba przypadków jest różna: na przykład w języku rosyjskim jest sześć przypadków, więc Î (case1, case2, case3, case4, case5, case6), case1 = im.p.; przypadek2 = płeć; przypadek3 = zbiór danych; case4 = wygrana/os.; case5 = kreatywna p.; przypadek6 = sugestia; Niemiecki ma cztery przypadki, więc Î (przypadek1, przypadek2, przypadek3, przypadek4), gdzie przypadek1 = Nom; przypadek2 = Gen; przypadek3 = data; przypadek4 = wg.

Hasło słownikowe słownika wyjaśniająco-kombinatorycznego zawiera słowo główne, związane z nim predykaty leksykalne oraz informację o wartościowości tego słowa. Informacja o wartościowości zawiera liczbę wskazującą liczbę aktantów, a dla każdego aktanta wskazanie, w jakich przypadkach iz jakimi przyimkami użyto słów odpowiadających temu aktantowi. W niektórych przypadkach można również wskazać rodzaj słowa.

Powyższe może być reprezentowane przez zbiór predykatów postaci

gdzie xi jest zmienną swobodną odpowiadającą i-temu aktantowi.

Teoria „Znaczenie Û Tekst” została stworzona od samego początku do zastosowania w stosowanych problemach tłumaczenia automatycznego. Według I.A. Melchuk z jego pomocą, w przeciwieństwie do tradycyjnych nierygorystycznych teorii, konieczne było zapewnienie budowy „działającego” modelu języka. Teoria „Meaning Û Text” była rzeczywiście wykorzystywana w niektórych systemach tłumaczenia maszynowego opracowanych w Rosji, przede wszystkim w angielsko-rosyjskim systemie automatycznego tłumaczenia ETAP, stworzonym przez grupę kierowaną przez Yu.D. Apresjan. Wszystkie te systemy są eksperymentalne, to znaczy ich przemysłowe zastosowanie nie jest możliwe. Chociaż zawierają one wiele przydatnych pod względem językowym informacji, generalnie żadna z nich nie przyniosła jeszcze przełomu w jakości tłumaczeń.

W opinii autora, główną wartościową ideą tej teorii jest to, że znaczenia słów nie korelują bezpośrednio z otaczającą rzeczywistością, ale z wyobrażeniami native speakera na temat tej rzeczywistości (czasami nazywanymi pojęciami). Charakter pojęć zależy od konkretnej kultury; system pojęć każdego języka tworzy tzw. „naiwny obraz świata”, który w wielu szczegółach może różnić się od „naukowego” obrazu świata, który jest uniwersalny. Zadaniem semantycznej analizy słownictwa w teorii „Znaczenie Tekst” jest właśnie odkrycie „naiwnego obrazu świata” i opisanie jego głównych kategorii. Innymi słowy, ważną rolą tej teorii jest opisanie nie tylko obiektywnego, ale i subiektywnego obrazu świata.

Pomimo tego, że zainteresowanie teorią I.A. Melchuk zanika, znaczniki korpusu składniowego „Narodowy korpus języka rosyjskiego” wykonuje procesor językowy ETAP-3, oparty na zasadach teorii „Znaczenie Û Tekst”.

Jak wspomniano powyżej, Yu.D. Apresjan. Jego pomysły różnią się nieco od pomysłów I.A. Melczuka. Centralne miejsce w Yu.D. Apresyan zajmuje nowy rodzaj słownika synonimów. Na potrzeby tego słownika opracowano szczegółowy schemat opisu szeregów synonimicznych, w którym każdy element szeregu został scharakteryzowany pod względem semantyki, składni, zgodności i innych właściwości. Słownik zawiera i podsumowuje maksymalną ilość informacji o zachowaniu językowym rosyjskich synonimów.

Koncepcyjne diagramy zależności

Analiza koncepcyjna i przypadku

Na etapie analizy morfologicznej i semantyczno-syntaktycznej tekstów głównymi jednostkami oznaczającymi pojęcia są słowa. Z reguły uważa się, że znaczenie fraz i fraz można wyrazić za pomocą znaczeń ich słów składowych. Jako wyjątki brane są pod uwagę tylko ograniczone liczby stabilnych fraz - idiomy. Podejście to opiera się na założeniu, że frazy występujące w języku można podzielić na „wolne” i „niewolne”.

Inne podejście opiera się na fakcie, że najbardziej stabilnymi (niepodzielnymi) jednostkami znaczenia są kategorie i pojęcia, składające się nie z samodzielnych słów, ale z fraz. Takie kategorie i pojęcia nazywane są pojęciami. Przy takim podejściu „niewolne” zwroty to nie tylko wyrażenia idiomatyczne, ale także wszystkie stabilne jednostki frazeologiczne języka i mowy (w rozwiniętych językach są ich setki milionów).

Ideę analizy pojęciowej jako integralnej części analizy semantycznej odnajdujemy także w badaniach V.Sh. Rubashkin i D.G. Lahuti. W tej części pokrótce przedstawiono poglądy na pytanie, jakie zadania należy rozwiązać za pomocą konceptualnej analizy semantycznej.

Wejście komponentu semantycznego musi otrzymać tekst oznaczony syntaktycznie. Zaznaczony tekst powinien zawierać różne informacje: identyfikatory pojęć odpowiadające słowu (terminowi); wskazanie hosta syntaktycznego (wszystkich hostów alternatywnych) oraz typu łącza syntaktycznego itp.

Przed przeniesieniem do komponentu semantycznego należy również rozpoznać wyrażenia-frazy, ujednolicić reprezentację informacji liczbowych, rozpoznać nazwy własne itp. W rzeczywistych projektach wszystkie te zadania są rozwiązywane z różnym stopniem przybliżenia. Możemy założyć, że społeczność zawodowa doszła do porozumienia, przynajmniej w następujących kwestiach.

Analiza semantyczna w zakresie zastosowanych metod i środków powinna obejmować dwa etapy: a) etap interpretacji linków wyrażonych gramatycznie (syntaktycznych i anaforycznych) oraz b) etap rozpoznawania linków, które nie mają wyrażenia gramatycznego.

Niejasności powinien rozstrzygnąć sam proces analizy – według kryterium stopnia spełnienia semantycznego wyniku uzyskanego w każdej wersji.

Kluczowym punktem systemu analizy semantycznej jest efektywne wsparcie słownikowe.
W tym sensie każdy system analizy semantycznej jest zorientowany na tezaurusy. Procedury analizy semantycznej we wszystkich przypadkach bez wyjątku opierają się na funkcjonalności słownika pojęciowego. Aby wspierać analizę semantyczną, słownik musi operować znaczeniami, a zatem opisywać właściwości i relacje pojęć, a nie słów. To jest słownik pojęciowy. W pewnym sensie rolę słownika pojęciowego mogą pełnić sieci semantyczne, które są opisane w następnym podrozdziale.

W interpretatorze semantycznym przede wszystkim należy określić rozróżnialne typy relacji semantycznych w tekście: odgrywanie ról (powiązania według walencji predykatu), asocjacyjno-podmiotowe (relacje między obiektami, procesami, istotne w temat - być częścią, mieć miejsce, być przeznaczonym, być stolicą itp.) itp.

Przyjmowane są następujące główne postulaty interpretacji relacji składniowych.

1. Rodzaj ustalonej relacji semantycznej jest określony przez klasy semantyczne i
w niektórych przypadkach bardziej szczegółowe cechy semantyczne składni „mistrz” i „sługa”.

2. Przyimki są traktowane nie jako samodzielny przedmiot interpretacji, ale jako dodatkowa (semantyczno-gramatyczna) charakterystyka związku między syntaktycznym „właścicielem” przyimka a kontrolowanym przez niego słowem znaczącym.

3. Aby rozwiązać homonimię leksykalną i syntaktyczną ustaloną przez parser, interpreter semantyczny posługuje się systemem empirycznie ustalonych preferencji. Dla ułatwienia porównania preferencji wariantów interpretacji przypisano im rangi liczbowe. Na poziomie typów relacji semantycznych ustala się następującą kolejność preferencji (kolejność wyliczenia odpowiada zmniejszeniu priorytetu relacji):

- powiązania funkcjonalne i powiązania ustalające fakt redundancji semantycznej;

– powiązania ról, zdefiniowane jako obowiązkowe, w obecności semantycznie spójnego aktanta;

– linki referencyjne;

– relacje ról zdefiniowane jako opcjonalne;

- określone linki skojarzone z tematem;

- linki tematyczne są nieokreślone.

Określone powiązania syntaktyczne to takie, które tłumacz potrafi zleksykalizować z określoną relacją w obszarze tematycznym (obiekty portowe ® obiekty znajdujące się w porcie); w związku z tym niesprecyzowane linki to te, dla których tłumacz nie oferuje takiej specyfikacji i które są interpretowane przez ogólne pojęcie połączone.

W przypadku wykrywania homonimii syntaktycznej powiązań koordynacyjnych preferencje są określane przez stopień spójności cech semantycznych uczestników powiązania syntaktycznego.

Niejednoznaczności leksykalne i lokalne składniowe (obecność alternatywnych hostów w słowie) są przetwarzane w jednym mechanizmie wyliczania. Globalne opcje parsowania zdania są rozważane w mechanizmie wyliczania następnego poziomu. W tym przypadku porównywane są łączne wagi interpretacji wszystkich linków zdań.

Przy ustalaniu różnego rodzaju relacji interpretację określają poniższe przepisy.

Przy ustalaniu relacji ról istotne są następujące cechy gramatyczne uczestników połączenia składniowego (w odniesieniu do języka rosyjskiego):

– semantyczno-syntaktyczny typ predykatu (cecha słownikowa);

jest formą gramatyczną orzeczenia;

– przypadek aktanta, możliwość formy przymiotnikowej dla aktanta według danej walencji;

- możliwość kontroli przyimkowej aktanta i zdolność przyimka tworzącego połączenie syntaktyczne do wyrażania relacji zgodnie z daną walencją; informacja o zdolności przyimka do pełnienia roli wskaźnika roli dla danej wartościowości jest przechowywana w słownikowym opisie przyimka.

Operacyjnie procedurę określania możliwej roli aktanta określa gramatyka relacji ról, która ustala zgodność formy

(Rf, GFP, TSEMU) ® VAL,

gdzie Rf jest nazwą dowiązania składniowego; GFP to gramatyczna forma orzeczenia; TSEMU – semantyczno-syntaktyczny typ predykatu; VAL to nazwa możliwej wartościowości lub odniesienie do funkcji roli przyimka.

Następnie sprawdzana jest zgodność cech semantycznych aktanta z semantycznym warunkiem wypełnienia wartościowości predykatu (sprawdzana jest odpowiednia para pojęć pod kątem zgodności objętościowej).

Aby ustanowić relację współreferencyjną, konieczne i wystarczające są następujące warunki:

– „mistrz” i „sługa” należą do kategorii semantycznej Obiekt;

– pojęcia odpowiadające terminom „mistrz” i „sługa” odnoszą się do kompatybilności objętościowej;

- w przypadku połączenia przyimkowego sprawdzana jest zdolność tego przyimka do wyrażenia relacji współreferencji.

Aby ustanowić określone relacje podmiotowo-stowarzyszeniowe, konieczne i wystarczające są następujące warunki:

- pojęcia odpowiadające terminom „pan” i „sługa” odnoszą się do niezgodności objętościowej lub (w przypadku ich zgodności) terminy te są połączone syntaktycznie przez przyimek, który nie jest w stanie wyrazić relacji koreferencji;

- z parą terminów „pan – sługa” kojarzy się słownikowo część relacji podmiotowej
(<автомобиль, кузов>® mają część) i/lub (jeśli połączenie jest przyimkowe) relacja podmiotowa jest skojarzona z przyimkiem i przypadkiem.

Do ustanowienia nieokreślonych relacji podmiotowo-skojarzeniowych konieczna i wystarczająca jest prawdziwość pierwszego i fałszywość drugiego warunku.

Coraz większego znaczenia nabiera analiza „według modelu” (analiza przypadków), oparta na wykorzystaniu korpusu wcześniej zaznaczonych tekstów. Rozsądnie skonstruowany system analizy powinien zapewniać nie tylko wydobycie wiedzy z konkretnego tekstu, ale także akumulację wyników zarówno na poziomie syntaktycznym, jak i semantycznym – do dalszego wykorzystania jako precedensu.

Jednym z najbardziej rozległych i znaczących obecnie realizowanych projektów jest utworzenie Narodowego Korpusu Języka Rosyjskiego. Bierze w nim udział duża grupa językoznawców z Moskwy, Petersburga, Kazania, Woroneża, Saratowa i innych ośrodków naukowych Rosji.

Narodowy Korpus Języka Rosyjskiego to zbiór tekstów elektronicznych opatrzonych obszernymi informacjami językowymi i metatekstowymi. Korpus reprezentuje całą różnorodność stylów, gatunków i odmian języka rosyjskiego XIX–XX wieku. Narodowy Korpus Języka Rosyjskiego używa obecnie pięciu typów znaczników: metatekstowych, morfologicznych (fleksyjnych), składniowych, akcentowych i semantycznych. Nie będziemy szczegółowo rozważać wszystkich dostępnych typów znaczników, skupimy się tylko na znacznikach semantycznych.

W przypadku znaczników semantycznych większości słów w tekście przypisywana jest jedna lub więcej cech semantycznych i słowotwórczych, na przykład „twarz”, „substancja”, „przestrzeń”, „prędkość”, „ruch” itp. automatycznie za pomocą programu Semmarkup (autor A.E. Polyakov) zgodnie ze słownikiem semantycznym korpusu. Ponieważ ręczne przetwarzanie tekstów oznaczonych semantycznie jest bardzo pracochłonne, homonimia semantyczna w korpusie nie jest usuwana: kilka alternatywnych zestawów cech semantycznych jest przypisanych do wyrazów polisemantycznych.

Znacznik semantyczny oparty jest na systemie klasyfikacji słownictwa rosyjskiego, przyjętym w bazie leksykografów, która jest rozwijana od 1992 roku w Katedrze Językoznawstwa VINITI RAS pod kierunkiem E.V. Paducheva i E.V. Rachilina. W przypadku korpusu znacznie rozszerzono słownictwo, rozszerzono kompozycję i poprawiono strukturę klas semantycznych, dodano cechy słowotwórcze.

Słownik słownika semantycznego oparty jest na słowniku morfologicznym systemu „Dialing” (o łącznej objętości około 120 tysięcy słów), który jest rozszerzeniem słownika gramatycznego języka rosyjskiego A.A. Zalizniaka. Aktualna wersja słownika semantycznego zawiera słowa znaczących części mowy: rzeczowniki, przymiotniki, liczebniki, zaimki, czasowniki i przysłówki.

Informacja leksyko-semantyczna przypisana dowolnemu słowu w tekście składa się z trzech grup etykiet:

- kategoria (np. nazwa własna, zaimek zwrotny);

- właściwe cechy leksykalno-semantyczne (np. klasa tematyczna leksemu, oznaki przyczynowości, oceny);

- cechy derywacyjne (słowotwórcze) (na przykład „zdrobnienie”, „przysłówek przymiotnikowy”).

Informacja leksyko-semantyczna ma różną strukturę dla różnych części mowy. Ponadto każda z kategorii rzeczowników – podmiotowe, niepodmiotowe i własne – ma własną strukturę etykiet.

Właściwie etykiety leksykalno-semantyczne są pogrupowane w następujące pola:

– taksonomia (klasa tematyczna leksemu) – dla rzeczowników, przymiotników, czasowników i przysłówków;

- mereologia (wskazanie relacji "część - całość", "element - zbiór") - dla nazw przedmiotowych i nieprzedmiotowych;

– topologia (status topologiczny wyznaczonego obiektu) – dla nazw podmiotów;

– przyczynowość – dla czasowników;

– status usługi – dla czasowników;

- ocena - dla nazw przedmiotowych i nieprzedmiotowych, przymiotników i przysłówków.

Klasy tematyczne czasowników

Jako szczególny kierunek w badaniu semantyki języka rosyjskiego studia E.V. Paduczewa. Najciekawsze są prace dotyczące tematycznych zajęć czasowników rosyjskich. Klasa tematyczna łączy słowa ze wspólnym elementem semantycznym, który zajmuje centralne miejsce w ich strukturze semantycznej. Są to na przykład czasowniki fazowe, czasowniki percepcji, czasowniki wiedzy, czasowniki emocji, czasowniki podejmowania decyzji, czynności mowy, ruchu, czasowniki dźwiękowe, czasowniki egzystencjalne itp.

Słowa z tej samej klasy tematycznej mają w swojej interpretacji pewien nietrywialny element wspólny. Klasa tematyczna jest ważna z kilku powodów. Po pierwsze, klasa tematu często ma charakterystyczny wygląd składni - na przykład klasa zwykle ma charakterystycznego członka.
Po drugie, członkowie tej samej klasy tematycznej mają tendencję do posiadania tego samego zestawu pochodnych semantycznych, to znaczy pojęć od nich zależnych.

Artykuł zawiera najbardziej kompletną listę poszczególnych aspektów aspektowych czasowników niedokonanych. Wyróżnia się następujące znaczenia szczegółowe: rzeczywiste-długookresowe (proces lub stan trwa w momencie obserwacji); proces (to znaczy po prostu trwały); stała-ciągła (wartość stałej właściwości lub stosunku); zwykły (znaczenie zwykłego, czyli ogólnie przyjętego, powtarzającego się działania lub zdarzenia); potencjał; wielokrotne (ale nie zwykłe i nie potencjalne); ogólny stan faktyczny nieograniczony (wartość stanu wstrzymanego lub procesu nieograniczonego); ogólne faktyczne skuteczne (działanie osiągnęło limit); ogólny rzeczywisty dwukierunkowy (wynik został osiągnięty, ale anulowany przez działanie przeciwnie skierowane); ogólny stan faktyczny bezskuteczny (nie wiadomo, czy działanie osiągnęło swój limit).

Praca analizuje nazwy orzecznikowe, czyli rzeczowniki utworzone z czasowników i przymiotników, takie jak walka, przybycie, rozpacz, skąpstwo. W rezultacie można wyróżnić procesy, zdarzenia, stany i właściwości.

Na przykład nazwy procesów są dozwolone w kontekście czasowników o znaczeniu „przepływ”, „iść”, czyli „odbywać się” (jest rozmowa, strajk, aktualizacja). Szczególnym rodzajem procesów są działania ciągłe, czyli celowe procesy z aktywnym podmiotem, takie jak walka, sprawdzanie, ale nie takie jak kąpiel, bieganie, buntowanie się, chodzenie, spanie, palenie. Nazwy działań są dozwolone w kontekście czasowników o znaczeniu „produkować”, „prowadzić”: nadzór był prowadzony przez grupę agentów; dokonują odbioru (wymiana, selekcja); badamy.

Wszystkie nazwy procesów są używane w kontekście czasowników fazowych o znaczeniu „początek”, „koniec”, „kontynuuj”: rozpoczęła się walka (deszcz, bitwa); skończyły się prześladowania dysydentów; lądowanie (oblężenie) trwa. Nazwy czynności są dozwolone w kontekście czasowników fazowych o znaczeniu „rozpoczęcie”, „koniec”, „kontynuacja”: rozpoczęte negocjacje; skończone sprawdzanie zeszytów; przerwane czytanie; ustawione, rozpoczęte, zatrzymane (wydawanie). Kontekst czasownika fazy jest diagnostyczny dla nazw procesów, w przeciwieństwie do nazw zdarzeń.

Nazwy wydarzeń są używane w kontekście czasowników o znaczeniu „stało się”, „zdarzyło się”: nastąpiło trzęsienie ziemi. Zdarzenia różnią się od procesów tym, że mają retrospektywnego obserwatora. Obserwator procesu jest synchroniczny, więc jeśli mamy proces, to czasownik jest niedoskonały, a jeśli jest zdarzeniem, to jest doskonały.

Pominiemy wiele innych szczegółów dotyczących rozróżnienia między procesami, zdarzeniami, stanami i właściwościami, zauważając tylko, że potencjał aplikacyjny tych badań nie został jeszcze odkryty.

Poniżej znajduje się lista czasowników percepcyjnych, wyznaczonych przez E.V. Paducheva jako jedna z najbardziej przebadanych zajęć tematycznych. Wydawałoby się, że aby ustalić przynależność czasownika do tematycznej klasy percepcji, wystarczy upewnić się, że jego formuła semantyczna zawiera składnik „percepcja”. Jednak wszystko nie jest takie proste. Faktem jest, że składnik percepcyjny łatwo włącza się do semantyki czasowników różnych klas. Prawdziwa percepcja przechodzi w percepcję mentalną.

1. Czasowniki ruchu i stanu, sugerujące obserwatorowi:

a) czasowniki obserwowanego ruchu: migotanie, błysk, stąpanie, poślizg;

b) czasowniki obserwowanego stanu: stają się białe, wystają, krosna; rozpościerać się, wystawać, wyłamywać, rozchodzić się, otwierać, przemawiać;

c) czasowniki emisji światła, zapachu, dźwięku: połysk, migotanie, blask, zapach, smród, dźwięk.

2. Czasownik jest słyszany przez obserwatora (jak w dzwoniącym dzwonku), ale następujące czasowniki mają również składnik percepcyjny: zatrzymać się, zagłuszyć, zaćmić, milczeć, milczeć, uspokoić , do połączenia (jak w tunice i szarych spodniach prawie zlały się z ziemią).

3. Podmiot percepcji (lub obserwator) jest obowiązkowym uczestnikiem sytuacji wyrażanych czasownikami sprawczymi: wyrazić, pokazać (pokazał mi swoje usposobienie); podświetlanie, ujawnianie, cieniowanie, podświetlanie, przechwytywanie, zaciemnianie, eksponowanie, wyznaczanie (obramowania), otwieranie, zaznaczanie, wyświetlanie; i ich dekauzatywów (wyrażaj, ujawniaj, wyróżniaj się, odciskaj, eksponuj, identyfikuj, otwieraj).

4. Istnieje wiele czasowników opisujących identyfikację, która wymaga udziału zmysłów: identyfikować, odróżniać, rozpoznawać, odróżniać, identyfikować, odróżniać (obrysy), rozpoznawać, analizować (bo drugiej litery nie rozpoznaję).

5. Wiele czasowników zawiera składnik percepcyjny, ale oznaczają one bardzo konkretną czynność lub czynność, dla której głównym celem jest cel, a nie udział percepcji w jego osiągnięciu: sprawdzać („sprawdzać”), rejestrować, szukać, szukać, znaleźć, szukać, badać, przedstawiać, opisywać, tropić, tropić, wytropić, strzec, obserwować, prześwitywać, ukrywać się (sya), ukrywać się, szpiegować.

6. Każdy czasownik przekazywania i odbierania informacji, na przykład pisać lub czytać, implikuje obecność sygnału, który musi być postrzegany przez zmysły.

7. Czasowniki pokazać i ukryć, ponieważ ich interpretacja zawiera składnik percepcyjny, można również przypisać czasownikom percepcji.

8. Do czasowników percepcji zaliczamy m.in. oślepnąć – oślepnąć (i oślepnąć w jednym ze znaczeń). Opisują utratę narządu wzroku, w wyniku której zdolność widzenia zostaje utracona na zawsze. Nie obejmuje to jednak czasownika obudzić się, który oznacza chwilową utratę zdolności postrzegania wraz z jej późniejszym powrotem.

9. Niektóre stylistycznie pokolorowane czasowniki percepcji: gapić się, patrzeć, kreskować, patrzeć, patrzeć, widzieć, łapać, świecić.

10. Klasyfikacja tematyczna skupia się na pierwotnych znaczeniach słów. Tymczasem wiele czasowników ma znaczenie percepcyjne jako pochodne; w szczególności patrzeć, stawić czoła (z problemem), wnikać (w tajemnicę), mówić. Na przykład Białe budynki nagle wynurzyły się z ciemności.

11. Inne podobne słowa, w których znaczenie percepcji jest pochodne lub zdeterminowane kontekstowo, takie jak rzut (patrz, patrz), pośpiech (w oczach), płać (patrz, uwaga), biegnij (oczami), spojrzenie), przesuń (z spojrzeniem).

12. Czasowniki o zaznaczonych sposobach działania:

a) wprowadzający: krzyż, zmień kolor na biały, dźwięk;

b) zwieńczenie: oglądaj, słuchaj i podglądaj, podsłuchuj;

c) nasycające: wystarczająco dużo widzieć, podziwiać, wystarczająco słyszeć;

d) czasowniki całkowitego pochłonięcia czynnością: gapić się – patrzeć, patrzeć – patrzeć;

e) szczególnie produktywne: wypatrywać - wypatrywać, wytropić - wytropić, wytropić - wytropić;

e) przerywany środek zmiękczający: patrzeć, podążać; semifactible: patrz.

Czasowniki percepcji, podobnie jak inne klasy tematyczne, mają własne modele derywacji semantycznej właściwe tej klasie.

13. Charakterystyczne jest przejście semantyczne - od percepcji do znaczenia mentalnego. Pochodne znaczenie mentalne rozwija się na przykład w czasownikach: widzieć, patrzeć, zauważać, rozważać (jako wskazówkę; rozważamy twoją propozycję), czuć, wydawać, odkrywać, słyszeć, wyobrażać sobie, spotykać, podążać, wydawać; przedstawić się, zobaczyć się nawzajem (ta sama niejednoznaczność co do wyglądu rzeczownika):

a) Z kontuaru miał dobry widok na ganek klubu (znaczenie wizualne);

b) tak to widzę (w sensie psychicznym).

14. Czasownik zeznania etymologicznie sugeruje wizję, ale w kontekście To wskazuje na jego niezwykły talent, ma znaczenie mentalne; rzucić światło oznacza „czynić bardziej zrozumiałym”, chociaż światło jest potrzebne, aby widzieć. Czasownik przewidywania całkowicie stracił składnik związany z percepcją smaku i stał się mentalny.

15. Pochodne znaczenie mentalne występuje również w czasownikach sprawczych. Tak więc pokazywać to czasownik percepcji, ale może również mieć znaczenie „udowodnić”, mentalny. Ciekawe, że wśród derywatów patrz znajdują się zarówno czasowniki wiedzy, jak i czasowniki opinii:

a) Widzę, że milczysz (wiedza);

b) widzi w tym przeszkodę (opinia).

16. Czasownik być łączy w sobie znaczenie percepcyjne (Nie było go) z mentalnym (Okazało się, że jest zdrowy).

17. Pochodne znaczenie mowy rozwija czasownik do zauważenia; objawia się w połączeniu z przysłówkami: poprawnie zauważyłeś („powiedziałeś to dobrze”).

18. Czasowniki słuchać, słuchać, słuchać, uważać charakteryzują się dwuznacznością „postrzegać” - „posłuszeństwo”.

19. Regularne, czyli powtarzalne, jest też przejście semantyczne look ® relacjonować: patrzę na to po prostu (po prostu relacjonuję); patrzeć przez palce (pobłażać); pomimo (niezależnie od).

20. Polisemia patrzeć ® odnoszą się jest charakterystyczna dla czasownika patrzeć z boku: a) (patrzyć z boku, z boku); b) (patrz krzywo, bądź podejrzliwy, wyrażaj podejrzliwe nastawienie spojrzeniem).

21. Przejście do zobaczenia ® do posiadania jest reprezentowane przez przykłady znajdowania, przegrywania.

22. Przejście od percepcji do kontaktu międzyludzkiego jest zapisane w czasownikach: spotkać się, spojrzeć (w światło), zobaczyć.

23. Sens widzenia może zniknąć do idei prostego kontaktu z przedmiotem, czyli pozostawania w tym samym miejscu (Te mury widziały dużo; Krym zawsze będzie się cieszył, że cię zobaczy).

24. Czasowniki pojawiające się i znikające charakteryzują się dwuznacznością: być widocznym - istnieć. Podobna niejasność dotyczy wyznaczenia - wyznaczenia; zgubić się: na przykład Ścieżka zgubiła się w krzakach (przestała być widoczna), a Żywotność ruchów stopniowo zatraciła się (przestała istnieć); doskonały widok ma otchłań (chociaż niedoskonały widok zniknąć oznacza tylko nie być widocznym: gdzie byłeś?). W języku matematycznym, jeśli X istnieje, to X istnieje.

25. Semantyczne pojęcie percepcji często współistnieje z ruchem: zderzają się, potykają, wpadają, wpadają; zostać złapanym (mam borowika).

Konsekwencją ruchu może być wręcz wyjście z pola widzenia, jak w ukryciu, ucieczce, zranieniu.

Co ciekawe, dla czasowników wyrażających główne typy percepcji - wzrok, słuch, węch, dotyk, smak - można zidentyfikować jeden paradygmat semantycznych pochodnych oryginalnego leksemu i będzie on zasadniczo taki sam dla wielu języków, co wskazuje starożytność tego słownictwa i struktur danych.

Niezbędny w tym podejściu jest pomysł podziału pojęć językowych na pewne grupy semantyczne, z uwzględnieniem faktu, że pojęcia te mają pewien nietrywialny wspólny składnik semantyczny. Elementy takich grup mają tendencję do posiadania tego samego zestawu pojęć zależnych. Aby wspierać analizę semantyczną, słownik musi operować znaczeniami, a zatem opisywać właściwości i relacje pojęć, a nie słów. Pozostaje pytanie, jak właściwie ustrukturyzować i zaprezentować informacje w takich słownikach, aby ich przeszukiwanie było wygodne i szybkie, a dodatkowo możliwe było uwzględnienie zmian w języku naturalnym (zanikanie starych i pojawianie się nowych pojęć) .

Omawiając problemy semantyki często wspomina się o zasadzie kompozycyjności. Twierdzi, że o znaczeniu wyrażenia złożonego decydują znaczenia jego części składowych oraz reguły stosowane do ich łączenia. Ponieważ zdanie składa się ze słów, okazuje się, że jego znaczenie może być reprezentowane przez zbiór znaczeń zawartych w nim słów. Ale nie wszystko jest takie proste. Znaczenie zdania zależy również od kolejności wyrazów, frazowania i relacji między wyrazami w zdaniu, czyli uwzględnia składnię.

Jak widać, diagramy zależności pojęciowych pozwalają stwierdzić, że w niektórych przypadkach dochodzi do naruszenia zasady kompozycyjności. Błędem jest twierdzenie, że znaczenie fraz i fraz można wyrazić poprzez znaczenie ich słów składowych. Nie zawsze tak jest. Jednak głównym problemem tego podejścia jest to, że dobór zajęć tematycznych i zestawienie słowników semantycznych jest procesem niezwykle czasochłonnym, silnie uzależnionym od indywidualnego postrzegania i interpretacji pojęć przez konkretną osobę.

Sieciowe modele reprezentacji wiedzy

Tezaurusy, sieci semantyczne, modele ramowe i ontologiczne

Tezaurus jest rodzajem słownika słownictwa ogólnego lub specjalnego, który wskazuje na związki semantyczne między jednostkami leksykalnymi. W przeciwieństwie do słownika objaśniającego, tezaurus umożliwia ujawnienie znaczenia nie tylko za pomocą definicji, ale także poprzez skorelowanie słowa z innymi pojęciami i ich grupami, dzięki czemu może być wykorzystany do wypełnienia baz wiedzy systemów sztucznej inteligencji.

Tezaurusy często używają następujących głównych relacji semantycznych: synonimy, antonimy, hiponimy, hipernimy, meronimy, holonimy i paronimy.

Synonimy - słowa tej samej części mowy, różne pod względem brzmienia i pisowni, ale mające podobne znaczenie leksykalne (odważny - odważny, nieustraszony).

Antonimy to słowa jednej części mowy, różniące się dźwiękiem i pisownią, mające bezpośrednio przeciwstawne znaczenia leksykalne (dobry - zło).

Hiponim to pojęcie wyrażające określony byt w odniesieniu do innego, bardziej ogólnego pojęcia (zwierzę - pies - buldog).

Hypernym - słowo o szerszym znaczeniu, wyrażające pojęcie ogólne, rodzajowe, nazwę klasy przedmiotów, właściwości lub cech (buldog - pies - zwierzę).

Hipernim jest wynikiem operacji uogólniania logicznego, a hiponim jest ograniczeniem.

Meronym - koncepcja będąca integralną częścią drugiego (samochód - silnik, koło, maska).

Holonim to pojęcie, które jest ponad innymi pojęciami (silnik, koło, maska ​​– samochód).

Meronimia i holonimia jako relacje semantyczne są wzajemnie odwrotne, podobnie jak hiponimia i hiperonimia.

Paronimy to słowa, które są podobne w formie, ale różnią się znaczeniem (indyjski - indyjski).

Przykładem tezaurusa jest WordNet. Podstawową jednostką słownictwa WordNet jest seria synonimiczna (synset), która łączy słowa o podobnym znaczeniu. Synsety składają się ze słów należących do tej samej części mowy co oryginalne słowo. Każdemu synsetowi towarzyszy krótkie sformułowanie (definicja) wyjaśniające jego znaczenie. Synsety są połączone różnymi relacjami semantycznymi, na przykład hiponimią, hipernimią itp. Przykład ze słowem pióro (pióro) pokazano na rysunku 1. Można zauważyć, że w słowniku istnieje pięć różnych znaczeń tego słowa, to należy do kategorii przyborów do pisania i ma siedem powiązanych słów: ołówek, marker, kreda tablicowa, kredka woskowa itp.

WordNet zawiera około 155 000 różnych leksemów i fraz, zorganizowanych w 117 000 synsetów. Cała baza danych podzielona jest na trzy części: rzeczowniki, czasowniki i przymiotniki/przysłówki. Słowo lub fraza może należeć do więcej niż jednego synzetu i należeć do więcej niż jednej kategorii części mowy. Bardziej szczegółowe informacje na temat liczby unikalnych słów, synsetów i par słowo-synset w bazie danych WordNet podano w tabeli 1.

Przewagą WordNetu nad innymi podobnymi zasobami jest jego otwartość, dostępność, dostępność duża liczba różne związki semantyczne między synsetami. WordNet jest dostępny bezpośrednio za pomocą przeglądarki (lokalnie lub przez Internet) lub bibliotek C.

Istnieją implementacje WordNet dla innych języków (około 16). Na przykład EuroWordNet został stworzony dla języków europejskich, których połączenie między różnymi wersjami językowymi odbywa się za pomocą specjalnego indeksu międzyjęzykowego. WordNet jest również rozwijany dla języka rosyjskiego. Należy zauważyć, że istnieją metody klasyfikacji podmiotowej synsetów WordNet, czyli definiowania obszarów wiedzy, w których są one wykorzystywane. Takie informacje można następnie wykorzystać do zmniejszenia liczby możliwa wartość słowa, jeśli znany jest temat przetwarzanego dokumentu, co pozwala na zmniejszenie wartości błędu przy przyjmowaniu błędnego znaczenia słowa.

Sieć semantyczna to model domeny, który wygląda jak skierowany graf, którego wierzchołki odpowiadają obiektom domeny, a łuki (krawędzie) definiują relacje między nimi. Obiektami mogą być koncepcje, zdarzenia, właściwości, procesy. W ten sposób sieć semantyczna odzwierciedla semantykę obszaru tematycznego w postaci pojęć i relacji. Co więcej, jako pojęcia mogą istnieć zarówno instancje obiektów, jak i ich zbiory.

Sieci semantyczne powstały jako próba wizualizacji formuł matematycznych. Za wizualną reprezentacją sieci semantycznej w postaci grafu stoi model matematyczny, w którym każdy wierzchołek odpowiada elementowi zbioru podmiotowego, a łuk odpowiada predykatowi. Rysunek 2 pokazuje przykład sieci semantycznej zaczerpnięty z Wikipedii.

Terminologia stosowana w tym obszarze jest zróżnicowana. Aby osiągnąć pewną jednorodność, węzły połączone łukami nazywa się zwykle grafami, a strukturę, w której znajduje się całe gniazdo węzłów lub gdzie istnieją relacje różnych rzędów między grafami, nazywa się siecią. Oprócz terminologii użytej do wyjaśnienia, różne są również sposoby przedstawiania. Niektórzy używają kółek zamiast prostokątów; niektórzy piszą typy relacji powyżej lub poniżej łuków, zamykając lub nie zamykając ich w owalach; niektórzy używają skrótów, takich jak O lub A, na oznaczenie agenta lub przedmiotu; niektórzy używają różnych rodzajów strzał.

Pierwsze sieci semantyczne zostały opracowane jako język pośredniczący dla systemów tłumaczenia maszynowego. Najnowsze wersje sieci semantycznych stają się coraz bardziej zaawansowane i elastyczne i konkurują z systemami ramek, programowaniem logicznym i innymi językami reprezentacji wiedzy.

Pomimo różnej terminologii, różnorodności metod przedstawiania kwantyfikatorów ogólności i istnienia oraz operatorów logicznych, różnych sposobów manipulowania sieciami i reguł wnioskowania, można wyróżnić znaczące podobieństwa tkwiące w prawie wszystkich sieciach semantycznych:

– węzły sieci semantycznych to pojęcia obiektów, zdarzeń, stanów;

– różne węzły tego samego pojęcia odnoszą się do różnych wartości, chyba że są oznaczone jako należące do tego samego pojęcia;

– łuki sieci semantycznych tworzą relacje między węzłami pojęciowymi, znaki nad łukami wskazują rodzaj relacji;

- niektóre relacje między pojęciami to role semantyczne, takie jak „agent”, „obiekt”, „odbiorca” i „instrument”; inne oznaczają relacje czasowe, przestrzenne, logiczne i relacje między poszczególnymi zdaniami;

– pojęcia są uporządkowane według poziomów zgodnie ze stopniem uogólnienia, podobnie jak w hierarchii hipernimów w WordNet, np. encja ® istota żywa ® zwierzę ® mięsożerca.

Zwróć uwagę, że wśród relacji semantycznych używanych do opisu sieci mogą występować nie tylko relacje semantyczne używane w tezaurusach, ale także inne typy relacji: funkcjonalne (zwykle definiowane przez czasowniki produkuje, wpływa, ...), ilościowe (większe niż, mniejszy niż, równy...), przestrzenny (daleko, blisko, pod, nad...), czasowy (wcześniej, później, w trakcie...), atrybutywny (mieć własność, mieć wartość), logiczne (AND, OR, NOT) itp.

Na przykład semantykę zdania Iwanow ma czarne BMW można przedstawić jako sieć semantyczną pokazaną na rysunku 3.

Pomimo pewnych różnic, sieci są wygodne do odczytywania i przetwarzania przez komputer, są wizualnym i dość uniwersalnym sposobem przedstawiania semantyki języka naturalnego. Jednak ich sformalizowanie w konkretnych modelach reprezentacji, wykorzystania i modyfikacji wiedzy okazuje się dość pracochłonne, zwłaszcza w obecności wielorakich relacji między jej elementami.

Rozważmy na przykład jakąś sieć opisującą zdanie, które Nastya poprosiła Dashę o książkę. Załóżmy, że możesz przypisać właściwości danym obiektom: Nastya - „pracowity”, Dasha - „dociekliwy”. Istnieje związek między tymi przedmiotami (poprzez książkę). Ale oprócz niej istnieje wiele innych powiązań, które istnieją w prawdziwym świecie: status społeczny (studenci, dziewczyny - niekoniecznie między sobą), relacje rodzinne (każdy ma rodziców i / lub innych krewnych) itp. Okazuje się, że nawet dla tak prostego przykładu sieć może urosnąć do sporych rozmiarów i w efekcie poszukiwanie w niej wyjścia będzie zbyt trudne.

W złożonych sieciach semantycznych, które zawierają wiele pojęć, proces aktualizacji węzłów i kontrolowania powiązań między nimi, jak widać, komplikuje procedurę przetwarzania informacji. Chęć wyeliminowania tych niedociągnięć doprowadziła do pojawienia się specjalnych typów sieci semantycznych, takich jak modele ramowe.

Ramowe modele reprezentacji wiedzy zaproponował M. Minsky.

Rama to struktura opisująca pojęcie lub sytuację, składająca się z cech charakterystycznych tej sytuacji i ich wartości. Rama może być postrzegana jako fragment sieci semantycznej zaprojektowanej do opisywania pojęć z całokształtem ich immanentnych właściwości. Cechą modeli ramek reprezentacji wiedzy jest to, że wszystkie koncepcje opisane w każdym z węzłów modelu są określone przez zestaw atrybutów i ich wartości, które są zawarte w szczelinach ramek.< имя фрейма, слот 1, слот 2, …, слот N >. Graficznie wygląda to podobnie do sieci semantycznej, ale podstawową różnicą jest to, że każdy węzeł w modelu ramki ma uogólnioną strukturę składającą się z wielu szczelin, z których każdy ma nazwę, wskaźnik dziedziczenia, wskaźnik typu danych i wartość .

Szczelina jest atrybutem powiązanym z węzłem w modelu opartym na ramce i jest częścią ramki. Nazwa boksu musi być unikalna w obrębie ramki. Wskaźnik dziedziczenia wskazuje, jakie informacje o atrybucie boksu w ramce najwyższego poziomu są dziedziczone przez sloty o tej samej nazwie w ramce niższego poziomu. Wskaźnik typu danych zawiera informacje o typie danych zawartych w gnieździe. Powszechnie używane są następujące typy danych: wskaźnik do nazwy ramki najwyższego poziomu, liczba rzeczywista, liczba całkowita, tekst, lista, tabela, dołączona procedura itd. Wartość slotu może być instancją atrybutu, inną ramką lub aspektem i musi być zgodny z określonym typem danych i dziedziczeniem warunku. Oprócz określonej wartości gniazdo może przechowywać procedury i reguły wywoływane, gdy konieczne jest obliczenie tej wartości. Zatem slot może zawierać nie tylko konkretną wartość, ale także nazwę procedury pozwalającej na jej obliczenie według danego algorytmu, a także jedną lub więcej produkcji, za pomocą których ta wartość jest określana. Slot może zawierać więcej niż jedną wartość. Czasami ten slot zawiera komponent zwany aspektem, który określa zakres lub listę możliwych wartości. Aspekt określa również wartości graniczne symbolu zastępczego gniazda. Najczęściej procedury dodawania i usuwania informacji są powiązane ze slotami, mogą monitorować przypisanie informacji do danego węzła i sprawdzać, czy podejmowane są odpowiednie akcje w przypadku zmiany wartości.

W bazie wiedzy przechowywane są przykładowe ramki (prototypy) oraz ramki instancji, które są tworzone w celu wyświetlania rzeczywistych sytuacji na podstawie przychodzących danych. Modele ramowe są dość uniwersalne, ponieważ pozwalają odzwierciedlić całą różnorodność wiedzy o świecie poprzez ramy strukturalne (do oznaczenia przedmiotów i pojęć: pożyczka, zastaw, weksel), ramy ról (kierownik, kasjer, klient), ramy scenariuszowe (upadłość , spotkania wspólników, imieniny), ramki sytuacyjne (alarm, wypadek, tryb pracy urządzenia) itp. Do reprezentacji wiedzy w postaci sieci ramek służą specjalne języki i narzędzia programowe: FRL (Frame Representation Language ), KRL (Knowledge Representation Language), shell shell Kappa, PILOT/2 i inne.

Najważniejszą właściwością teorii ram jest dziedziczenie właściwości zapożyczonych z teorii sieci semantycznych. Zarówno w ramkach, jak i sieciach semantycznych dziedziczenie odbywa się zgodnie z ISA. Slot ISA wskazuje na ramkę o wyższym poziomie hierarchii, z której wartości podobnych slotów są niejawnie dziedziczone, czyli przenoszone.

Główną zaletą ram jako wzorca reprezentacji wiedzy jest ich zgodność ze współczesnymi wyobrażeniami o organizacji pamięci długotrwałej osoby, a także jej elastyczność i widoczność. Zalety ramowych modeli reprezentacji wiedzy uwidaczniają się, jeśli relacje rodzajowe zmieniają się rzadko, a obszar tematyczny ma niewiele wyjątków.

Do wad modeli ramowych należy zaliczyć ich stosunkowo dużą złożoność, która przejawia się spadkiem szybkości mechanizmu wnioskowania oraz wzrostem złożoności dokonywania zmian w generowanej hierarchii. Dlatego przy opracowywaniu systemów ramek wiele uwagi poświęca się metodom wizualizacji i efektywnym sposobom edycji struktur ramek.

Widać, że podejście obiektowe jest ewolucją reprezentacji ramowej. W tym przypadku szablon ramki można traktować jako klasę, a instancję ramki jako obiekt. Obiektowe języki programowania dostarczają narzędzi do tworzenia klas i obiektów, a także narzędzi do opisywania procedur (metod) przetwarzania obiektów. Jednak modele ramowe nie pozwalają na zorganizowanie elastycznego mechanizmu wnioskowania, więc systemy ramek są albo obiektowymi bazami danych, albo wymagają integracji z innymi narzędziami przetwarzania wiedzy, takimi jak modele logiczne.

W inżynierii wiedzy model ontologiczny rozumiany jest jako szczegółowy opis jakiegoś przedmiotu lub obszaru problemowego, który służy do formułowania ogólnych stwierdzeń. Ontologie umożliwiają przedstawienie pojęć w formie odpowiedniej do obróbki maszynowej.

W centrum większości ontologii znajdują się zajęcia opisujące koncepcje danego obszaru tematycznego. Atrybuty opisują właściwości klas i instancji. Istnieją analogie z ramowym podejściem do formalizacji wiedzy. Wiele koncepcji i zasad implementacji, a także graficzna forma reprezentacji na początkowym etapie strukturalizacji, jest podobnych w ontologiach do sieci semantycznych. Główną różnicą jest orientacja ontologii do bezpośredniego wykorzystania przez komputer, to znaczy, że struktury danych nie są opisane w języku naturalnym (jak to jest zwyczajowo w sieciach semantycznych i tezaurusach), ale w specjalnym języku formalnym. Ontologie również mają wiele wspólnego z tezaurusami. Ale w przeciwieństwie do nich, dla modeli ontologicznych niezbędne wymagania to wewnętrzna kompletność, logiczne powiązanie i spójność stosowanych pojęć. W tezaurusach te wymagania mogą nie być spełnione. Ontologie są opisywane przy użyciu takich języków formalnych jak RDF, OWL, KIF, CycL, OCML i innych.

Zwykle wyróżnia się następujące główne elementy ontologii:

- instancje;

– klasy obiektów (pojęcia);

– atrybuty (opisać właściwości klas i instancji);

– funkcje (opisać zależności między klasami i instancjami);

– aksjomaty (dodatkowe ograniczenia).

Wyspecjalizowane (przedmiotowe) ontologie są reprezentacją pewnego obszaru wiedzy lub części świata rzeczywistego. Taka ontologia zawiera specjalne znaczenia terminów dla tego obszaru. Na przykład słowo pole w rolnictwie oznacza kawałek ziemi, w fizyce - jeden z rodzajów materii, w matematyce - klasę systemów algebraicznych.

Ogólne ontologie są używane do reprezentowania pojęć, które są wspólne dla wielu dziedzin. Takie ontologie zawierają podstawowy zestaw terminów, glosariusz lub tezaurus używany do opisu terminów dziedzinowych.

Współczesne modele ontologiczne są modułowe, to znaczy składają się z zestawu połączonych ze sobą ontologii, z których każda opisuje odrębny obszar tematyczny lub zadanie. Modele ontologiczne nie są statyczne, podlegają ciągłym zmianom.

Jeśli system wykorzystujący wyspecjalizowane ontologie ewoluuje, może być konieczne połączenie tych ontologii. Główną wadą modeli ontologicznych jest złożoność ich łączenia. Ontologie nawet bliskich dziedzin mogą być ze sobą niekompatybilne. Różnica może wynikać ze specyfiki lokalnej kultury, ideologii lub ze względu na użycie innego języka opisu. Ontologie są łączone zarówno ręcznie, jak i półautomatycznie. Generalnie jest to pracochłonny, powolny i kosztowny proces.

Modele ontologiczne są szeroko stosowane w systemach opartych na wiedzy: systemach eksperckich i systemach wspomagania decyzji. Ciekawy sposób przedstawiania wiedzy o czasie, uwzględniający niepewność w ontologiach, został opisany w pracy A.F. Tuzowskiego.

Obecnie technologie Semantic Web są dość obiecujące i szeroko stosowane w praktyce technologie reprezentacji wiedzy. Centralnym pojęciem Sieci Semantycznej jest ontologia - model domeny składający się ze zbioru pojęć, zbioru instancji pojęć i zbioru relacji (właściwości). Zbiór pojęć i relacji między nimi określa ogólny schemat przechowywania danych, reprezentowanych jako zbiór zdań o wystąpieniach pojęć lub aksjomatów ontologicznych. Takie proste zdania, zwane trójkami, mają postać „podmiot-orzeczenie-przedmiot”. Zbiór reguł określonych przez użytkownika jest ładowany do systemu wnioskowania, który na podstawie stwierdzeń zawartych w ontologii tworzy zgodnie z tymi regułami nowe instancje pojęć i relacji ontologicznych.

Jednym z najistotniejszych problemów zarówno dla reprezentacji wiedzy w kontekście czasu, jak i dla reprezentacji wiedzy w ogóle, jest reprezentacja wiedzy o czasie io zmianach wiedzy w czasie. Jednak większość języków opisu wiedzy stosowanych w praktyce opiera się na logice predykatów pierwszego rzędu i wykorzystuje relacje jednoargumentowe lub binarne. Przykładami takich języków są OWL i RDF. W tym przypadku do opisu relacji binarnych z uwzględnieniem czasu wymagane jest wprowadzenie do relacji dodatkowego parametru odpowiadającego czasowi. Jednocześnie relacje binarne zamieniają się w trójskładnikowe i wykraczają poza opisowe możliwości języka.

Kolejnym ważnym zadaniem jest opisanie wiedzy o czasie z uwzględnieniem możliwej niekompletności tej wiedzy. Na przykład opis stwierdzeń typu: „zdarzenie A wydarzy się kiedyś w przyszłości”. Zadanie to jest zwykle rozwiązywane w ramach modalnych logik temporalnych, takich jak LTL, przy użyciu określonych operatorów modalnych. Ale, ponieważ język opisu wiedzy OWL jest oparty na logice opisowej, niemożliwe staje się użycie takiego rozwiązania dla ontologii OWL.

W swojej pracy A.F. Tuzovsky proponuje przedstawienie modelu opisu wiedzy o czasie w postaci:

< TU, VU, TP, F, Rul >, gdzie

1) TU jest zbiorem razy TU = (T È (tØ)), gdzie T jest zbiorem uporządkowanym liniowo o liczności kontinuum, na którym dana jest operacja odejmowania binarnego T ´ T ® R+, a tØ jest specjalnym element odpowiadający „czasowi nieokreślonemu”;

2) VU - zbiór zmiennych oznaczających elementy zbioru TU oraz zmienną specjalną tN odpowiadającą aktualnemu momentowi w czasie; wartość zmiennej tN stale się zmienia, odzwierciedlając przebieg czasu w jakimś systemie, aby opisać kontekst czasowy, w którym stosuje się proponowane podejście;

3) TP to zbiór przedziałów czasowych; przedział czasu odpowiada parze uporządkowanej t =< ti1, ti2 >, gdzie ti1 i ti2 są elementami VU takimi, że ((ti1 £ ti2) u (ti1 ¹ tØ) u (ti2 ¹ tØ)) Ú (ti1 = tØ) Ú
(ti2 = tØ); w ten sposób przedział czasu odpowiada pewnemu odcinkowi na skali czasu, a jego granicą może być pewien moment czasu, aktualny moment czasu (zmienna tN) lub nieokreślony moment czasu tØ, natomiast przedział czasu o pokrywających się granicach (ti1 = ti2) odpowiada pewnemu momentowi czasu;

4) F to zbiór predykatów opisujących właściwości przedziałów czasowych, a także jakościowe relacje między nimi;

5) Rul - zbiór reguł postaci (G ® H) i (G « H), opisujących podstawowe mechanizmy wnioskowania logicznego, w tym ograniczenia wartości predykatów F, a także określoność granice przedziałów czasowych.

Pojęcie przedziału czasowego jest wymagane do opisania pewnych przedziałów czasowych, których dokładne granice są nieznane, dopóki nie nastąpi określony stan modelu. Można powiedzieć, że każdy przedział czasu opisuje pewien przedział czasu, którego dokładne granice nie są jeszcze znane. W takim przypadku mogą być dostępne informacje o granicach, w których gwarantowana jest lokalizacja tego przedziału w skali czasu, a dokładne granice przedziału opisanego przez przedział czasu mogą stać się znane w przyszłości. W związku z tym wprowadzono dwa rodzaje granic przedziałów czasowych: dokładne i gwarantowane. Aby zdefiniować dwa rodzaje granic, używane są predykaty EL (dokładnie po lewej), ER (dokładnie po prawej), GL (gwarancja po lewej) i GR (gwarancja po prawej), które definiują odpowiednio dokładną lewą/prawą i gwarantowaną lewą/prawą granicę przedziału czasowego . Na przykład predykat EL (ti , ti1) odpowiada stwierdzeniu „dokładna lewa granica przedziału ti jest czasem ti1”. Dla uproszczenia rodzaj granicy przedziału czasu można oznaczyć za pomocą różnych nawiasów: przedział jest całkowicie zdefiniowany (obie jego granice są dokładne); interwał .

Agent jest animatorem i kontrolerem akcji.

Adresat – odbiorca wiadomości (może być połączony z Beneficjentem).

Beneficjent (Odbiorca, Posiadacz) – uczestnik, na którego interesy pośrednio wpływa proces zaistniałej sytuacji (otrzymuje korzyść lub szkodę).

Instrument jest bodźcem emocjonalnym lub uczestnikiem, z którym przeprowadzana jest akcja.

Źródło – miejsce, z którego wykonywany jest ruch.

Przeciwdziałanie - siła lub oporne środowisko, przeciwko któremu prowadzona jest akcja.

Obiekt to uczestnik, który porusza się lub zmienia podczas wydarzenia.

Pacjent to uczestnik przechodzący istotne zmiany.

Wynik - uczestnik, który pojawia się w wyniku zdarzenia.

Bodziec - przyczyna zewnętrzna lub obiekt, który powoduje ten stan.

Celem jest miejsce, do którego wykonywany jest ruch.

Doświadczający - uczestnik, który doświadcza stanu wewnętrznego, który nie prowadzi do zmian zewnętrznych (nosiciel uczuć i spostrzeżeń).

Efektor to uczestnik nieożywiony, często naturalna siła, która powoduje zmianę stanu Pacjenta.

W zależności od liczby argumentów i ich właściwości semantycznych zbiór leksemów werbalnych można podzielić na klasy. Rozważmy na przykład następujące rodzaje ról czasowników: czasowniki wywierające wpływ fizyczny (siekać, piłować, ciąć); czasowniki percepcji (widzieć, słyszeć, czuć); czasowniki trybu mówienia (krzyczeć, szeptać, mamrotać). W ramach każdej klasy istnieje bardziej precyzyjny podział. Wśród czasowników wpływu fizycznego, czasowniki formy czasownika (Agens, Tool, Object) mają podobną strukturę semantyczną predykatowo-argumentową: break – break, bend – bend, fold – bend, shatter – rozbić na strzępy, crack – split, itd. Kolejna struktura predykatowo-argumentowa typowa dla czasowników typu czasownikowego (Agens, Tool, Purpose): uderzenie - uderzenie, uderzenie - uderzenie, uderzenie - uderzenie, bump - uderzenie (o czymś), uderzenie - uderzenie itp.

Widać, że istnieją korelacje między przypadkami morfologicznymi, przyimkami, rolami syntaktycznymi z jednej strony a rolami semantycznymi z drugiej, np. cięcie nożem, praca z Janem, spryskiwanie farbą. Ponadto należy wziąć pod uwagę, że jeden wyraz predykatowy nie może mieć dwóch aktantów o tej samej roli semantycznej. Różnice w zestawach ról dotyczą głównie peryferyjnych ról semantycznych (Wykonawca, Bodziec, Źródło) lub sprowadzają się do scalania/fragmentacji ról podstawowych (Agent vs Agent i Efektor; Adresat vs Adresat, Odbiorca i Beneficjent; Pacjent/Temat/Przedmiot w porównaniu z pacjentem, tematem i wynikiem).

W swojej pracy C. Fillmore zaproponował nawet zasadę pośredniego mapowania ról semantycznych na syntaktyczne: jeśli wśród argumentów jest Agent, staje się on podmiotem; w przypadku braku Agenta, jeśli istnieje Instrument, staje się on przedmiotem; w przypadku braku Agenta i Instrumentu Przedmiot staje się przedmiotem. Z tego w naturalny sposób powstaje hierarchia ról semantycznych. Najbardziej znane semantyczne hierarchie ról to: Agent > Instrument > Pacjent; Agent > Źródło > Cel > Narzędzie > Motyw > Miejsce; Agent > Beneficjent > Doświadczający > Instrument > Temat > Miejsce i kilka innych Hierarchia ról semantycznych jest zbudowana w taki sposób, aby możliwe było odzwierciedlenie stopnia przynależności tematycznej argumentów (aktualności) tak, aby pragmatycznie najważniejsza semantyka role znajdują się na lewym końcu hierarchii, a po prawej – role semantyczne, które nie charakteryzują się dużą aktualnością.

Początkowo role semantyczne miały być traktowane jako prymitywne, niepodlegające dalszej analizie, która mogłaby ujawnić ich wewnętrzną strukturę. Jednak w tym przypadku pojawia się szereg problemów. Po pierwsze, w wyniku coraz dokładniejszej analizy semantycznej i składniowej następuje nieograniczony wzrost listy ról. Po drugie, nieustrukturyzowane listy ról nie pozwalają na przewidywanie możliwych typów ról czasowników i wyjaśniają brak typów nieatestowanych. Dlatego w teorii ról semantycznych zaproponowano zdefiniowanie ról w kategoriach cech dystynktywnych lub protoroli. Na przykład D. Doughty proponuje wyróżnić następujące właściwości protorolu Agentów: dobrowolnie zaangażowane w zdarzenie lub stan; jest świadomym i/lub postrzegającym uczestnikiem; wyzwala zdarzenie lub zmianę stanu innego uczestnika; ruchy (w stosunku do punktu w przestrzeni lub do innego uczestnika); istnieje niezależnie od zdarzenia oznaczonego czasownikiem.

Niestety w chwili obecnej nie jest możliwe ustalenie relacji jeden do jednego między rolami semantycznymi a przypadkami, czyli z funkcjonalnego punktu widzenia kategoria przypadku jest heterogeniczna. Sytuację dodatkowo komplikuje fakt, że same role są ze sobą niebanalnie powiązane, a w językach naturalnych powszechne są takie techniki generatywne, jak metafora i metonimia, które rodzą wiele nowych znaczeń i w zasadzie nie mogą być odzwierciedlone w statyczny leksykon.

Logiczne modele reprezentacji wiedzy

Główną ideą podejścia w budowaniu logicznych modeli reprezentacji wiedzy jest to, że wszystkie informacje niezbędne do rozwiązania stosowanych problemów są traktowane jako zbiór faktów i stwierdzeń, które są przedstawiane w postaci formuł w jakiejś logice. Wiedza objawia się zestawem takich formuł, a zdobywanie nowej wiedzy sprowadza się do wdrożenia procedur wnioskowania. Logiczne modele reprezentacji wiedzy oparte są na pojęciu teorii formalnej zdefiniowanej przez krotkę S =< B, F, A, R>, gdzie B jest policzalnym zbiorem podstawowych symboli (alfabetu); F to zbiór zwany formułami; A jest wyodrębnionym podzbiorem formuł a priori prawdziwych (aksjomatów); R to skończony zbiór relacji między formułami, zwany regułami wnioskowania.

Główne podejście do reprezentacji znaczenia w językoznawstwie komputerowym polega na tworzeniu reprezentacji znaczenia w sposób formalny. Reprezentację tę można nazwać językiem reprezentacji znaczeń. Język reprezentacji jest niezbędny, aby wypełnić lukę między językiem naturalnym a zdroworozsądkową wiedzą o świecie. A ponieważ język ten ma służyć do automatycznego przetwarzania tekstu i tworzenia systemów sztucznej inteligencji, konieczne jest uwzględnienie wymagań obliczeniowych przetwarzania semantycznego, takich jak konieczność ustalenia prawdziwości wypowiedzi, zachowania jednoznacznej reprezentacji , przedstawiają twierdzenia w formie kanonicznej, dostarczają logicznego wniosku i są wyraziste.

W językach naturalnych istnieje wiele różnych narzędzi służących do przekazywania znaczenia. Wśród najważniejszych jest umiejętność przekazywania struktury predykatowo-argumentowej. Biorąc pod uwagę powyższe, dochodzimy do wniosku, że logika predykatów pierwszego rzędu dobrze nadaje się jako narzędzie do reprezentowania znaczenia zdań. Z jednej strony jest stosunkowo łatwy do zrozumienia przez osobę, z drugiej strony dobrze nadaje się do przetwarzania (obliczeniowego). Za pomocą logiki pierwszego rzędu można opisać ważne klasy semantyczne, w tym zdarzenia, czas i inne kategorie. Należy jednak pamiętać, że zdania odpowiadające pojęciom takim jak przekonania i pragnienia wymagają wyrażeń zawierających operatory modalne.

Sieci semantyczne i ramki omówione w poprzedniej sekcji można rozpatrywać w kategoriach logiki predykatów pierwszego rzędu. Na przykład znaczenie zdania Mam książkę można napisać na cztery różne sposoby, używając czterech różnych języków do przedstawienia znaczenia (patrz rysunek 4, numeracja odpowiada kolejności na rysunku): 1) konceptualny diagram zależności; 2) widok na podstawie ramek; 3) sieć semantyczna; 4) rachunek predykatów pierwszego rzędu.

Chociaż wszystkie cztery z tych podejść są różne, na poziomie abstrakcyjnym reprezentują ogólnie przyjęte podstawowe oznaczenie, że reprezentacja znaczenia składa się ze struktur składających się z wielu symboli. Te symboliczne struktury odpowiadają przedmiotom i relacjom między przedmiotami. Wszystkie cztery reprezentacje składają się z symboli odpowiadających „mówcy”, „książce” i zbioru relacji oznaczających posiadanie jednego przez drugie. Co ważne, wszystkie te cztery przedstawienia pozwalają powiązać z jednej strony ekspresyjne cechy języka naturalnego, az drugiej rzeczywisty stan rzeczy na świecie.

Logiczne modele reprezentacji wiedzy mają szereg zalet. Po pierwsze, klasyczny aparat logiki matematycznej jest tu używany jako „podstawa”, której metody są dobrze zbadane i formalnie uzasadnione. Po drugie, istnieją wystarczająco wydajne procedury wyprowadzania poprawnych składniowo instrukcji. Po trzecie, takie podejście pozwala na przechowywanie tylko zbioru aksjomatów w bazach wiedzy, a całą inną wiedzę (w tym fakty i informacje o ludziach, obiektach, zdarzeniach i procesach) można uzyskać z tych aksjomatów zgodnie z regułami wnioskowania.

Język reprezentacji znaczeń, jak każdy język, ma swoją własną składnię i semantykę. Rysunek 5 przedstawia opis gramatyki bezkontekstowej dla rachunku predykatów pierwszego rzędu zaproponowanego w .

Rozważ prezentację w książce znaczenia kategorii, wydarzeń, czasu, aspektów i przekonań.

Reprezentacja kategorii. Kategoria jest rozumiana jako grupa słów, które łączy wspólna cecha, podobnie jak jest zorganizowana w tezaurusach. Słowa o semantyce podobnej do predykatów często zawierają ograniczenia wyboru, które zwykle wyrażane są w postaci kategorii semantycznych, gdzie każdy przedstawiciel kategorii posiada zestaw odpowiednich cech.

Najprostszym sposobem reprezentowania kategorii jest utworzenie predykatu jednomiejscowego dla każdej kategorii. Trudno byłoby jednak wtedy wypowiadać się na temat samych kategorii. Rozważmy następujący przykład. Załóżmy, że używając języka logiki predykatów pierwszego rzędu, należy przedstawić znaczenie zdania: „Harry Potter” jest najpopularniejszą książką dla dzieci. Oznacza to, że musisz znaleźć najczęściej występujący obiekt kategorii w postaci MostPopular (HarryPotter, ChildrensBook). Ta formuła nie jest prawdziwą formułą logiczną pierwszego rzędu, ponieważ argumenty w predykatach z definicji muszą być terminami, a nie innymi predykatami. Aby rozwiązać ten problem, wszystkie pojęcia, które są zawarte w oświadczeniu, mogą być reprezentowane jako pełnoprawne obiekty, to znaczy kategoria Książka dziecięca może być reprezentowana jako obiekt na równi z HarrymPotterem. Przynależność do takiej kategorii będzie wskazywana przez związek ISA (HarryPotter, ChildrensBook). Relacja ISA (is a) wskazuje relację między obiektami i kategoriami, do których te obiekty należą. Tę technikę można zastosować do tworzenia hierarchii kategorii. Na przykład używamy relacji AKO (Książka Dziecięca, Książka). Tutaj relacja AKO (rodzaj) oznacza włączenie jednej kategorii do drugiej. Oczywiście, dla większej wiarygodności, kategorie muszą charakteryzować się dużym zbiorem faktów, to znaczy kategorie muszą być zdefiniowane jako zbiory.

Prezentacja wydarzenia. Aby oddać znaczenie zdarzenia, wystarczy uznać je za predykat ze zbioru argumentów, które pełnią określone role i są niezbędne do opisania sytuacji. Przykłady takich predykatów podane są w pierwszej części (tam pochodzą z funkcji leksykalnych zaproponowanych przez I.A. Melchuka). Inny przykład: Rezerwacja (Słuchacz, Dzisiaj, 20:00, 2). Tutaj argumentami są obiekty takie jak osoba, restauracja, dzień, godzina oraz ilość miejsc do zarezerwowania w restauracji. W przypadku czasowników taką reprezentację można uzyskać zakładając, że argumenty odpowiadają aktantom składniowym. Z tym podejściem wiążą się cztery problemy:

– ustalenie prawidłowej liczby ról dla każdego wydarzenia;

– przedstawienie faktów dotyczących ról związanych z wydarzeniem;

– konieczność upewnienia się, że wszystkie poprawne wnioski można wyciągnąć bezpośrednio z takiej reprezentacji wydarzenia;

– konieczność zapewnienia, że ​​nie można uzyskać błędnych danych wyjściowych z reprezentacji zdarzenia.

Na przykład czasownik „jeść” może mieć od jednego do czterech aktantów, w zależności od sytuacji opisanej w zdaniu. Dlatego nie jest z góry jasne, jaka powinna być lokalizacja orzeczenia. Rzeczywiście, w rachunku predykatów pierwszego rzędu liczba argumentów musi być ustalona.

Jednym z rozwiązań jest założenie, że takie sytuacje są obsługiwane na poziomie składniowym. Możesz rozważyć oddzielne podkategorie dla każdej konfiguracji argumentów. Semantycznym analogiem tej metody jest stworzenie jak największej liczby predykatów, z których każdy będzie odpowiadał odrębnym sytuacjom. Nazwa predykatu jest taka sama, ale liczba argumentów jest inna:
Jedzenie1 (w) - zjadłem; Jedzenie2 (w, x) – zjadłem kanapkę; Jedzenie3 (w, x, y) – zjadłem kanapkę na obiad; Jedzenie4 (w, x, y, z) – zjadłem w domu kanapkę na obiad. Dlatego uważa się je za inne. Takie podejście pozwoli ominąć problem liczby argumentów, ale jest nieefektywne. Poza sugerowanymi nazwami predykatów nic ich nie łączy w jedno zdarzenie, choć ich logiczny związek jest oczywisty. Okazuje się, że niektórych powiązań logicznych nie da się uzyskać na podstawie zaproponowanych predykatów. Co więcej, będziesz musiał szukać tych logicznych połączeń w bazie wiedzy.

Problem ten można rozwiązać za pomocą postulatów semantycznych. Wiążą one wyraźnie semantykę predykatów. Na przykład: „ w, x, y, z Jedzenie4 (w, x, y, z) Þ Jedzenie3 (w, x, y).

Predykaty mogą odzwierciedlać informacje morfologiczne, składniowe i semantyczne. Przykładami takich postulatów semantycznych są formuły zawierające pewne predykaty leksykalne z sekcji pierwszej. Postulaty semantyczne zawierające cechy morfologiczne i składniowe konstrukcji wyrazów i zdań w języku rosyjskim podano w. Przykłady postulatów semantycznych, które niosą ze sobą ładunek semantyczny, znajdują się w poprzedniej sekcji.

Zauważmy, że nie należy mylić semantyki wypowiedzenia w języku naturalnym z semantyką predykatu, który wprowadzamy w celu odzwierciedlenia semantyki wypowiedzenia. Postulaty semantyczne odzwierciedlają semantykę predykatów, czyli semantyczne powiązania między wprowadzonymi predykatami.

Oczywiste jest, że takie podejście do odkrywania związków semantycznych między predykatami jest odpowiednie dla małych domen i ma problemy ze skalowalnością. Wygodniej byłoby powiedzieć, że predykaty te odnoszą się do jednego predykatu, w którym na niektórych pozycjach brakuje argumentów. W takim przypadku możesz obejść się bez semantycznych postulatów. Ale ta metoda ma również wadę. Na przykład, jeśli weźmiemy pod uwagę orzeczenie Jedzenie (w, x, y, z) i uznamy, że jedno ze słów ze zbioru (śniadanie, obiad, kolacja) powinno być obecne jako trzeci argument, to kwantyfikator istnienia dołączony do drugiego zmienna będzie oznaczać istnienie określonej żywności związanej z każdym posiłkiem, co nie jest prawdą.

Rozważmy odpowiedni przykład. Napiszmy trzy stwierdzenia (zjadłem obiad, zjadłem w domu i zjadłem kanapkę na obiad w domu) używając logiki pierwszego rzędu:

$ w, x Jedzenie (Mówca, w, Obiad, x)

$ w, x Jedzenie (Głośnik, w, x, Dom)

$ w Jedzenie (głośnik, w, obiad, dom).

Załóżmy, że konieczne jest uzyskanie trzeciej formuły z dwóch pierwszych formuł dotyczących jednego zdarzenia. Niezależne wydarzenia, w których jadłem obiad i jadłem w domu, nie pozwalają wnioskować, że jadłem obiad w domu. Podobnie jak w przypadku reprezentacji kategorii, problem ten można rozwiązać, traktując zdarzenia jako równe obiektom, tak aby można je było skwantyfikować i powiązać z innymi obiektami za pomocą zbiorów danych relacji. Teraz, zgodnie z tym podejściem, uzyskamy następujący pogląd.

Na propozycję zjadłem obiad

$ w ISA (nie, Jedzenie) Ù Zjadacz (z, Mówca) Ù Zjadacz (z, Obiad).

Za zdanie, które zjadłem w domu

$ w ISA (w, Jedzenie) Ù Zjadacz (w, Głośnik) Ù Miejsce (w, Dom).

Na propozycję zjadłam w domu kanapkę na obiad

$ w ISA (bez, Jedzenie) Ù Zjadacz (z, Mówca) Ù Zjadany (z, Kanapka) Ù Zjedzony Posiłek (z, Obiad) Ù Miejsce (z, Dom)

Przedstawione podejście pozwala pozbyć się konieczności określania stałej liczby argumentów w predykacie, niezależnie od ról i innych aktorów. Nie ma innych ról, które nie są wymienione w zdaniu, a powiązania logiczne między predykatami powiązanymi semantycznie nie wymagają użycia postulatów semantycznych.

Reprezentacja czasu. Logika temporalna służy do opisu sekwencji zdarzeń i ich relacji w skali czasu. W językach naturalnych takim narzędziem jest czas czasownika. Możemy uznać, że jedno zdarzenie poprzedza drugie, jeśli upływ czasu prowadzi od pierwszego zdarzenia do drugiego. Z tego powstają znane pojęcia przeszłości, teraźniejszości i przyszłości.

Logika temporalna używa dwóch rodzajów operatorów: logicznego i modalnego. Jako operatory logiczne stosowane są zwykłe operatory logiki rachunku zdań: koniunkcja, alternatywa, negacja i implikacja. Operatory modalne są zdefiniowane w następujący sposób.

N j - Dalej: j musi być prawdziwe w stanie następującym bezpośrednio po danych.

F j - Przyszłość: j musi stać się prawdziwe w co najmniej jednym stanie w przyszłości.

G j - Globalnie: j musi być prawdziwe we wszystkich przyszłych stanach.

A j - All: j musi działać na wszystkich gałęziach, począwszy od tej.

E j - Exists: istnieje co najmniej jedna gałąź, na której działa j.

j U y - Do (silne): y musi zostać wykonane w pewnym stanie w przyszłości (być może w obecnym stanie), właściwość j musi zostać wykonana we wszystkich stanach aż do (nie licząc) wyznaczonego.

j R y - Zwolnij: j zwalnia y, jeśli y jest prawdziwe, aż do momentu, w którym j staje się prawdziwe po raz pierwszy (lub zawsze, jeśli nie). W przeciwnym razie j musi stać się prawdziwe przynajmniej raz, zanim y stanie się prawdziwe za pierwszym razem.

Reprezentacja aspektów. Czasowniki służą do opisu działań w językach naturalnych. Amerykański filozof Z. Vendler w 1957 roku zaproponował model podziału czasowników ze względu na aspekty leksykalne. Zidentyfikował cztery klasy:

- stany (stany) - czasowniki opisujące stany statyczne, które nie mają punktu końcowego (np. „wiedzieć”, „miłość”);

- działania (aktywności) - czasowniki opisujące stany, które są dynamiczne i nie mają punktu końcowego (np. „biegać”, „jeździć”);

- osiągnięcia (osiągnięcia) - czasowniki opisujące zdarzenia, które mają punkt końcowy i są stopniowe (np. „namaluj obraz”, „zbuduj dom”);

- osiągnięcia (osiągnięcia) - czasowniki opisujące zdarzenia, które mają punkt końcowy i występują natychmiast (np. „uczyć się”, „zauważyć”).

Tabela 2 przedstawia tabelę porównawczą klas Vendlera dla angielskich czasowników zaczerpniętych z .

Jak widać, ciągłość działania jest charakterystyczna dla działań i dokonań i jest nieobecna w stanach i osiągnięciach. Można powiedzieć, że się gotowało (aktywność) i pisałam list (zobowiązanie), ale nie można powiedzieć, że istniało (stoisko) i szukałam książki (osiągnięcie). Osiągnięcia nie pasują do okoliczności czasu trwania. Można powiedzieć, że istniał przez dwie godziny (stoisko), ale nie można go znaleźć przez dwie godziny (osiągnięcie).

Osiągnięcia i osiągnięcia opisują celowe działania, są połączone z okolicznościami terminu zakończenia, w przeciwieństwie do artykułów i czynności. Można powiedzieć, że napisałem list w dwie godziny (wykonanie), ale nie można powiedzieć, że szedłem w dwie godziny (aktywność).

Reprezentacja przekonań, pragnień i intencji. Aby wyrazić stosunek mówiącego do przekazywanych informacji, w wypowiedziach w języku naturalnym używa się takich słów jak wierzyć, chcieć, wierzyć, reprezentować itp. Takie stwierdzenia nie opisują obiektywnego obrazu świata, ale cechy osobistej percepcji mówiącego, jego „wewnętrzne” wyobrażenia o świecie. Rozważ stwierdzenie, w które wierzę, że John czytał „Harry'ego Pottera”. Błędem jest próba przedstawienia jego znaczenia za pomocą logiki predykatów: Wierząc (Mówca, Czytanie (John, HarryPotter). Tutaj drugi argument musi być terminem, a nie formułą. Ten błąd składni pociąga za sobą błąd semantyczny. W logice pierwszego rzędu , predykaty wiążą obiekty, a nie relacje między nimi. Standardowym sposobem rozwiązania tego problemu jest dodanie operatorów, które pozwalają nam tworzyć potrzebne nam twierdzenia. Jeśli wprowadzimy operator Wierzy, który przyjmuje formuły jako argumenty, otrzymamy następujące reprezentacja:

Wierzy (Mówca, $ x ISA (x, Czytanie) Ù Czytelnik (x, John) Ù Czytanie (x, HarryPotter)).

Nie można powiedzieć, że taka reprezentacja jest napisana w terminach rachunku predykatów pierwszego rzędu, ale jest to potwierdzenie, że istnieje grupa czasowników w języku, która odgrywa szczególną rolę w analizie semantycznej. W systemach automatycznej analizy czasami konieczne jest śledzenie przekonań i intencji użytkowników. Sytuację komplikuje fakt, że przekonania, pragnienia i intencje mogą się zmieniać w procesie dialogu.

Wprowadzony operator nazywa się modalnym. Istnieje wiele operatorów modalnych. O modalności temporalnej wspomniano już nieco wcześniej, gdy mówiono o reprezentacji czasu w wypowiedziach. Oprócz czasowości istnieje modalność przestrzenna, logika wiedzy („wiadomo, że”), logika dowodliwości („można to udowodnić”) i inne. Logika rozszerzona o operatory modalne nazywana jest logiką modalną. Obecnie w tej dziedzinie istnieje wiele złożonych, niezbadanych pytań. Jak działa wnioskowanie w obecności określonych operatorów modalnych? Jakie rodzaje formuł można zastosować do niektórych operatorów? Jak operatory modalne współdziałają z kwantyfikatorami i spójnikami logicznymi? Te i inne pytania pozostają do zbadania. Nie będziemy się nad nimi rozwodzić.

Wyprowadzenie zdań poprawnych składniowo w logicznych modelach reprezentacji wiedzy opiera się na regule rozdzielczości opracowanej przez J. Robinsona w 1965 roku. Stwierdza, że ​​jeśli grupa wyrażeń składających się na przesłankę jest prawdziwa, to zastosowanie reguły wnioskowania gwarantuje uzyskanie jako wniosku prawdziwego wyrażenia. Skutkiem zastosowania zasady uchwały jest uchwała.

Metoda rozstrzygnięć (lub zasada eliminacji sprzeczności) pozwala dowieść prawdziwości lub fałszywości postawionego założenia metodą sprzeczności. W metodzie rozwiązywania zbiór zdań jest zwykle traktowany jako predykat złożony, który zawiera kilka predykatów połączonych funkcjami logicznymi oraz kwantyfikatorami egzystencjalnymi i uniwersalnymi. Ponieważ orzeczniki, które mają identyczne znaczenie, mogą mieć różne formy, zdania muszą najpierw zostać zredukowane do formy ujednoliconej (dysjunktywnej lub łączącej formy normalnej), z której usunięto kwantyfikatory istnienia, uniwersalności, symbole implikacji, równoważności itp. reguła rozstrzygnięcia zawiera połączenie rozłączników po lewej stronie. Dlatego sprowadzenie przesłanek dowodowych do postaci będącej koniunkcją rozłączników jest niezbędnym krokiem w prawie każdym algorytmie, który implementuje wnioskowanie logiczne oparte na metodzie rozwiązywania.
Poniższe kroki są wykonywane podczas procesu wnioskowania przy użyciu reguły rozstrzygania.

1. Operacje równoważności i implikacji są eliminowane:

A « B = (A ® B) Ù (B ® A);

A ® B = Ø A Ú B.

2. Operacja negacji porusza się wewnątrz formuł za pomocą praw de Morgana:

(A Ù B) = Ø A Ú Ú B;

(A Ú B) = Ø A Ù Ù B.

3. Formuły logiczne sprowadza się do postaci rozłącznej:

A (B Ù C) = (A Ú B) Ù (A Ú C).

W logice predykatów, aby zastosować regułę rozstrzygania, konieczne jest przeprowadzenie bardziej złożonej transformacji formuł logicznych w celu sprowadzenia ich do układu rozłączników. Wynika to z obecności dodatkowych elementów składni, głównie kwantyfikatorów, zmiennych, predykatów i funkcji.
Algorytm unifikacji predykatów formuł logicznych składa się z następujących kroków.

1. Eliminacja operacji równoważności.

2. Eliminacja operacji implikacyjnych.

3. Wprowadzenie operacji negacji do formuł.

4. Wykluczenie kwantyfikatorów egzystencjalnych. Może się to zdarzyć w trzecim kroku z powodu zastosowania praw de Morgana, a mianowicie, negacja $ zostaje zamieniona na ", ale może również wystąpić odwrotne podstawienie. Następnie, aby wykluczyć $, postępuj następująco: wszystkie wystąpienia jakiejś zmiennej związane kwantyfikatorem egzystencjalnym, na przykład ($ x) są zastępowane w formule nową stałą, na przykład a. Ta stała jest pewną (nieznaną) wartością zmiennej x, dla której zdanie napisane tą formułą jest prawdziwe. podstawiana jest ta sama wartość a, nawet jeśli nie jest ona w tej chwili nieznana.

5. Kwantyfikatory ogólności są przenoszone na pierwsze miejsca we wzorach. Nie zawsze jest to również prosta operacja, czasami trzeba zmienić nazwy zmiennych.

6. Ujawnienie spójników, które wpadły w rozłąki.

Po wykonaniu wszystkich kroków opisanego algorytmu unifikacji można zastosować regułę rozstrzygania.

To właśnie reguła rozdzielczości posłużyła jako podstawa do stworzenia języka programowania Prolog.
W Prologu fakty opisywane są w postaci predykatów logicznych o konkretnych wartościach. Reguły wnioskowania opisane są predykatami logicznymi z definicją reguł wnioskowania w postaci listy predykatów nad bazami wiedzy i procedurami przetwarzania informacji. Interpreter Prologa sam implementuje dane wyjściowe podobne do opisanego powyżej. W celu rozpoczęcia obliczeń kierowane jest specjalne żądanie do bazy wiedzy, na którą system programowania logicznego generuje odpowiedzi prawdziwe i fałszywe.

Metoda rozwiązywania jest łatwa do zaprogramowania, jest to jedna z jej najważniejszych zalet, ale ma zastosowanie tylko w ograniczonej liczbie przypadków, ponieważ dla jej zastosowania dowód nie powinien mieć dużej głębokości, a liczba potencjalnych rozdzielczości nie powinna być duży.

Aby uczynić rachunek predykatów pierwszego rzędu bardziej elastycznym, można go rozszerzyć o rachunek lambda. Rachunek lambda jest językiem wyższego rzędu niż rachunek predykatów pierwszego rzędu. W nim jako argumenty funkcja lambda może pracować nie tylko ze zmiennymi, ale także z predykatami. Jednak użycie wyrażeń lambda nie zwiększa formalnie mocy ekspresji logiki pierwszego rzędu, ponieważ każda konstrukcja zawierająca wyrażenie lambda może zostać bez niego przekonwertowana na równoważną formę.

Po tym, jak język Prolog zyskał dużą popularność, termin „komputery piątej generacji” pojawił się na początku lat 80. ubiegłego wieku. W tym czasie oczekiwano stworzenia kolejnej generacji komputerów skupionych na przetwarzaniu rozproszonym. Wraz z tym wierzono, że piąta generacja stanie się podstawą do stworzenia urządzeń zdolnych naśladować proces ludzkiego myślenia. W tym samym czasie powstał pomysł stworzenia sprzętowej obsługi równoległych relacyjnych baz danych Grace i Delta oraz wnioskowania równoległego (Parallel Inference Engine, PIE), opartych na zasadach języka Prolog. Każdy blok wnioskowania sygnalizował swoje bieżące obciążenie, aby praca mogła zostać przeniesiona do najmniej obciążonego bloku wnioskowania. Ale, jak wiadomo, takie próby nie pozwoliły na stworzenie sztucznej inteligencji, a jedynie posłużyły jako kolejne potwierdzenie, że ludzkie myślenie nie zostało jeszcze dostatecznie zbadane.

Logiczne modele reprezentacji wiedzy umożliwiają sprawdzenie poprawności składniowej wypowiedzi. Jednak przy pomocy reguł określających składnię języka niemożliwe jest ustalenie prawdziwości lub fałszu tego czy innego stwierdzenia. Instrukcja może być poprawna składniowo, ale całkowicie pozbawiona sensu. Ponadto modele logiczne są trudne do wykorzystania w dowodzeniu rozumowania, które odzwierciedla specyfikę konkretnego problemu przedmiotowego, ze względu na wysoki stopień jednolitości.

Systemy z komponentami analizy semantycznej

W ramach projektu Open Cognition powstaje Link Grammar Parser, który odpowiada za przetwarzanie języka naturalnego. Link Grammar Parser zaczął być rozwijany w latach 90. XX wieku. na Uniwersytecie Carnegie Mellon. To podejście różni się od klasycznej teorii składni. System przypisuje zdaniu strukturę syntaktyczną, która składa się ze zbioru oznaczonych ogniw (łączników) łączących pary słów. Link Grammar Parser wykorzystuje informacje o typach powiązań między słowami.

Analizator posiada słowniki zawierające około 60 000 formularzy słownikowych. Pozwala na parsowanie duża liczba konstrukcje składniowe, w tym liczne rzadkie wyrażenia i idiomy. Parser Link Grammar Parser jest dość solidny, może pominąć część zdania, której nie rozumie i określić pewną strukturę reszty zdania. Analizator jest w stanie pracować z nieznanym słownictwem i domyślać się (na podstawie kontekstu i pisowni) kategorii składniowej nieznanych słów. Zawiera dane dotyczące nazw własnych, wyrażeń numerycznych i różnych znaków interpunkcyjnych.

Analiza w systemie odbywa się dwuetapowo.

1. Konstrukcja zbioru reprezentacji syntaktycznych jednego zdania. Na tym etapie brane są pod uwagę wszystkie warianty powiązań między słowami i spośród nich wybierane są te, które spełniają kryterium projektowości (powiązania nie powinny się przecinać) oraz kryterium minimalnej łączności (wynikowy graf musi zawierać najmniejszą liczbę połączonych elementów; połączony składnik grafu to pewien zbiór wierzchołków grafu taki, że dla dowolnych dwóch wierzchołków z tego zbioru istnieje ścieżka z jednego do drugiego i nie ma ścieżki z wierzchołka tego zbioru do wierzchołka spoza tego zbioru ).

2. Przetwarzanie końcowe. Zaprojektowany do pracy z już zbudowanymi alternatywnymi strukturami zdań.

Powstałe diagramy są zasadniczo analogiczne do drzew podporządkowania. W drzewach podporządkowania, od głównego słowa w zdaniu, możesz zadać pytanie do drugiego. W ten sposób słowa są ułożone w strukturę drzewa. Parser może generować dwa lub więcej wzorców analizowania dla tego samego zdania. Zjawisko to nazywa się synonimią syntaktyczną.

Za główny powód, dla którego analizator nazywa się systemem semantycznym, można uznać zestaw linków, który jest unikalny w swojej kompletności (około 100 podstawowych, a niektóre z nich mają 3-4 warianty).
W niektórych przypadkach uważna praca nad różnymi kontekstami doprowadziła autorów systemu do przejścia do klasyfikacji niemal semantycznych zbudowanych wyłącznie na zasadach syntaktycznych. Wyróżnia się więc następujące klasy dialekty angielskie: przysłówki sytuacyjne, które odnoszą się do całego zdania jako całości (przysłówek czasowy); przysłówki czasu (przysłówki czasu); przysłówki wprowadzające na początku zdania i oddzielone przecinkiem (otwieracze); przysłówki modyfikujące przymiotniki itp.

Z zalet systemu należy zauważyć, że organizacja procedury wyszukiwania wariantów reprezentacji syntaktycznej jest bardzo efektywna. Konstrukcja nie przebiega od góry do dołu (od góry do dołu) ani od dołu do góry (od dołu do góry), ale wszystkie hipotezy relacji są rozpatrywane równolegle: najpierw wszystkie możliwe powiązania budowane są według formuł słownikowych, a następnie rozróżnia się możliwe podzbiory tych połączeń. Prowadzi to po pierwsze do algorytmicznej nieprzezroczystości systemu, ponieważ bardzo trudno jest prześledzić wszystkie relacje na raz, a po drugie prowadzi nie do liniowej zależności szybkości algorytmu od liczby słów, ale do wykładniczy, ponieważ zbiór wszystkich wariantów struktur składniowych na zdaniu słów w najgorszym przypadku jest równoważny zbiorowi wszystkich podstawowych drzew pełnego grafu z wierzchołkami.

Ostatnia cecha algorytmu wymusza na programistach użycie timera w celu zatrzymania procedury w czasie, która trwa zbyt długo. Jednak wszystkie te niedociągnięcia są z nawiązką rekompensowane przez językową przejrzystość systemu, w którym walencje słowa zapisywane są z równą łatwością, a kolejność zbierania walencji w algorytmie nie jest fundamentalnie ustalona, ​​budowane są powiązania, niejako równolegle, co w pełni odpowiada naszej intuicji językowej.

Dla każdego słowa w słowniku zapisywane jest, przez które konektory można je powiązać z innymi słowami w zdaniu. Łącznik składa się z nazwy typu relacji, do której może dołączyć dana jednostka analizy. Głównych, najważniejszych połączeń jest ponad 100. Aby wskazać kierunek połączenia, do złącza po prawej stronie dołączony jest znak „+”, a po lewej znak „–”. Złącza lewe i prawe tego samego typu tworzą łącze. Jednemu słowu można przypisać formułę łączników, skomponowaną za pomocą określonych spójników.

Zwracamy również uwagę na wady Link Grammar Parser.

1. Praktyczne testowanie systemu pokazuje, że analizując złożone zdania, którego długość przekracza 25–30 słów, możliwa jest eksplozja kombinatoryczna. W tym przypadku wynikiem pracy analizatora staje się wykres „paniczny”, z reguły przypadkowa wersja struktury składniowej, która jest nieadekwatna z językowego punktu widzenia.

2. Zastosowanie opisanych powyżej idei jest utrudnione dla języków fleksyjnych, takich jak rosyjski, ze względu na znacząco rosnącą ilość słowników, które powstają w wyniku rozwoju morfologicznego języków fleksyjnych. Każda forma morfologiczna musi być opisana osobnym wzorem, w którym indeks dolny zawartego w niej łącznika musi zawierać procedurę dopasowania. Prowadzi to do komplikacji zestawu łączników i wzrostu ich liczby.

Projekt Open Cognition, w ramach którego rozwijany jest Link Grammar Parser, jest otwarty i bezpłatny, co jest ogromną zaletą przy prowadzeniu badań. Dość szczegółowy opis i kod źródłowy można znaleźć na stronie. Open Cognition w chwili obecnej nadal się rozwija, co jest również ważne ze względu na możliwość interakcji z programistami. Wraz z Link Grammar rozwijany jest analizator RelEx, który pozwala wydobyć semantyczne relacje zależności w wypowiedziach języka naturalnego, a w efekcie zdania są prezentowane w postaci drzew zależności. Wykorzystuje kilka zestawów reguł do przebudowy wykresu na podstawie relacji składniowych między słowami. Po każdym kroku, zgodnie z zestawem reguł dopasowywania, na wynikowym wykresie dodawane są znaczniki cech strukturalnych i relacji między słowami. Jednak niektóre reguły mogą zredukować wykres. W ten sposób wykres jest przekształcany. Ten proces stosowania sekwencji reguł przypomina metodę stosowaną w gramatyce restrykcyjnej. Główną różnicą jest to, że RelEx działa z reprezentacją grafową, a nie prostym zestawem tagów (oznaczających relacje). Ta funkcja pozwala na zastosowanie bardziej abstrakcyjnych przekształceń podczas analizy tekstów. Innymi słowy, główną ideą jest wykorzystanie rozpoznawania wzorców do przekształcania wykresów. W przeciwieństwie do innych parserów, które całkowicie opierają się na składniowej strukturze zdania, RelEx jest bardziej skoncentrowany na reprezentowaniu semantyki, w szczególności dotyczy bytów, porównań, pytań, rozwiązywania anafor i leksykalnej polisemii słów.

System wybierania

Wybieranie to automatyczny system tłumaczeń rosyjsko-angielskich, który został opracowany w latach 1999-2002. w ramach projektu Automatic Text Processing (AOT). V inny czas W pracach nad systemem wzięło udział 22 specjalistów, z których większość to znani lingwiści.
System francusko-rosyjskiego tłumaczenia automatycznego (FRAP) został przyjęty jako podstawa systemu „Dialing”, opracowanego w VCP wspólnie z Moskiewskim Państwowym Instytutem Języków Międzynarodowych. M. Torez w latach 1976-1986 oraz system analizy tekstów politycznych w języku rosyjskim „Polytext”, opracowany w Ośrodku Badań Informacyjnych w latach 1991-1997.

System „Polytext” miał na celu analizę oficjalnych dokumentów w języku rosyjskim i zawierał kompletny łańcuch analizatorów tekstu: grafematycznego, morfologicznego, składniowego i częściowo semantycznego. W systemie Dialing analiza graficzna została częściowo zapożyczona, ale dostosowana do nowych standardów programowania. Program analizy morfologicznej został napisany od nowa, ponieważ szybkość pracy była niska, ale sam aparat morfologiczny nie uległ zmianie.

Na poziomie graficznym deskryptory graficzne są stałymi. Na przykład LE (leksem) jest przypisany do sekwencji składających się ze znaków cyrylicy; ILE (leksem obcy) - przypisany ciągom znaków łacińskich; CC (kompleks cyfrowy) - przypisany do ciągów składających się z liczb; PPM (kompleks alfanumeryczny) - przypisany do ciągów składających się z cyfr i liter itp.

Na poziomie morfologicznym do notacji używa się gramemów - cech gramatycznych, które odwołują formę wyrazu do określonej klasy morfologicznej. Różne gramy tej samej kategorii wzajemnie się wykluczają i nie można ich wyrazić jednym słowem. Na przykład zhr to rodzaj żeński, tv to przypadek instrumentalny, pl to liczba mnoga, ale jest nieożywiona, sv to forma doskonała, dst to głos czynny, ne to przechodniość czasownika, pvl to imperatyw formy czasownika, nst to czas teraźniejszy czasownika itp. d.

Analiza fragmentaryzacji ma na celu podzielenie zdania na nierozłączne fragmenty (jednostki syntaktyczne), frazy większe lub im równe (grupa syntaktyczna) oraz ustalenie częściowej hierarchii zbioru tych jednostek. Możliwe typy fragmentów: zdania główne, zdania podrzędne w złożeniu, imiesłowowe, przysłówkowe i inne pojedyncze zwroty. Dla każdego fragmentu wiadomo, które fragmenty są w nim bezpośrednio zagnieżdżone, a w których jest bezpośrednio zagnieżdżony.

System FRAP zawierał kompletny łańcuch analizy tekstu aż do semantycznego, który został tylko częściowo zaimplementowany. W systemie FRAP opracowano i przetestowano aparat semantyczny, na podstawie którego w systemie Dialing powstała specjalna metoda analizy semantycznej – metoda wszystkie opcje. FRAP nie zawierał mechanizmów oceny strukturalnej reprezentacji semantycznej, czyli metod nie tylko dla jednego wystąpienia elementu tekstowego, ale dla całej struktury jako całości. Ideą metody wariantów pełnych jest to, że analiza powinna wyraźnie oddzielać warianty analizy, które powstają na różnych etapach, oraz deklaratywne reguły językowe (modele cząstkowe), które budują i oceniają poszczególne warianty. Podejście to, dotychczas stosowane tylko w przypadku analizatorów presemantycznych, obecnie, w związku z rozwojem mocy obliczeniowej komputerów, stało się możliwe do przejścia na semantykę, zwiększając tym samym poziom separacji części proceduralnej i deklaratywnej systemu. Proceduralna część analizy semantycznej w idealnym przypadku sprowadza się do cykli, które przechodzą przez różne opcje językowe. W ten sposób stało się możliwe uproszczenie modeli językowych dzięki zwiększonej szybkości komputerów.

Głównymi składnikami aparatu semantycznego używanego w Dialing są relacje semantyczne (SR) i cechy semantyczne (SH). Przykłady relacji semantycznych: INSTR – „instrument”, LOC – „położenie, lokalizacja”, BELONGING – „przynależność”, REZLT – „wynik” itp. Są one dość uniwersalne i wykazują podobieństwa z omówionymi w pierwszym punkcie predykatami, oraz role semantyczne, o których mowa w sekcji trzeciej. Charakterystyki semantyczne pozwalają budować formuły za pomocą spójników logicznych „i” i „lub”. Każdemu słowu przypisana jest pewna formuła, złożona z cech semantycznych. Słownik semantyczny „Dialinga” zawiera około 40 cech semantycznych. Przykłady cech semantycznych: ABSTRA - rzeczownik lub przymiotnik abstrakcyjny, RZECZY - nazwa substancji chemicznej lub czegoś, co można zmierzyć wagowo lub objętościowo; GEOGR - obiekt geograficzny; MOVE - czasowniki ruchu; INTEL - czynności związane z aktywnością umysłową; COMMUNIC - czasowniki mowy; NOSINF - nośniki informacji; ORG - organizacja; SOBIR - wszystko, co oznacza wiele obiektów tego samego typu; EMOC - przymiotniki wyrażające emocje itp. Niektóre cechy są złożone, ponieważ można je wyrazić w kategoriach innych. Istnieją cechy, które są antonimami. Używanie ich w tym samym spójniku jest zabronione. Są cechy, które są odmianami innych. Cechy semantyczne wraz z cechami gramatycznymi zapewniają weryfikację zgodności słów podczas interpretacji linków w tekście.

W chwili obecnej wszystkie narzędzia opracowane w ramach projektu AOT (w tym system Dialing) są darmowym, wieloplatformowym oprogramowaniem. Na stronie dostępne jest demo i szczegółowa dokumentacja.

Systemy ekstrakcji informacji i reprezentacji wiedzy

Istnieją inne systemy zawierające komponenty analizy semantycznej. Mają jednak istotne wady badawcze: trudno znaleźć opisy, które nie są bezpłatne i swobodnie rozpowszechniane lub nie współpracują z tekstami w języku rosyjskim. Należą do nich OpenCalais (http://www.opencalais.com/opencalais-api/), RCO (http://www.rco.ru/?page_id=3554), Abbyy Compreno (https://www.abbyy.com /ru-ru/isearch/compreno/), SemSin (http://www.dialog-21.ru/media/1394/
kanevsky.pdf), DictaScope (http://dictum.ru/) i inne.

Należy wspomnieć o systemie wydobywania danych z nieustrukturyzowanych tekstów Pullenti (http://semantick.ru/). Zajęła pierwsze miejsce na torach T1, T2, T2-m oraz drugie miejsce na T1-l na konferencji Dialog-2016 w konkursie FactRuEval. Na stronie internetowej twórców systemu Pullenti dostępna jest również wersja demonstracyjna analizatora semantycznego, który pozwala na zbudowanie sieci semantycznej na wniosek.

Środowisko narzędziowe DECL (http://ipiranlogos.com/) zostało opracowane pod koniec lat 90-tych i wykorzystywane do budowy systemów eksperckich (ES), powłok dla ES, systemów logiczno-analitycznych (LAS), procesorów lingwistycznych (LP), zapewniających przetwarzanie oraz automatyczne wydobywanie wiedzy z przepływów dokumentów niesformalizowanych w języku naturalnym.

System tłumaczenia maszynowego ETAP-3 przeznaczony jest do analizy i tłumaczenia tekstów w języku rosyjskim i angielskim. System wykorzystuje przekształcenie tekstów w języku naturalnym na ich reprezentację semantyczną w Universal Networking Language. Jak wspomniano wcześniej, znaczniki korpusu składniowego „Narodowy Korpus Języka Rosyjskiego” są wykonywane przez procesor językowy ETAP-3, oparty na zasadach teorii „Znaczenie Tekst”.

W ostatnim czasie pojawia się coraz więcej systemów do przedstawiania baz wiedzy w postaci grafów. Ponieważ ilość informacji stale rośnie w niewiarygodnym tempie, takie systemy muszą wspierać budowę i uzupełnianie baz wiedzy w trybie automatycznym. Automatyczna budowa baz wiedzy może odbywać się w oparciu o ustrukturyzowane źródła danych.

Przykłady takich systemów: Yago (http://www.mpi-inf.mpg.de/departments/databases-and-information-systems/research/yago-naga/yago/), DBpedia (http://wiki.dbpedia .org/), Freebase (https://developers.
google.com/freebase/), Graph wiedzy Google (https://developers.google.com/knowledge-graph/), OpenCyc (http://www.opencyc.org/).Inne podejście pozwala wyodrębnić informacje z otwarte zasoby w Internecie bez ingerencji człowieka: ReadTheWeb (http://rtw.ml.cmu.edu/rtw/), OpenIE (http://nlp.stanford.edu/
software/openie.html), Skarbiec wiedzy Google (https://www.cs.ubc.ca/~murphyk/Papers/kv-kdd14.pdf). Takie systemy są eksperymentalne, każdy z nich ma swoją własną charakterystykę. Na przykład Knowledge Vault stara się uwzględniać niepewności, każdemu faktowi przypisywany jest współczynnik ufności i pochodzenie informacji. W związku z tym wszystkie stwierdzenia są podzielone na te, które mają duże prawdopodobieństwo prawdziwości i te, które mogą być mniej prawdopodobne. Przewidywanie faktów i ich właściwości odbywa się metodami uczenia maszynowego w oparciu o bardzo dużą liczbę tekstów i już istniejących faktów. Magazyn wiedzy zawiera obecnie 1,6 miliarda faktów. System NELL, opracowany w ramach projektu ReadTheWeb na Uniwersytecie Carnegie Mellon, zawiera ponad 50 milionów roszczeń o różnym stopniu pewności. Około 2 mln 800 tys. faktów ma wysoki stopień zaufania. Proces uczenia się NELL również nie jest jeszcze zakończony.

Wyciągnijmy następujące wnioski. Wraz z rozwojem technologii komputerowej i ciągłym wzrostem
tomów informacji tekstowych, badania w dziedzinie automatycznego przetwarzania tekstu skoncentrowały się na aspekcie aplikacyjnym. Możliwości większości narzędzi ograniczają się do analizy morfologicznej i składniowej w połączeniu z metodami z teorii prawdopodobieństwa i statystyki matematycznej. Zatem tylko wybrana część najbardziej proste zadania okazał się rozwiązany. Reszta problemów nie została jeszcze rozwiązana.

Jak widzieliśmy, jest wiele powodów. Na przykład istnieje opinia, że ​​każda reguła w składni ma swój odpowiednik w semantyce. Ten postulat nazywa się hipotezą „od reguły do ​​reguły”. W rzeczywistości ta korespondencja nie jest jeden do jednego i to jest główna trudność. Rzeczywiście, każda reguła składniowa (drzewo parsowania) może być powiązana z regułą semantyczną (drzewo parsowania), ale nie będzie unikalna. W przeciwnym kierunku, podobnie jak w przypadku reguły semantycznej, dopasowywana jest reguła syntaktyczna, ale niekoniecznie jedyna. To właśnie ta niejednoznaczność prowadzi do dzisiejszych nierozwiązywalnych problemów w dziedzinie automatycznego przetwarzania tekstu. W związku z tym rozumowaniem pojawia się pytanie o wybór właściwego porównania spośród wielu możliwych opcji.

Z powyższego można wyciągnąć jeszcze jeden bardzo ważny wniosek. Procesów generowania i interpretacji wypowiedzi nie należy rozpatrywać odrębnie, są one nierozerwalnie związane między:
się. Wyrażając swoją myśl, osoba skupia się na tym, czy jego rozmówca zrozumie. W procesie generowania wypowiedzi osoba niejako „sprawdza” siebie, modelując, jak rozmówca będzie odbierał informacje. Podobny mechanizm występuje w interpretacji wypowiedzi. Kiedy rozumiemy to, co słyszeliśmy lub czytaliśmy, ponownie „sprawdzamy” naszą wiedzę i wyobrażenia o świecie. Tylko dzięki temu jesteśmy w stanie wybrać odpowiednie znaczenie.

Współcześni badacze sądzą, że można dokonać właściwego wyboru, mając dodatkową bazę wiedzy o świecie. Taka baza wiedzy powinna zawierać zdroworozsądkowe informacje o pojęciach i relacjach między nimi, tak aby przy dostępie do niej możliwe było określenie odpowiedniego kontekstu wypowiedzi w trybie automatycznym. Pomogłoby uwzględnienie nagromadzonej wiedzy o świecie, która nie jest wprost obecna w danym stwierdzeniu, ale bezpośrednio wpływa na jego znaczenie.

Literatura

  1. Melchuk I.A. Doświadczenie teorii modeli językowych „Znaczenie-Tekst”. Moskwa: Języki kultury rosyjskiej, 1999. 346 s.
  2. Lakhuti D.G., Rubashkin V.Sh. Słownik semantyczny (konceptualny) dla technologii informacyjnych // Informacje naukowe i techniczne. 2000. Nr 7. S. 1-9.
  3. Paducheva E.V. Modele dynamiczne w semantyce słownictwa. M.: Języki kultury słowiańskiej, 2004. 608 s.
  4. Tuzow V.A. Semantyka komputerowa języka rosyjskiego. Petersburg: Wydawnictwo Uniwersytetu Państwowego w Petersburgu, 2003. 391 s.
  5. Narodowy korpus języka rosyjskiego. URL: http://www.ruscorpora.ru/ (data dostępu: 22.08.2016).
  6. Apresyan V.Yu. i inne Nowy słownik objaśniający synonimów języka rosyjskiego. M.–Wiedeń: Języki kultury słowiańskiej – Wiedeński Almanach Słowiański, 2004. 1488 s.
  7. Choroszyłow AA Metody automatycznego ustalania podobieństwa semantycznego dokumentów na podstawie ich analizy pojęciowej // Biblioteki cyfrowe: obiecujące metody i technologie, zbiory elektroniczne: tr. XV Wszechrosyjski. naukowy por. RCDL” 2013. Jarosław: Izd-vo YarSU, 2013. P. 369-376.
  8. Rubashkin W.Sz. Reprezentacja i analiza znaczenia w inteligentnych systemach informatycznych. M.: Nauka, 1989. 189 s.
  9. Lakhuti D.G., Rubashkin V.Sh. Sposoby i procedura konceptualnej interpretacji komunikatów wejściowych w języku naturalnym // Izv. Akademia Nauk ZSRR. Ser. Techn. cybern. 1987. nr 2, s. 49-59.
  10. Rubashkin W.Sz. Komponent semantyczny w systemach rozumienia tekstu // KII-2006. Tr. 10 krajowych por. przez sztuczne. wywiad z międzynarodowego udział 2006. URL: http://www.raai.org/resurs/papers/kii-2006/#dokladi (dostęp 23.08.2016).
  11. Paducheva E.V. Zobacz semantykę i punkt odniesienia // Izv. Akademia Nauk ZSRR: Ser. oświetlony. i Yaz. 1986. V. 45. Nr 5. C. 18-25.
  12. Paducheva E.V. Nazwy predykatów w aspekcie leksykograficznym // Naukowo-techniczne. inf. 1991 Ser. 2. Nr 5. C. 21–31.
  13. wordnet. Baza leksykalna dla języka angielskiego. URL: http://wordnet.princeton.edu/ (dostęp 23.08.2016).
  14. Sieć semantyczna. URL: https://ru.wikipedia.org/wiki/Semantic_Network (dostęp 23.08.2016).
  15. Minsky M. Minsky's teoria systemu ramowego // Materiały z warsztatu Zagadnienia teoretyczne w przetwarzaniu języka naturalnego (TINLAP "75). 1975, s. 104-116.
  16. Chabarow S.P. Reprezentacja wiedzy w systemach informatycznych: notatki do wykładów. URL: http://www.khabarov.spb.ru/bz/bz07.htm (data dostępu: 23.08.2016).
  17. Łucenko E.V. Reprezentacja wiedzy w systemach informatycznych: elektr. podręcznik dodatek dla studentów. Krasnodar: Izd-vo KubGAU, 2010. 428 s.
  18. Konstantinova I.S., Mitrofanova O.A. Ontologie jako systemy przechowywania wiedzy // Vseros. konkurencyjny wybór stat. według priorytetu kierunek „Systemy informatyczne i telekomunikacyjne”. 2008. 54 s.
  19. Razin V.V., Tuzovsky A.F. Reprezentacja wiedzy o czasie z uwzględnieniem niepewności w semantycznych ontologiach WEB // Dokl. Stan Tomsk Wyższa Szkoła Sterowania i Elektroniki Radiowej. 2013. nr 2 (28). s. 157–162.
  20. Patel-Schneider P.F., Horrocks I. et al. SWRL: język reguł sieci semantycznej łączący OWL i RuleML // World Wide Web Consortium (W3C). 2004. URL: http://www.w3.org/Submission/SWRL (dostęp 18.08.2016).
  21. Fillmore Ch. Sprawa dla sprawy. Proc. Teksas Symp. o Language Universals, 1967, 134 s.
  22. Fillmore C. Przypadek sprawy // Nowość w językoznawstwie zagranicznym. M.: Postęp, 1981. S. 369–495.
  23. Dowty D. Tematyczne proto-role i wybór argumentów // Język, 1991, t. 67, nie. 3, s. 547-619.
  24. Norvig P., Russell S. Sztuczna inteligencja: nowoczesne podejście. Moskwa: Williams, 2007. 1408 s.
  25. Jurafsky D., Martin J. Przetwarzanie mowy i języka: wprowadzenie do przetwarzania języka naturalnego, lingwistyki komputerowej i rozpoznawania mowy. 2008, 1024 s.
  26. Batura TV, Murzin F.A. Zorientowane maszynowo metody logiczne wyświetlania semantyki tekstu w języku naturalnym: monografia. Nowosybirsk: Wydawnictwo NSTU, 2008. 248 s.
  27. logika czasowa. URL: https://ru.wikipedia.org/wiki/Temporal_logic (data dostępu: 23.08.2016).
  28. Vendler Z. Czasowniki i czasy. Przegląd Filozoficzny, 1957, t. 66, nie. 2, s. 143-160.
  29. Paducheva E.V. Aspektualność leksykalna i klasyfikacja predykatów według Maslova-Wendlera // Pytania językoznawstwa. 2009. Nr 6. s. 3–21.
  30. Wnioskowanie w modelach logicznych. metoda rozdzielczości. URL: http://www.aiportal.ru/articles/knowledge-models/method-resolution.html (dostęp 8.11.2016).
  31. Boral H., Redfield S. Morfologia maszyn baz danych. Proc. 11. Stażysta. Konf. Bardzo Duże Bazy Danych, 1985, s. 59–71.
  32. Fushimi S., Kitsuregawa M., Tanaka H. Przegląd systemu równoległej relacyjnej maszyny bazodanowej GRACE. Proc. 12. Stażysta. Konf. Bardzo Duże Bazy Danych, 1986, s. 209-219.
  33. Tanaka H. Silnik wnioskowania równoległego. IOS Press Publ., 2000, 296 s.
  34. otwarte poznanie. URL: http://opencog.org/ (data dostępu: 23.08.2016).
  35. Parser gramatyki linków. AbiWord, 2014. URL: http://www.abisource.com/projects/link-grammar/ (dostęp 20.08.2016).
  36. Parser języka naturalnego CMU Link Grammar. URL: https://github.com/opencog/link-grammar/ (dostęp 22.08.2016).
  37. Ekstraktor zależności RelEx. opencog. URL: http://wiki.opencog.org/wikihome/index.php/Relex (dostęp 22.08.2016).
  38. Sokirko A.V. Słowniki semantyczne w automatycznym przetwarzaniu tekstu (na podstawie materiałów systemu DIALING). Diss. … cand. tych. Nauki. M.: MGPIIA, 2001. 120 s.
  39. Automatyczne przetwarzanie tekstu. URL: http://www.aot.ruhttp://aot.ru/ (data dostępu: 23.08.2016).
  40. Prószeky G. Tłumaczenie maszynowe i hipoteza „od reguły do ​​reguły”. Nowe trendy w translatoryce (na cześć Kingi Klaudy). Budapeszt: Akademiai Kiado, 2005, s. 207-218.

Słowo semantyka pochodzi ze starożytnego języka greckiego: σημαντικός sēmantikos, co oznacza „istotne”, a jako termin po raz pierwszy zostało użyte przez francuskiego filologa i historyka Michela Breala.

Semantyka to nauka, która studiowanie znaczenia słów(semantyka leksykalna), wiele pojedynczych liter (w starożytnych alfabetach), zdania - frazy i teksty semantyczne. Bliskie jest mu do innych dyscyplin, takich jak semiologia, logika, psychologia, teoria komunikacji, stylistyka, filozofia języka, antropologia lingwistyczna i antropologia symboliczna. Zbiór terminów, które mają wspólny czynnik semantyczny, nazywany jest polem semantycznym.

Czym jest semantyka

Ta nauka studiuje znaczenie językowe i filozoficzne język, języki programowania, logika formalna, semiotyka i prowadzi analizę tekstu. Wiąże się to z:

  • ze znaczącymi słowami;
  • słowa;
  • zwroty;
  • oznaki;
  • symbole i ich znaczenie, ich oznaczenie.

Problem rozumienia był przedmiotem wielu dociekań od dłuższego czasu, ale tą kwestią zajmowali się głównie psychologowie, a nie językoznawcy. Ale tylko w lingwistyce studiowanie interpretacji znaków lub symboli używane w społecznościach w określonych okolicznościach i kontekstach. W tej reprezentacji dźwięki, mimika, język ciała i proksemika mają treść semantyczną (znaczącą), a każda z nich obejmuje kilka gałęzi. W języku pisanym takie elementy jak struktura akapitów i interpunkcja zawierają treść semantyczną.

Formalna analiza semantyki pokrywa się z wieloma innymi obszarami nauki, w tym:

  • leksykologia;
  • składnia;
  • pragmatyka;
  • etymologia i inne.

Nie trzeba dodawać, że definicja semantyki jest również dobrze zdefiniowanym obszarem samym w sobie, często o właściwościach syntetycznych. W filozofii języka semantyka i referencja są ze sobą ściśle powiązane. Dalsze pokrewne dziedziny to filologia, komunikacja i semiotyka.

Semantyka kontrastuje ze składnią, badaniem kombinatoryki jednostek języka (bez odniesienia do ich znaczenia) i pragmatyką, badaniem relacji między symbolami języka, ich znaczeniem i użytkownikami języka. Dziedzina badań w tym przypadku ma również istotne powiązania z różnymi reprezentacyjnymi teoriami znaczenia, w tym z prawdziwymi teoriami znaczenia, teoriami powiązań znaczenia i teoriami korespondencji znaczenia. Każdy z nich wiąże się z ogólnym filozoficznym studium rzeczywistości i prezentacją znaczenia.

Językoznawstwo

W językoznawstwie semantyka to poddziedzina poświęcona badaniu znaczenia, nieodłącznie związane z poziomami słów, fraz, zdań i szerszych jednostek dyskursu (analiza tekstu lub narracji). Badanie semantyki jest również ściśle związane z tematami reprezentacji, referencji i desygnacji. Główne badania tutaj koncentrują się na badaniu znaczenia znaków i badaniu relacji między różnymi jednostkami językowymi i związkami, takimi jak:

  • homonimia;
  • synonimia;
  • antonimia
  • metonimia;

Kluczowym problemem jest to, jak nadać większe znaczenie dużym fragmentom tekstu w wyniku złożenia mniejszych jednostek znaczeniowych.

gramatyka montagowska

Pod koniec lat 60. Richard Montague (wikipedia semantyczna) zaproponował system definiowania rekordów semantycznych w kategoriach rachunku lambda. Montagu pokazał, że znaczenie tekstu jako całości można rozłożyć na znaczenia jego części i na stosunkowo niewielkie reguły kombinacji. Pojęcie takich atomów semantycznych lub prymitywów jest fundamentalne dla języka hipotezy myśli z lat 70.

Pomimo swojej elegancji gramatyka Montagu była ograniczona przez zmienność kontekstu w znaczeniu słowa i doprowadziła do kilku prób włączenia kontekstu.

Dla Montague'a język nie jest zbiorem etykiet przyczepionych do rzeczy, ale zbiorem narzędzi, których elementy są ważne ze względu na sposób ich funkcjonowania, a nie ich przywiązanie do rzeczy.

Specyficznym przykładem tego zjawiska jest niejednoznaczność semantyczna, znaczenia nie są kompletne bez pewnych elementów kontekstu. Żadne słowo nie ma znaczenia, które można zidentyfikować, niezależnie od tego, co znajduje się w jego pobliżu.

Semantyka formalna

Pochodzi z pracy Montagu. Wysoce sformalizowana teoria semantyki języka naturalnego, w której wyrażeniom przypisuje się oznaczenia (znaczenia), takie jak indywidua, wartości prawdziwości lub funkcje między nimi. Prawda zdania, a co ciekawsze, jego logiczny związek z innymi zdaniami, jest następnie oceniana w odniesieniu do tekstu.

Prawdziwa semantyka warunkowa

Kolejna sformalizowana teoria stworzona przez filozofa Donalda Davidsona. Celem tej teorii jest: kojarzenie każdego zdania w języku naturalnym z opisem warunków, w jakich jest ono prawdziwe, na przykład: „śnieg jest biały” jest prawdziwe wtedy i tylko wtedy, gdy śnieg jest biały. Wyzwaniem jest dojście do prawdziwych warunków dla dowolnego zdania z ustalonych znaczeń przypisanych poszczególnym słowom i ustalonych zasad ich łączenia.

W praktyce semantyka warunkowa jest analogiczna do modelu abstrakcyjnego; pojęciowo różnią się jednak tym, że prawdziwa semantyka warunkowa stara się odnosić język do twierdzeń o rzeczywistym świecie (w formie twierdzeń metajęzykowych), a nie do abstrakcyjnych modeli.

Semantyka pojęciowa

Teoria ta jest próbą wyjaśnienia właściwości struktury argumentu. Założeniem tej teorii jest to, że właściwości składniowe fraz odzwierciedlają znaczenie słów, które je prowadzą.

Semantyka leksykalna

Teoria lingwistyczna badająca znaczenie słowa. Ta teoria rozumie, że znaczenie tego słowa jest w pełni odzwierciedlone w jego kontekście. Tutaj znaczenie słowa leży w jego relacjach kontekstowych. Oznacza to, że każda część zdania, która ma sens i łączy się ze znaczeniami innych składników, jest oznaczana jako składnik semantyczny.

Semantyka obliczeniowa

Semantyka obliczeniowa koncentruje się na przetwarzaniu znaczenia językowego. W tym celu opisano konkretne algorytmy i architekturę. W tych ramach analizowane są również algorytmy i architektury pod kątem rozwiązywania, złożoności czasowo-przestrzennej, wymaganych struktur danych i protokołów komunikacyjnych.

Sztuczna semantyka to grupa wyszukiwanych słów kluczowych i fraz do tworzenia treści, tj. tworzenie rdzenia semantycznego, które mogą zwrócić uwagę na treść lub zwiększyć ruch w zasobach internetowych itp. Zasadniczo do tworzenia treści, reklamy używa się sztucznej semantyki lub semantyki tekstu.

Semantyka online

W informatyce termin semantyka odnosi się do znaczenia konstrukcji językowych, a nie do ich formy (składni). Ona zapewnia zasady interpretacji składni, który nie podaje bezpośrednio wartości, ale ogranicza możliwe interpretacje tego, co jest deklarowane. W technologii ontologicznej termin ten odnosi się do znaczenia pojęć, właściwości i relacji, które formalnie reprezentują obiekty, zdarzenia i sceny ze świata rzeczywistego w podejściu logicznym, takim jak logika opisu powszechnie stosowana w Internecie.

Znaczenie pojęć logiki opisu i ról określa ich semantyka modelowo-teoretyczna oparta na interpretacjach. Koncepcje, właściwości i relacje zdefiniowane w ontologiach mogą być wdrażane bezpośrednio w znacznikach strony internetowej, w grafowych bazach danych w postaci wyzwalaczy. Semantyka języków programowania i innych języków jest ważnym problemem i obszarem badań w informatyce. Opracowano różne sposoby opisu języków programowania w oparciu o logikę matematyczną.

Modele semantyczne

Semantyka online odnosi się do ekspansji sieci WWW poprzez: implementacja dodanych metadanych z wykorzystaniem metod semantycznego modelowania danych. W sieci semantycznej terminy takie jak sieć semantyczna i semantyczny model danych są używane do opisu określonych typów modeli danych charakteryzujących się wykorzystaniem grafów skierowanych, w których wierzchołki oznaczają pojęcia lub byty świata i ich właściwości, a łuki oznaczają relacje między ich.

W sieci analiza słów, struktury linków i rozkłady sieci są nieliczne i obejmują części, rodzaje i podobne linki. W zautomatyzowanych ontologiach referencje są obliczane jako wektory bez wyraźnego znaczenia. Opracowywane są różne zautomatyzowane technologie do obliczania znaczenia słów: ukryte maszyny indeksujące semantyczne i obsługujące wektory, a także przetwarzanie języka naturalnego, sieci neuronowe i metody rachunku predykatów.

Psychologia

W psychologii pamięć semantyczna to pamięć dla znaczenia – innymi słowy, aspekt pamięci, który… zachowuje tylko esencję, ogólne znaczenie zapamiętanego doświadczenia, podczas gdy pamięć epizodyczna to pamięć o ulotnych szczegółach - indywidualnych cechach lub unikalnych cechach doświadczenia. Termin „pamięć epizodyczna” został ukuty przez Tulviga i Schactera w kontekście „pamięci deklaratywnej”, która obejmowała prostą agregację faktycznych lub obiektywnych informacji o przedmiocie.

Wspomnienia mogą być przekazywane z pokolenia na pokolenie lub izolowane w ciągu jednego pokolenia z powodu zakłóceń kulturowych. Różne pokolenia mogą mieć różne doświadczenia w podobnych momentach na swoich własnych liniach czasowych. Może to stworzyć pionowo niejednorodną sieć semantyczną dla niektórych słów w jednorodnej kulturze.

Nietrudno zrozumieć, dlaczego znaczenie jest interesujące dla filozofów i psychologów i dlaczego uważa się je za kontrowersyjny „problem”. Zastanów się nad pozornie niewinnym pytaniem: „Jakie jest znaczenie słowa krowa „krowa”?”. Oczywiście nie jest to żadne konkretne zwierzę. Może więc to całej klasie zwierząt nadajemy nazwę krowa „krowa”? Wszystkie krowy różnią się w ten czy inny sposób; i w każdym razie nikt nie zna i nie mógł znać wszystkich członków klasy krów, ale mimo to chciałoby się pomyśleć, że znamy znaczenie słowa krowa i możemy go poprawnie użyć, odnosząc się do konkretnych zwierząt, które nigdy wcześniej nie widziałem. Czy istnieje jedna lub więcej właściwości, które odróżniają krowy od wszystkich innych obiektów, które nazywamy inaczej? Rozumując w ten sposób, zagłębiamy się w filozoficzny spór między „nominalistami” a „realistami”, który toczy się w takiej czy innej formie od czasów Platona do dnia dzisiejszego. Czy rzeczy, które nazywamy tą samą nazwą, mają jakieś wspólne „podstawowe” właściwości, za pomocą których można je zidentyfikować (jak powiedzieliby „realiści”), czy też nie mają ze sobą nic wspólnego poza nazwą, którą zwyczaj czy nauczyliśmy się do nich aplikować (jak mógłby powiedzieć „nominalista”)? A krowa nie jest szczególnie trudnym przypadkiem. Można bowiem przyjąć za pewnik, że krowy można zdefiniować w kategoriach biologicznej klasyfikacji rodzaj-gatunek. Ale co ze słowem „stół”? Stoły mają wiele kształtów i rozmiarów, są wykonane z różnych materiałów i wykorzystywane do różnych celów. Ale tabele są, przynajmniej fizycznie, obiektami obserwowalnymi i namacalnymi; i dla nich można sporządzić listę cech definiujących. Ale co z takimi słowami jak prawda "prawda", piękno "piękno", dobro "życzliwość, dobra jakość" itp.? Czy wszystkie te rzeczy, które określamy jako „piękne” lub „dobre”, mają jakąś wspólną właściwość? Jeśli tak, jak go identyfikujemy i opisujemy? Być może należałoby powiedzieć, że znaczeniem takich słów jak prawda, piękno i dobro jest „pojęcie” lub „idea” kojarzone z nimi w „umysłach” użytkowników danego języka […] i ogólnie, że „znaczenia” „ to „koncepcje” czy „idee”? Powiedzieć to, to ponownie zagłębić się w spory filozoficzne i psychologiczne, ponieważ wielu filozofów i psychologów bardzo wątpi w możliwość istnienia pojęć (lub nawet „umysłu”). Ale nawet pomijając te trudności lub odmawiając ich rozważenia, odkryjemy, że istnieją inne kwestie związane ze znaczeniem i mniej lub bardziej filozoficzne. Czy ma sens twierdzenie, że ktoś użył słowa o znaczeniu innym niż to, co oznacza słowo „naprawdę”? Czy istnieje w ogóle „prawdziwe” lub „poprawne” znaczenie tego słowa?

9.1.4. WARTOŚĆ „WARTOŚCI”

Do tej pory rozmawialiśmy tylko o znaczeniach słów. Mówiliśmy też o zdaniach, które mają znaczenie. Czy termin „znaczenie” jest tu użyty w tym samym znaczeniu? Nawiasem mówiąc, często mówimy, że zdania i kombinacje słów są lub nie są „sensowne”, ale zwykle nie mówimy, że słowa nie są „sensowne”. Czy w takim razie można wskazać różnicę, a być może cały szereg różnic, między pojęciami „bycia znaczącym” i „posiadania znaczenia”? Te i wiele innych pokrewnych pytań było wielokrotnie omawianych przez filozofów i językoznawców. Truizmem w wyjaśnianiu teorii semantycznej stało się zwrócenie uwagi na wielorakie znaczenia „znaczenia”.

Obok pytań filozoficznych są takie, które są bezpośrednio związane z kompetencjami językoznawcy. Filozofowie, podobnie jak „pierwszy przybysz”, zwykle przyjmują „słowa” i „zdania” za oczywiste fakty. Językoznawca nie może tego zrobić. Słowa i zdania są dla niego przede wszystkim jednostkami opisu gramatycznego; wraz z nimi rozpoznawane są inne jednostki gramatyczne. Językoznawca musi rozważyć ogólne pytanie, w jaki sposób jednostki gramatyczne różnego rodzaju są powiązane z jednostkami analizy semantycznej. W szczególności musi zbadać kwestię, czy należy dokonać rozróżnienia między znaczeniem „leksykalnym” a „gramatycznym”.

Do tej pory nikt nie przedstawił, przynajmniej w sposób ogólny, zadowalającej i rozsądnej teorii semantyki. I powinno to być wyraźnie dostrzeżone w każdej dyskusji o problemach tej dyscypliny. Brak spójnej i kompletnej teorii semantyki nie oznacza jednak, że w dziedzinie teoretycznego badania znaczenia nie dokonano absolutnie żadnego postępu. Poniżej krótki przegląd najważniejszych dokonań dokonanych w ostatnich latach przez językoznawców i filozofów.

Wstępnie zdefiniowaliśmy już semantykę jako naukę o znaczeniu; a ta definicja jest jedyną rzeczą, która łączy wszelką semantykę. Gdy tylko zaczynamy zapoznawać się z konkretnymi utworami semantycznymi, mamy do czynienia z taką różnorodnością podejść do definicji i ustalania znaczenia, że ​​dezorientuje to niedoświadczonego czytelnika. Rozróżnia się znaczenie „emocjonalne” i „konceptualne”, „znaczenie” (znaczenie) i „znaczenie” (znaczenie), znaczenie „wykonawcze” i „opisowe”, „znaczenie” i „odniesienie”, między „denotacją”. i „konotacja”, między „znakami” a „symbołami”, między „rozszerzeniem” a „intensją”, między „implikacją”, „uwikłaniem” i „założeniem”, między „analitycznym” a „syntetycznym” itd. terminologia semantyki jest bogata i wręcz zagmatwana, ponieważ użycie terminów przez różnych autorów różni się brakiem spójności i jednolitości. Z tego powodu terminy, które wprowadzamy w tym rozdziale, niekoniecznie będą miały takie samo znaczenie, jak w innych pracach poświęconych semantyce.

Zaczniemy od krótkiej krytyki tradycyjnego podejścia do definiowania znaczenia.

9.2. SEMANTYKA TRADYCYJNA

9.2.1. NAZWA RZECZY

Tradycyjna gramatyka opierała się na założeniu, że słowo (w znaczeniu „token”; por. § 5.4.4) jest podstawową jednostką składni i semantyki (por. także § 1.2.7 i § 7.1.2). Słowo uważano za „znak” składający się z dwóch części; nazwiemy te dwa składniki Formularz słowa i jego oznaczający. (Przypomnijmy, że jest to tylko jedno ze znaczeń, jakie termin „forma” ma w językoznawstwie; „forma” słowa jako „znak” lub jednostka leksykalna musi być odróżniona od konkretnych „przypadkowych” lub fleksyjnych „form” w które to słowo pojawia się w zdaniach; por. § 4.1.5.) Bardzo wcześnie w historii gramatyki tradycyjnej pojawiło się pytanie o związek między słowami a „rzeczami”, do których się odnosiły lub „oznaczały”. Starożytni greccy filozofowie czasów Sokratesa, a po nich Platon, sformułowali to pytanie w terminach, które od tego czasu są powszechnie używane w omawianiu tego zagadnienia. Dla nich relacją semantyczną, jaka zachodzi między słowami a „rzeczami”, była relacja „nazywania”; a potem powstał następujący problem: czy „nazwy”, jakie nadajemy „rzeczom” mają „naturalne” czy „konwencjonalne” pochodzenie (por. § 1.2.2). W miarę rozwoju tradycyjnej gramatyki powszechne stało się rozróżnianie znaczenia słowa od „rzeczy” lub „rzeczy”, które są „nazywane”, „nazywane” przez dane słowo. Gramatycy średniowieczni sformułowali to rozróżnienie w następujący sposób: forma słowa (ta część dictio, którą określa się jako vox) oznacza „rzeczy” za pomocą „pojęcia” związanego z formą w umysłach użytkowników tego języka; a pojęcie to jest znaczeniem słowa (jego znaczeniem). Pogląd ten będziemy uważać za tradycyjny pogląd na stosunek między słowami a „rzeczami”. Jak już wspomniano, pogląd ten w zasadzie stanowił podstawę filozoficznej definicji słowa „części mowy” zgodnie z ich „metodami oznaczania” (por. § 1.2.7.) Nie wdając się w szczegółowy wykład tradycyjnej teorii „znaczenia”, zauważamy tylko, że terminologia stosowana w tej nie wykluczało możliwości dwuznacznego lub niepodzielnego użycia terminu „signify” (signify): można by powiedzieć, że forma słowa „oznacza” „pojęcie”, pod którym „rzeczy” są " z ich "przypadkowych" właściwości); można też powiedzieć, że "oznacza" same "rzeczy". Co się tyczy relacji między "pojęciami" i "rzeczami", jest to oczywiście przedmiotem wielu filozoficznych kontrowersji (szczególnie uderzające są różnice między „nominalistami” a „realistami”; por. § 9.1.3). Tutaj możemy zignorować te różnice filozoficzne.

9.2.2. ODNIESIENIE

W tym miejscu warto wprowadzić nowoczesny termin na oznaczenie „rzeczy”, rozpatrywanych z punktu widzenia „nazywania”, „nazywania” ich słowami. To jest termin referent. Powiemy, że relacja zachodząca między słowami a rzeczami (ich desygnatami) jest relacją Bibliografia (pokrewieństwo): słowa korelat z rzeczami (i nie „wyznaczaj” ich ani nie „nazywaj”). Jeśli przyjmiemy rozróżnienie między formą, znaczeniem i desygnatem, możemy dać dobrze znaną schematyczną reprezentację tradycyjnego poglądu na związek między nimi w postaci trójkąta (czasami nazywanego „trójkątem semiotycznym”), przedstawionego na ryc. . 23. Linia przerywana między formą a desygnatem wskazuje, że związek między nimi jest pośredni; forma jest powiązana ze swoim desygnatem poprzez znaczenie pośredniczące (konceptualne), które jest kojarzone z każdym z nich niezależnie. Diagram wyraźnie ilustruje ważny punkt, że w tradycyjnej gramatyce słowo jest wynikiem połączenia pewnej formy z określonym znaczeniem.

Wspomnieliśmy już o sporach filozoficznych i psychologicznych dotyczących statusu „pojęć” i „idei” w „umyśle” (por. §9.1.3). Semantyka tradycyjna podnosi istnienie „pojęć” do zasady wszystkich konstrukcji teoretycznych i dlatego (niemal nieuchronnie) zachęca do subiektywizmu i introspekcji w badaniu znaczenia. Jak pisze Haas: „Nauka empiryczna nie może całkowicie polegać na metodzie badawczej, która polega na tym, że ludzie robią obserwacje we własnych umysłach, każdy we własnym”. Krytyka ta sugeruje przyjęcie poglądu, że semantyka jest lub powinna być nauką empiryczną, a pogląd ten jest pożądany, o ile to możliwe, niezwiązany z tak kontrowersyjnymi kwestiami filozoficznymi i psychologicznymi, jak rozróżnienie między „ciałem” a „duchem” lub status " koncepcje". Będziemy trzymać się tego punktu widzenia, rozważając semantykę w tych rozdziałach. Należy jednak podkreślić, że metodologiczne odrzucenie „mentalizmu” nie oznacza akceptacji „mechanizmu”, jak sądzą niektórzy językoznawcy. „mechanistyczna” i „pozytywistyczna” definicja słowa Bloomfielda jako pełnego „naukowego” opisu jego desygnatu jest bardziej szkodliwa dla postępu w dziedzinie semantyki niż tradycyjna definicja w kategoriach „koncepcji”, ponieważ definicja Bloomfielda preferencyjnie skupia się na stosunkowo niewielkim zbiorze słów w słowniku języków naturalnych, słowach odpowiadających „rzeczom”, które w zasadzie można opisać za pomocą nauk fizycznych. Ponadto opiera się na dwóch dorozumianych i nieuzasadnionych założeniach: (i) że „naukowy” opis desygnatów tych słów jest powiązany z tym, jak te słowa są używane przez użytkowników danego języka (większość użytkowników ma niewielkie pojęcie o opis „naukowy”); (ii) znaczenie wszystkich słów można podsumować w tych samych terminach. Prawdą jest, że podejście Bloomfielda (znajdujące się także u innych pisarzy) można uznać za oparte na „realistycznym” spojrzeniu na relację między językiem a „światem”, poglądzie, który nie różni się zbytnio od poglądu wielu „konceptualistów”; implikuje przynajmniej założenie, że skoro istnieje np. słowo inteligencja „umysł, intelekt, inteligencja”, to jest też coś, do czego się ono odnosi (a to „coś” ma być w czasie zadowalająco opisane). sposób za pomocą „nauki”); skoro istnieje słowo miłość „kochać, kochać”, to jest też coś, z czym to słowo jest związane itp. e. Stanowisko, jakie ma zająć językoznawca, jest neutralne w odniesieniu do „mentalizmu” i „mechanizmu”; jest to stanowisko zgodne z obydwoma punktami widzenia, ale nie zakłada żadnego z nich.

9.2.7. DEFINICJA „OSTENSYWNA”

Poprzedni akapit zawiera implicite inną krytykę tradycyjnej semantyki (jak również niektórych nowoczesnych teorii). Widzieliśmy już, że termin „znaczenie” w swoim powszechnym użyciu ma wiele „znaczeń”. Kiedy zadajemy komuś pytanie - „Jakie jest znaczenie tego słowa x? - w toku codziennej (niefilozoficznej i mało specjalistycznej) rozmowy otrzymujemy (i wcale nas to nie dziwi) odpowiedzi różniące się formą, w zależności od okoliczności i sytuacji, w jakiej zadajemy to pytanie. Jeśli interesuje nas znaczenie słowa w innym języku niż nasz, to odpowiedzią na nasze pytanie jest najczęściej tłumaczenie. („Tłumaczenie” porusza wszelkiego rodzaju problemy o znaczeniu semantycznym, ale na razie nie będziemy ich dotykać; por. § 9.4.7.) Dla nas teraz sytuacja jest bardziej wyjaśniona, gdy pytamy o znaczenie słów nasz własny język (lub inny język, który „znamy”, przynajmniej „częściowo”, - ogólnie pojęcie „pełnej znajomości języka” jest oczywiście fikcją). Załóżmy, że chcemy poznać znaczenie słowa krowa w nieprawdopodobnej (ale wygodnej dla naszych celów) sytuacji, gdy na pobliskiej łące znajduje się kilka krów. Można by nam powiedzieć: „Widzisz tam te zwierzęta? To są krowy”. Ten sposób oddania znaczenia słowa krowa „krowa” zawiera w sobie element tego, co filozofowie nazywają ostensywna definicja. (Definicja ostensywna (wizualna) jest taką definicją, która bezpośrednio „wskazuje” na odpowiedni przedmiot.) Ale definicja ostensywna sama w sobie nigdy nie jest wystarczająca, ponieważ osoba interpretująca tę „definicję” musi przede wszystkim znać znaczenie gest „wskazujący” w danym kontekście (a także wiedzieć, że intencją mówiącego jest właśnie podanie „definicji”) i, co ważniejsze, musi poprawnie zidentyfikować przedmiot, na który „wskazuje”. W przypadku naszego hipotetycznego przykładu słowa te zwierzęta „te zwierzęta” ograniczają możliwość błędnego zrozumienia. (Nie eliminują go całkowicie; ale założymy, że „definicja” znaczenia krowy została zinterpretowana w sposób zadowalający.) Teoretyczne znaczenie tego uproszczonego i raczej nierealistycznego przykładu ma dwa aspekty: po pierwsze, ukazuje trudność w wyjaśnieniu znaczenie dowolnego słowa bez użycia innych słów w celu ograniczenia i uściślenia „pola” „wskazania” (potwierdza on pogląd, że prawdopodobnie niemożliwe jest ustalenie, a być może nawet poznanie znaczenia jednego słowa bez jego znajomości innymi słowy, z którym jest „związana”; na przykład krowa „krowa” jest związana ze zwierzęciem „zwierzę”); po drugie, definicja ostensywna odnosi się tylko do stosunkowo małego zestawu słów. Wyobraź sobie na przykład daremność prób wyjaśniania w ten sposób znaczenia słów prawdziwy „poprawny, prawdziwy”, piękny „piękny, piękny, wspaniały” itp.! Znaczenie takich słów jest zwykle wyjaśniane, choć nie zawsze skutecznie, za pomocą synonimów (których znaczenie zakłada się już znane pytającemu) lub za pomocą dość długich definicji typu, które zwykle podaje się w słownikach. I znowu, wyraźnie manifestuje się tu nieunikniona kolistość semantyki: w słowniku nie ma jednego punktu, który można by przyjąć za punkt wyjścia i z którego można by wywnioskować znaczenie wszystkiego innego. Ten problem „okrągłości” zostanie omówiony poniżej (por. § 9.4.7).

9.2.8. KONTEKST

Inną cechą codziennych sytuacji, w jakich się znajdujemy, pytając o znaczenie słów, jest to, że często słyszymy: „To zależy od kontekstu”. („Podaj mi kontekst, w jakim spotkałeś to słowo, a wyjaśnię ci jego znaczenie”). Często nie da się określić znaczenia słowa bez „wstawienia go w kontekst”; a użyteczność słowników jest wprost proporcjonalna do liczby i różnorodności „kontekstów”, które są w nich podane przy słowach. Często (i jest to chyba najczęstszy przypadek) znaczenie tego słowa wyjaśnia się w następujący sposób: podaje się „synonim”, wskazujący na „kontekstowe” ograniczenia, które regulują użycie danego słowa (dodano: „zepsute (o jajach) )”; zjełczały: „zepsuty (o maśle)” itp.). Fakty, takie jak różnorodność sposobów, w jakie w praktyce określamy znaczenie słów, „kolejność” słownictwa i zasadnicza rola „kontekstu”, nie znajdują pełnego teoretycznego uznania w tradycyjnej semantyce.

9.2.9. „ZNACZENIE” I „UŻYCIE”

Możemy tu wspomnieć słynne i bardzo popularne hasło Wittgensteina: „Nie szukaj znaczenia słowa, szukaj jego użycia”. Sam termin „użycie” nie jest jaśniejszy niż termin „znaczenie”; ale zastępując jeden termin innym, semantyk porzuca tradycyjną tendencję do definiowania „znaczenia” w kategoriach „znaczenia”. Własne przykłady Wittgensteina (w jego późniejszej pracy) pokazują, że, jak on to widział, „zastosowania”, w jakich występują słowa w języku, mają najróżniejszy charakter. Nie przedstawił (i nie zadeklarował zamiaru przedstawienia) teorii „użycia” słów jako teorii semantyki. Ale prawdopodobnie mamy prawo wydobyć z programowej wypowiedzi Wittgensteina następujące zasady. Jedynym testem, który można zastosować w badaniu języka, jest „używanie” wypowiedzi językowych w różnych sytuacjach. Życie codzienne. Wyrażenia takie jak „znaczenie słowa” i „znaczenie zdania (lub twierdzenia)” są zagrożone wprowadzeniem w błąd, ponieważ prowadzą nas do poszukiwania „znaczeń” jakie mają i identyfikowania ich „znaczeń” z takimi bytami jako obiekty fizyczne, „koncepcje” dane „umysłowi” lub „sytuacje” (stany rzeczy) w świecie fizycznym.

Nie mamy bezpośrednich dowodów na zrozumienie wypowiedzi, ale raczej dysponujemy danymi na ich temat. nieporozumienia(nieporozumienie) - gdy coś jest "zakłócone" w procesie komunikacji. Jeśli na przykład powiemy komuś, żeby mi przyniósł czerwoną książkę, która jest na stole na górze, „przynieś mi czerwoną książkę, która jest na stole na górze”, a on przyniesie nam książkę w innym kolorze lub pudełko zamiast książki lub schodzi na dół w poszukiwaniu książki, lub robi coś zupełnie nieoczekiwanego, to możemy całkiem rozsądnie powiedzieć, że „źle zrozumiał” całość lub część naszego stwierdzenia (możliwe są oczywiście inne wyjaśnienia). Jeśli zrobi to, czego się od niego oczekuje (przechodzi do właściwy kierunek i wraca z odpowiednią książką), wtedy możemy powiedzieć, że poprawnie zrozumiał oświadczenie. Chcemy podkreślić, że (w takim przypadku) istnieją prima facie „behawioralne” fakty, które wskazują, że nie było nieporozumienia. Całkiem możliwe, że gdybyśmy nadal bardzo wytrwale testowali jego „rozumienie” słów „przynieś” lub „czerwony” lub „książka”, to nadszedłby moment, w którym coś, co zrobił lub powiedział, ujawniłoby, że jego „rozumienie” tych słów jest nieco inne od naszego, że wyciąga wnioski ze stwierdzeń zawierających te słowa, których my nie wyciągamy (lub odwrotnie, że wyciągamy wnioski, których on nie wyciąga) lub że używa ich do oznaczeń dla jakiegoś nieco inna klasa przedmiotów lub działań. Normalna komunikacja opiera się na założeniu, że wszyscy „rozumiemy” słowa w ten sam sposób; to założenie jest od czasu do czasu łamane, ale jeśli tak nie jest, fakt „zrozumienia” jest uważany za pewnik. To, czy mamy te same „koncepcje” w naszych „umysłach”, kiedy rozmawiamy ze sobą, jest pytaniem, na które nie można odpowiedzieć inaczej niż w kategoriach „używania” słów w wypowiedziach. Twierdzenie, że każdy „rozumie” to samo słowo w nieco inny sposób, jest prawdopodobnie prawdziwe, ale raczej bezsensowne. Semantyka zajmuje się wyjaśnianiem stopnia jednolitości w „użyciu” języka, który umożliwia normalną komunikację. Kiedy odrzucimy pogląd, że „znaczenie” słowa jest tym, co „oznacza”, całkiem naturalnie uznajemy, że pewne relacje muszą być ustanowione w celu wyjaśnienia „użycia”. Dwa z „czynników”, które należy rozróżnić, to: odniesienie(co już omówiliśmy powyżej) i oznaczający(sens).

9.2.10. WARTOŚĆ NIEOKREŚLONA

Proponujemy więc porzucić pogląd, że „znaczenie” słowa jest tym, co ono „znaczy”, aw procesie komunikacji to „znaczone” jest „przekazywane” (w pewnym sensie) przez mówiącego do słuchacza; jesteśmy raczej gotowi zgodzić się, że determinizm (określoność) znaczenia słów nie jest ani konieczny, ani pożądany. Jak widzieliśmy, użycie języka w normalnych sytuacjach można wytłumaczyć znacznie słabszym założeniem, a mianowicie, że między użytkownikami danego języka istnieje zgoda co do „używania” słów (do czego się odnoszą, do czego mają na myśli itd.) na tyle, aby wyeliminować „nieporozumienie”. Ten wniosek należy mieć na uwadze przy każdej analizie „znaczeń” słów i zdań. Przyjmiemy to za pewnik w kolejnych sekcjach tych dwóch rozdziałów dotyczących semantyki.

Należy poczynić jeszcze dwie uwagi na temat takich społecznie nakazanych stwierdzeń, jak Jak się masz? "Witaj!". Mają one zwykle charakter formacji „gotowych”, to znaczy są uczone przez native speakerów jako nieanalizowane całe jednostki i, co oczywiste, nie są one odtwarzane za każdym razem, gdy są używane w okolicznościach, które za Fursem możemy nazwać „typowymi powtarzającymi się wydarzeniami w łańcuchu procesu społecznego”. Ponieważ mają taki charakter, można je tłumaczyć w kategoriach koncepcji „behawioralnej”: wypowiedzi, o których mowa, można by równie dobrze określić jako „reakcje warunkowe” na sytuacje, w których się pojawiają. Semantyk nie powinien ignorować tego faktu. Znaczna część naszego codziennego używania języka jest dość adekwatnie opisana terminami „behawioralnymi” i może być związana z faktem, że „odgrywamy” pewne „role” w procesie wdrażania społecznie nakazanych „rytualnych” wzorców zachowań. Rozpatrywane z punktu widzenia tego aspektu używania języka jednostki ludzkie wykazują zachowania podobne do wielu zwierząt, których „systemy komunikacji” składają się z zestawu „gotowych wypowiedzi” używanych w pewne sytuacje. Bardziej typowych ludzkich aspektów zachowania językowego, które zależą od generatywnych właściwości języka, a także od semantycznych pojęć posiadania znaczenia, odniesienia i znaczenia, nie można przekonująco wyjaśnić, rozszerzając na nie „behawiorystyczne” pojęcia „bodziec” i „odpowiedź”. Prawdą jest jednak, że język ludzki zawiera również składnik „behawioralny”. Chociaż nie będziemy o tym dalej mówić, teoretycznie powinniśmy rozpoznać tutaj tę prawdę.

9.3.7. PATYCZNA KOMUNIA

W związku z tym należy również wspomnieć o aspekcie zachowań językowych, do którego B. Malinowski użył terminu „komunikacja fatyczna”. Zwrócił uwagę, że wiele naszych wypowiedzi błędnie przypisuje się jako jedyną lub główną funkcję przekazywania lub poszukiwania informacji, wydawania rozkazów, wyrażania nadziei, potrzeb i pragnień, a nawet „wyrażania emocji” (w niejasnym sensie, w jakim specjaliści w semantyce często używa się tego ostatniego wyrażenia); w rzeczywistości służą budowaniu i podtrzymywaniu poczucia solidarności społecznej i społecznego samozachowania. Wiele „gotowych” stwierdzeń, takich jak Jak się masz? „Hello!”, społecznie napisane w pewnych kontekstach, może pełnić właśnie tę funkcję „komunikacji fatycznej”. Istnieje jednak wiele innych wypowiedzi, które są mniej lub bardziej swobodnie konstruowane przez mówiących, ale jednocześnie przekazują informacje i służą celom „komunikacji fatycznej”. Przykładem może być zdanie „To kolejny piękny dzień" Znowu piękny dzień, wypowiadane (z założenia) jako pierwsze zdanie w rozmowie między kupującym a sklepikarzem. Oczywiste jest, że główną funkcją tego stwierdzenia nie jest „przekazują” sklepikarzowi jakie informacje o pogodzie; jest to wyraźny przykład komunikacji „patycznej”.” Jednocześnie jednak wypowiedź ta ma inne znaczenie niż niezliczone inne wypowiedzi, które mogą wystąpić w tym kontekście i mogą równie dobrze służy celom „patycznej” komunikacji. komunikacji”; a następny „krok” w rozmowie jest zwykle związany z tą konkretną wypowiedzią na podstawie jej znaczenia. Musimy zatem rozróżnić między tym aspektem „ używania” wypowiedzi, które można przypisać realizacji „komunikacji fatycznej” i tej części, która musi być wyodrębniona jako ich znaczenie (jeśli mają znaczenie w rozumieniu naszej definicji). Ale jednocześnie uznajemy, że nawet kiedy oświadczenie Oba te aspekty tkwią w wypowiedzi, dominującą częścią „użytkowania” wypowiedzi może być albo pierwszy, albo drugi aspekt. Malinowski przesadzał, gdy twierdził, że przekazywanie informacji jest jedną z „najbardziej peryferyjnych i wysoce wyspecjalizowanych funkcji” języka.

9.3.8. ROZSZERZENIE POJĘCIA „POSIADAJĄCY ZNACZENIE” NA WSZYSTKIE JEDNOSTKI JĘZYKOWE

Do tej pory zilustrowaliśmy pojęcie posiadania znaczenia tylko w odniesieniu do całych zdań, uważanych za jednostki nierozkładalne. Będziemy teraz kontynuować ze stwierdzeniami, a nie zdaniami, i dalej odnosić się do intuicyjnego pojęcia „kontekstu”; ale teraz uogólnimy pojęcie posiadania znaczenia w kategoriach następującej zasady: każdy element językowy występujący w wypowiedzi ma znaczenie, chyba że jest całkowicie z góry określony („obowiązkowy”) w danym kontekście.

Oczywiście pojęcie posiadania znaczenia (jak tutaj zdefiniowano) dotyczy wszystkich poziomów analizy wypowiedzi, w tym poziomu fonologicznego. Na przykład istnieje wiele kontekstów, w których słowa baranek „baran” i baran „baran” mogą być użyte z takim samym powodzeniem, a odpowiadające im stwierdzenia mogą różnić się tylko tymi słowami. Ponieważ wypowiedzi te mają najwyraźniej różne znaczenie (odnośniki słów baran i baran są różne i ogólnie rzecz biorąc, implikacje „zawarte” w odpowiednich wypowiedziach są różne), fonemy /l/ i /r/ mają nie tylko znaczenie, ale mają inne znaczenie w tych oświadczeniach. Istnieją inne wypowiedzi zawierające wyrazy inne niż baranek i baran, w których różnicę znaczeniową można wyrazić jedynie przez opozycję fonologiczną /l/ - /r/. Jak widzieliśmy we wcześniejszym rozdziale (por. § 3.1.3), struktura fonologiczna poszczególnych języków opiera się ostatecznie na różnicującej mocy fonemów (dokładniej na różnicującej mocy ich „cech wyróżniających”), ograniczonej przez pewne ograniczenia narzucone przez dodatkową zasadę podobieństwa fonetycznego. Istnieją zatem dobre powody, by stosować pojęcie posiadania znaczenia nawet na poziomie analizy fonologicznej. Warto jednak zauważyć, że w przypadku dźwięków fonetycznie odmiennych, ale „podobnych”, posiadanie znaczenia oznacza nieuchronnie posiadanie innego znaczenia, przynajmniej w niektórych kontekstach. Na „wyższych” poziomach tak nie jest. Jeśli chodzi o języki, w których występują głoski [l] i [r], ale nigdy nie rozróżniamy wypowiedzi, mówimy, że w tych językach wskazane głoski pozostają w relacji dodatkowego rozmieszczenia lub zmienności swobodnej (innymi słowy , że są to alternatywne realizacje fonetyczne tej samej jednostki fonologicznej, por. § 3.3.4). W tych kontekstach, w których dźwięki mowy, które inaczej różnią się jako oddzielne jednostki fonologiczne, mają to samo znaczenie, można je racjonalnie określić jako synonimy. Przykładami są samogłoski początkowe w alternatywnych wymowach słowa ekonomia (odwrotnym przypadkiem jest zróżnicowana jakość tych samych samogłosek w beat /bi:t/ : bet /bet/ itd.) lub kontrowersyjny wzór akcentu: kontrowersje.

Chociaż semantyk teoretycznie musi uznać zasadę stosowalności własności znaczeniowej na poziomie fonologicznym, w swojej praktyce praktycznej zwykle nie zajmuje się znaczeniem jednostek fonologicznych. Powodem jest to, że jednostki fonologiczne nigdy nie mają obiektywnej korelacji i nie wchodzą w żadne relacje semantyczne, z wyjątkiem relacji identyczności i różnicy znaczeń. Co więcej, relacja identyczności znaczenia, gdy występuje między jednostkami fonologicznymi (synonimia fonologiczna, jak pokazano powyżej), jest sporadyczna i niesystemowa. Należy to opisać pod kątem alternatywnych zasad implementacji dla poszczególnych słów; po uzyskaniu tych zasad nic więcej nie jest potrzebne. Ogólnie rzecz biorąc (na szczególną uwagę zasługuje przypadek „symboliczności dźwiękowej” – zjawisko interesujące semantycznie, którego ze względu na ograniczone możliwości nie będziemy tu rozważać; por. § 1.2.2) „znaczenie” danej jednostki fonologicznej jest po prostu jego odrębność od wszystkich innych jednostek fonologicznych (jeśli istnieją), które mogą wystąpić w tym samym kontekście.

9.3.9. OGRANICZONE KONTEKSTY

Przejdźmy teraz do rozróżnienia zdań i zdań (por. § 5.1.2). Należy pamiętać o dwóch kwestiach. Pierwszy. Kiedy używamy języka do komunikowania się ze sobą, nie tworzymy zdań, ale wypowiedzi; takie stwierdzenia są dokonywane w określonych kontekstach i nie mogą być zrozumiane (nawet w granicach określonych powyżej dla interpretacji terminu „rozumienie”; por. § 9.2.9) bez znajomości odpowiednich cech kontekstowych. Co więcej, w toku rozmowy (zakładając, że mamy do czynienia z rozmową) kontekst nieustannie ewoluuje, w tym sensie, że „absorbuje” z tego, co się mówi i co się dzieje, wszystko, co jest istotne dla wytworzenia i zrozumienia kolejne oświadczenia. Skrajnym przypadkiem kontekstów nie „rozwiniętych” w tym sensie byłyby te, w których uczestnicy rozmowy nie polegają na uprzedniej wzajemnej znajomości, ani na „informacjach” zawartych we wcześniej wypowiadanych wypowiedziach, ale w których więcej ogólne opinie, zwyczaje i założenia panujące w tej szczególnej „sferze dyskursu” iw tym społeczeństwie. Takie konteksty - nazwiemy je ograniczone konteksty(zastrzeżone konteksty) - są stosunkowo rzadkie, ponieważ zrozumienie większości stwierdzeń zależy od informacji zawartych w poprzednich wypowiedziach. Nie wolno nam tracić z oczu związku między wypowiedziami a konkretnymi kontekstami.

Po drugie, ponieważ zdania nigdy nie są tworzone przez mówiących (ponieważ zdania są jednostkami teoretycznymi ustalonymi przez językoznawców w celu opisania ograniczeń dystrybutywnych dotyczących występowania klas elementów gramatycznych), nie może istnieć bezpośredni związek między zdaniami a konkretnymi kontekstami. Jednocześnie wypowiedzenia mają strukturę gramatyczną, która zależy od ich „wnioskowania” ze zdań, a struktura gramatyczna wypowiedzeń jest lub może być istotna semantycznie. Jest to szczególnie widoczne w przypadku „niejednoznaczności” składniowej (por. § 6.1.3). Ponadto (z wyjątkiem takich „gotowych” wyrażeń jak How do you do? „Hello!”) wypowiedzi są wytwarzane przez mówiących i rozumiane przez słuchaczy na podstawie prawidłowości w konstrukcji i przekształceniach nadanych zdaniu przez reguły gramatyczne . W chwili obecnej ani językoznawstwo, ani żadna inna nauka zajmująca się „mechanizmami” tworzenia wypowiedzi nie jest w stanie sformułować żadnych konkretnych twierdzeń co do tego, w jaki sposób poznanie abstrakcyjnych relacji zachodzących między elementami gramatycznymi w zdaniach oddziałuje z różnymi właściwościami kontekstów, w wyniku czego powstają i rozumieją zdania, w których znajdują się „korelaty” tych elementów gramatycznych. Sam fakt, że istnieje pewna interakcja między strukturą gramatyczną języka a odpowiednimi cechami kontekstowymi wydaje się być niewątpliwym i faktem tym musimy się liczyć.

Ponieważ na ogół nie potrafimy zidentyfikować ani rzeczywistych elementów, które nadawca „wybiera” w procesie formułowania wypowiedzi, ani wszystkich istotnych cech konkretnych kontekstów, możemy przyjąć jako decyzję metodologiczną zasadę, którą zwykle lingwiści kierują się w praktyce: a mianowicie rozważenie relacji semantycznych między wypowiedziami w kategoriach relacji semantycznych zachodzących między zdaniami, na podstawie których wypowiedzi są często uważane za „stworzone”, gdy są tworzone przez native speakerów w ograniczonych kontekstach. (Pojęcie „ograniczonego kontekstu” musi być nadal zachowane, gdyż, jak zobaczymy poniżej, nie można formułować relacji semantycznych zachodzących między zdaniami bez uwzględnienia, przynajmniej w niewielkim stopniu, „kontekstualizacji”; zob. § 10.1.2.) Następnie zostaną przywołane właściwości poszczególnych kontekstów (w tym, co, przynajmniej na razie, można scharakteryzować jako opis ad hoc), aby wyjaśnić „pozostałe” semantycznie istotne aspekty wypowiedzi. To, co przedstawiliśmy tutaj jako świadome, metodologiczne rozwiązanie, nie powinno być jednak traktowane tak, jakbyśmy chcieli podkreślić prymat gramatyki nad kontekstowością w psychologicznych procesach wytwarzania i rozumienia wypowiedzi.

9.3.10. ELEMENTY STRUKTURY GŁĘBOKIEJ MAJĄ WARTOŚĆ W ZDANIACH

Możemy teraz zastosować pojęcie „mający znaczenie” do elementów gramatycznych, z których zdania są generowane za pomocą reguł rządzących konstruowaniem i przekształcaniem ich podstaw (por. § 6.6.1). Ponieważ posiadanie znaczenia implikuje „wybór”, wynika z tego, że żadne elementy wprowadzone do zdań za pomocą wiążących reguł nie mogą mieć sensu w naszym znaczeniu. (Takie elementy „fikcyjne”, jak zrobić (czasownik pomocniczy) w Czy chcesz iść? „Czy chciałbyś iść?”, nie mają znaczenia; por. § 7.6.3.) Ponadto, jeśli założymy, że wszystkie „wybory” są dokonane w związku z wyborem elementów w „głębokiej” strukturze (te elementy są albo „kategoriami” albo „cechami”; por. § 7.6.9), stanie się jasne, że koncepcja posiadania znaczenia nie jest związana z jednostki o dowolnej randze. Po pierwsze, rozgraniczenie w języku takich jednostek jak morfemy, słowa i grupy słów (fraz) opiera się w pewnym stopniu na strukturze „powierzchniowej” (§ 6.6.1); a po drugie, istnieje wiele „kategorii gramatycznych” (czas, nastrój, aspekt, rodzaj, liczba itp.; por. § 7.1.5), które mogą, ale nie muszą być realizowane w morfemach lub słowach, ale które stanowią systemy „wyborów ” w zdaniach. Kwestia, czy można dokonać ścisłego rozróżnienia między znaczeniami „leksykalnymi” i „gramatycznymi”, biorąc pod uwagę dokładnie, jakie znaczenia mają elementy, zostanie omówiona poniżej (por. § 9.5.2). Wystarczy w tym miejscu zauważyć, że pojęcie posiadania znaczenia odnosi się w równym stopniu do obu typów elementów w „głębokiej” strukturze zdania. Co więcej, koncepcja ta jest uwzględniana, w sposób wyraźny lub dorozumiany, we wszystkich najnowszych teoriach językowych. Klasy elementów (oznaczone symbolami pomocniczymi lub końcowymi – por. § 6.2.2) są ustalane w każdym punkcie „wyboru” w procesie generowania zdań.

Z tego, co zostało powiedziane wynika, że ​​żaden element zdania nie ma znaczenia, jeśli nie należy do jednej z klas składniowo zdefiniowanych w „głębokiej” strukturze zdania: i to właśnie ten fakt uzasadnia założenie, niemal powszechnie przyjęte. przez językoznawców, logików i filozofów, że zbiór elementów, które mają znaczenie w jakimś konkretnym języku, jest przynajmniej w bardzo wysokim stopniu współmierny do zbiorów końcowych „składników” i „cech” tego języka. Nie wynika jednak z tego, że każdy „składnik” i każdy „znak” będą miały znaczenie w każdym zdaniu, w którym występują. Ta ważna kwestia jest czasami pomijana przez językoznawców i dlatego zasługuje na bardziej szczegółowe rozpatrzenie.

Cały problem sprowadza się do rozróżnienia między akceptowalnością gramatyczną i semantyczną. Jak widzieliśmy we wcześniejszym rozdziale (por. § 4.2.12 i nast.), gramatyka jest tym aspektem dopuszczalności zdań, który można wyjaśnić za pomocą reguł konstrukcji i transformacji, które określają dopuszczalne kombinacje rozdzielczych klas elementów („kategorie” i „znaki”) w zdaniach. Powszechnie uważa się, że gramatyka dowolnego języka generuje w szczególności nieskończoną liczbę zdań, które są nie do przyjęcia pod różnymi względami; tradycją stało się opisywanie co najmniej jednego rodzaju niedopuszczalności poprzez scharakteryzowanie danych propozycji jako „bez znaczenia” lub „bez treści”. Niech następujące zdania zostaną wygenerowane przez gramatykę języka angielskiego (a zatem będą gramatycznie poprawne):

(a) Jan pije mleko (piwo, wino, wodę itp.) „Jan pije mleko (piwo, wino, wodę itp.)”

(b) Jan je ser (ryby, mięso, chleb itp.) „Jan je ser (ryby, mięso, chleb itp.)”

(c) Jan pije ser (ryby, mięso, chleb itp.)

(d) Jan je mleko (piwo, wino, wodę itp.) „Jan je mleko (piwo, wino, wodę itp.)”.

Załóżmy ponadto, że wszystkie te zdania mają w pokoleniu ten sam opis strukturalny: że czasowniki pić „pić” i jeść „jeść, jeść”, jak również rzeczowniki mleko „mleko”, piwo „piwo”, wino „ wino, woda „woda”, ser „ser”, ryba „ryba”, mięso „mięso”, chleb „chleb” itp. nie wyróżniają się w leksykonie żadnymi istotnymi cechami składniowymi. Oczywiście przy pewnym zrozumieniu pojęć „dopuszczalne” i „niedopuszczalne” dopuszczalne są zdania wywodzące się ze zdań zgrupowanych w klasach (a) i (b), natomiast zdania wywodzące się ze zdań należących do grup (c) i (d) są niedopuszczalne (w „naturalnych” okolicznościach). Czy opisywać tego rodzaju dopuszczalność i nieakceptowalność, opierając się na kryterium „sensowności” (w znaczeniu tego terminu, który proponujemy wyróżnić terminem „znaczenie”), rozważymy to nieco później . W tym miejscu chcemy podkreślić, że zbiory elementów, które mogą wystąpić i mają znaczenie czasownika i dopełnienia w tych zdaniach, są bardzo ograniczonymi podzbiorami tych zbiorów elementów, na które zezwalają reguły gramatyczne. Tutaj znowu skrajnym przypadkiem jest sytuacja, w której wystąpienie elementu jest całkowicie zdeterminowane przez kontekst, na który składają się inne elementy zdania. Przykładem pełnej predestynacji na tym poziomie jest pojawienie się słowa zęby „zęby” w Ugryzłem go sztucznymi zębami „Ugryzłem go sztucznymi zębami”. Jak zobaczymy poniżej (por. § 9.5.3), zdanie to wykazuje interesujący semantycznie typ „założenia” syntagmatycznego, który zwykle jest dorozumiany, ale który może być wyrażony wprost, gdy jego „odbicie syntaktyczne” pojawia się w zdaniu. „definicja” (w tym przykładzie fałsz „wstaw”). Jeśli słowo zęby nigdy nie występuje w zdaniach innych niż te, w których jest całkowicie określone przez kontekst, to nie miałoby znaczenia w języku angielskim, a semantyk nie miałby na ten temat nic do powiedzenia.

Celem naszej dyskusji było pokazanie, jak konkretnie pojęcie posiadania znaczenia może i powinno zostać przeniesione z poziomu raczej „konkretnych” przypadków, kiedy dotyczy z jednej strony poprawnych gramatycznie, nieustrukturyzowanych całych wypowiedzi, a z drugiej Z drugiej strony zdania, które różnią się minimalnie strukturą fonologiczną, na poziom bardziej „abstrakcyjny”, gdzie dotyczy ważniejszej i znacznie większej klasy zdań generowanych przez reguły gramatyczne. Za pojęciem posiadania znaczenia przemawia fakt, że odzwierciedla intuicyjnie jasną zasadę, że „sens oznacza wybór” w poszczególnych kontekstach. Jej przeniesienie na bardziej „abstrakcyjny” poziom opiera się na decyzji metodologicznej, której motywacja ma dwa aspekty: po pierwsze, decyzja ta uwzględnia fakt, że określone cechy kontekstualne, które wpływają na tworzenie i interpretację wypowiedzi, można opisywać jedynie ad hoc; po drugie, podejście to w sposób zadowalający łączy semantyczną interpretację zdań z ich opisem składniowym. Jeśli zostanie ustalone, że jakiś konkretny element ma znaczenie w pewnej klasie zdań, to możemy się zastanawiać, jakie znaczenie ma ten element; a na to pytanie można odpowiedzieć na różne sposoby, jak zobaczymy w następnej sekcji.

9.3.11. "ZNACZENIE"

Musimy teraz pokrótce zastanowić się nad pojęciem „znaczenia” (por. § 9.3.1). Na pierwszy rzut oka rozsądne wydaje się chcieć utożsamiać ważność z całkowitą akceptowalnością w odniesieniu do konkretnych kontekstów w przypadku wypowiedzi oraz w odniesieniu do bardziej uogólnionych, ograniczonych kontekstów w przypadku zdań. Widzieliśmy już jednak, że istnieje wiele warstw akceptowalności (umieszczonych „powyżej” warstwy gramatycznej), które chociaż często są opisywane bez określania jako „semantyczne”, można je jednak odróżnić od tego, co tradycyjnie nazywa się „treścią” lub „znaczeniem”. » (por. § 4.2.3). Niektóre wypowiedzi mogą zostać potępione jako „bluźniercze” lub „obsceniczne”; inne mogą być dopuszczalne w niektórych zastosowaniach języka (modlitwy, mity, bajki, science fiction itp.), ale nie do zaakceptowania w codziennej rozmowie. Nie warto próbować definiować „znaczenia” w sposób, który obejmowałby wszystkie te różne „wymiary” akceptowalności. Weźmy przykład z angielskiego, chociaż czasownik die „umrzeć” jest swobodnie używany w połączeniu z rzeczownikami ożywionymi, w tym z nazwiskami osób, istnieje ogólnie przyjęte tabu w języku angielskim, które zabrania jego używania w połączeniu z moim ojcem ” mój ojciec”, moja matka „moja matka”, mój brat „mój brat” i moja siostra „moja siostra” (czyli w odniesieniu do najbliższych członków rodziny mówcy); tak więc, Mój ojciec zmarł wczoraj w nocy, będzie uważany za niestosowny, ale nie Jego ojciec zmarł wczoraj w nocy „Jego ojciec zmarł wczoraj w nocy”. Wtedy, oczywiście, prawidłowe wyjaśnienie niedopuszczalności zdania Mój ojciec zmarł wczoraj w nocy powinno być takie, że możemy powiedzieć, po pierwsze, że jest ono „istotne”, ponieważ użyte wbrew tabu będzie zrozumiane (w można by argumentować, że samo tabu zależy od możliwości zrozumienia tego zdania), a po drugie, że relacja semantyczna między Mój ojciec zmarł wczoraj w nocy a Jego ojciec zmarł wczoraj w nocy jest identyczna z relacją między Mój ojciec przyszedł wczoraj w nocy „Mój ojciec przyszedł wczoraj w nocy” i Jego ojciec przyszedł wczoraj w nocy „Jego ojciec przyszedł wczoraj w nocy” itp. Tradycyjnie znaczenie zdań poprawnych gramatycznie wyjaśnia się za pomocą pewnych ogólnych zasad zgodności „znaczeń” ich elementów składowych . Można by na przykład powiedzieć, że zdania Jan je mleko i Jan pije chleb są bez znaczenia, ponieważ czasownik jeść jest zgodny tylko z rzeczownikami (w funkcji dopełnienia) oznaczającymi twarde substancje jadalne, a czasownik pić „pić” – z rzeczownikami oznaczającymi substancje płynne nadające się do spożycia przez ludzi. (Zauważ, że z tego punktu widzenia zdanie Jan zjada zupę „Jan je zupę” może być postrzegane jako anomalne semantycznie, mające „akceptowalność społeczną” tylko ze względu na specjalną zgodę zewnętrzną względem ogólnych zasad interpretacji zdań angielskich.) trudności ( moglibyśmy na przykład argumentować, że Jan je mleko jest zdaniem „sensownym”, chociaż okoliczności, w jakich może być użyte, są nieco nietypowe). Niemniej jednak tradycyjne wyjaśnienie tego pojęcia w kategoriach „zgodności” wydaje się zasadniczo rozsądne. Niektóre z najnowszych sformułowań tej koncepcji zostaną omówione w następnym rozdziale (por. § 10.5.4).

9.4.1. ODNIESIENIE

Termin „odniesienie” („korelacja”) został wprowadzony wcześniej dla relacji zachodzącej między słowami z jednej strony, a rzeczami, zdarzeniami, czynami i jakościami, które „zastępują” – z drugiej (por. §9.2). .2 ). Wspomniano powyżej, że pod pewnymi warunkami na pytanie „Jakie jest znaczenie tego słowa x? można odpowiedzieć za pomocą definicji „ostensywnej” - pokazując lub w inny sposób bezpośrednio wskazując referent(lub desygnaty) danego słowa (por. § 9.2.7). Z dokładnym zdefiniowaniem pojęcia „odniesienia” wiążą się pewne trudności filozoficzne, które można tutaj pominąć. Zastanówmy się, że przy konstruowaniu każdej zadowalającej teorii semantyki koniecznie trzeba uwzględnić relację odniesienia (czasami nazywaną „denotacją”); innymi słowy, w pewnym sensie można powiedzieć, że przynajmniej niektóre jednostki słownika we wszystkich językach można umieścić w korespondencji z taką lub inną „własnością” świata fizycznego.

Poczynione przez nas założenie nie oznacza, że ​​traktujemy odniesienie jako relację semantyczną, do której można sprowadzić wszystkie inne relacje; nie oznacza to również, że wszystkie jednostki słownictwa języka mają odniesienie. „Odniesienie”, tak jak jest rozumiane w tej pracy, jest z konieczności związane z początkowymi założeniami o „istnieniu” (lub „rzeczywistości”), które wywodzą się z naszego bezpośredniego postrzegania obiektów w świecie fizycznym. Kiedy mówi się, że określone słowo (lub inna jednostka znaczeniowa) „odpowiada jakiemuś przedmiotowi”, oznacza to, że desygnatem tego słowa jest przedmiot, który „istnieje” (jest „rzeczywisty”) w tym samym sensie, w jakim mówimy że konkretni ludzie, zwierzęta i rzeczy „istnieją”; rozumie się również, że w zasadzie możliwe byłoby podanie opisu właściwości fizycznych rozważanego obiektu. To pojęcie „istnienia fizycznego” można uznać za fundamentalne dla definicji semantycznej relacji odniesienia. Użycie terminów „istnienie” i „odniesienie” można następnie rozszerzyć na kilka sposobów. Na przykład, chociaż nie ma na świecie takich przedmiotów jak ciasteczka, jednorożce czy centaury (takie będzie nasze założenie), całkiem rozsądne byłoby przypisanie im wyimaginowanego lub mitycznego „istnienia” w pewnym rodzaju rozumowania; możemy więc powiedzieć, że słowa goblin „brownie”, jednorożec „jednorożec” lub centaur „centaur” mają odniesienie w języku angielskim (w ramach odpowiedniego rozumowania). Podobnie możemy rozszerzyć użycie terminów „egzystencja” i „odniesienie” do takich teoretycznych konstruktów nauki, jak atomy, geny itp., a nawet do obiektów całkowicie abstrakcyjnych. Należy jednak zauważyć, że źródłem tych „analogicznych” rozszerzeń pojęć „istnienie” i „odniesienie” jest ich fundamentalne lub pierwotne zastosowanie do obiektów fizycznych w trakcie „codziennego” używania język.

Z takiej interpretacji pojęcia odniesienia wynika, że ​​w słowniku języka może znajdować się wiele jednostek, które nie są związane relacją odniesienia z jakimikolwiek bytami poza językiem. Na przykład można by pomyśleć, że nie ma takich rzeczy jak inteligencja lub życzliwość, którym odpowiadają słowa inteligentny i dobry, chociaż psycholog lub filozof zawsze może postulować istnienie takich bytów w ramach jakiejś szczególnej teorii psychologii lub etyki, a może nawet twierdzić, że ich „rzeczywistość” można wykazać za pomocą jakiejś „ostensywnej” definicji. Fakt, że na różne poziomy przy takich sofistycznych konstrukcjach mogą powstać spory między ich autorami co do „rzeczywistości” pewnych wyimaginowanych „przedmiotów”, nie zmienia to ogólnego stanowiska, że ​​odniesienie zakłada istnienie. Próżno byłoby upierać się, że wszystkie jednostki leksykalne muszą: coś są skorelowane, jeśli pamiętamy, że w niektórych przypadkach nie można przedstawić żadnych innych dowodów na istnienie tego „czegoś”, poza samym faktem obecności jakiejś jednostki leksykalnej „odpowiadającej” temu „czegoś”.

W związku z pojęciem odniesienia można zwrócić uwagę na jeszcze dwa punkty. Zgadzając się, że pewne jednostki leksykalne odnoszą się do przedmiotów i własności przedmiotów pozajęzykowych, nie wiąże nas logiczna nieuchronność wniosku, że wszystkie przedmioty oznaczane jakimś konkretnym słowem tworzą „klasę naturalną” (niezależnie od „konwencji”, milcząco przyjętą przez członków danej grupy językowej w celu „poddania” tym przedmiotom jakiegoś ogólnego terminu); innymi słowy, stanowisko opisane powyżej jest zgodne z „nominalizmem” lub „realizmem” w semantyce filozoficznej. Po drugie, odniesienie do pewnej jednostki leksykalnej nie musi być precyzyjne i całkowicie zdefiniowane w tym sensie, że zawsze jest jasne, czy dany przedmiot lub właściwość należy do danej jednostki leksykalnej, czy nie: widzieliśmy już że takie założenie nie jest konieczne w celu wyjaśnienia „zrozumienia” wypowiedzi w normalnej komunikacji (por. § 9.2.9). Dość często „granice odniesienia” jednostek leksykalnych są nieokreślone. Na przykład nie da się wskazać dokładnie określonego punktu, w którym musimy narysować linię demarkacyjną między demarkacjami słów wzgórze „wzgórze, wzgórze, pagórek” i góra „góra”, kurczak „kurczak; kurczak; młody kogucik; kurczak; kurczak" i kura "kurczak" , zielone "zielone" i niebieskie "niebieskie; niebieskie, lazurowe; niebieskawe" itp. Nie oznacza to jednak, że pojęcie odniesienia nie ma zastosowania do takich słów. Charakterystyczną cechą języków jest to, że narzucają pewną leksykalną „kategoryzację” realnego świata i niejako wyznaczają „dowolne” granice w różnych miejscach. Jak zobaczymy, jest to jeden z powodów, dla których często niemożliwe jest ustalenie równoważności leksykalnej między różnymi językami. Fakt, że „granice odniesienia” są „arbitralne” i nieokreślone, zwykle nie prowadzi do naruszenia rozumienia, ponieważ „dokładne” podliczenie przedmiotu „pod” ten lub inny element leksykalny jest bardzo rzadko istotne; a gdy jest to istotne, zwracamy się do innych systemów identyfikacji lub specyfikacji. Na przykład, jeśli chcemy wyznaczyć jedną z dwóch osób, z których każdą można by nazwać słowem dziewczyna „dziewczyna” lub słowem kobieta „kobieta”, możemy je odróżnić od siebie po imieniu, względnym wieku, po włosach kolor, sposób ubierania się itp. Chociaż desygnaty słowa dziewczyna „przecinają się” z desygnatami słowa kobieta, te dwa słowa nie są synonimami; ich względna pozycja na skali wiekowej jest ustalona i jest wiele przypadków, w których tylko jedno z nich jest odpowiednim słowem do użycia. Zilustrowana przez nas „niedokładność” odniesienia, nie będąca żadnym defektem językowym (jak sądzą niektórzy filozofowie), sprawia, że ​​język staje się skuteczniejszym środkiem komunikacji. Absolutna „dokładność” jest nieosiągalna, ponieważ nie ma ograniczeń co do liczby i charakteru rozróżnień, które można by nakreślić między różnymi przedmiotami; i nie ma prawie żadnej wartości w narzucaniu na siłę więcej rozróżnień, niż jest to konieczne dla obecnych celów.

9.4.2. SENS

Teraz musimy wprowadzić pojęcie „znaczenia”. Pod oznaczający słowo odnosi się do jego miejsca w systemie relacji, w który wchodzi z innymi słowami w słowniku języka. Oczywiście, ponieważ znaczenie musi być definiowane w kategoriach relacji zachodzących między pozycjami słownictwa, nie zawiera ono żadnych podstawowych założeń dotyczących istnienia przedmiotów lub właściwości poza słownikiem danego języka.

Jeśli dwa elementy mogą wystąpić w tym samym kontekście, to mieć znaczenie w tym kontekście; i dalej możemy się zastanawiać, czy jakie jest znaczenie oni mają. Jak widzieliśmy, jedną część lub składnik znaczenia pewnych elementów można opisać w kategoriach ich odniesienia. Niezależnie od tego, czy dwa elementy mają odniesienie, czy nie, możemy się zastanawiać, czy w kontekście lub kontekstach, w których występują oba, mają to samo znaczenie, czy nie. Ponieważ ta sama wartość - synonimia- istnieje relacja, która zachodzi między dwiema (lub więcej) jednostkami słownictwa, jest związana ze znaczeniem, a nie z odniesieniem. Z powodów, których nie musimy tutaj rozważać, czasami może być wygodne stwierdzenie, że dwie jednostki mają to samo odniesienie, ale różnią się znaczeniem; i oczywiście naturalne jest stwierdzenie, że jednostki mogą być synonimami, nawet jeśli nie mają odniesienia. Można przyjąć, że (dla jednostek posiadających referencję) tożsamość referencji jest warunkiem koniecznym, ale niewystarczającym dla synonimii.

Teoretyczne traktowanie synonimii jest często nieadekwatne z powodu dwóch nieuzasadnionych założeń. Pierwszym z nich jest to, że dwa elementy nie mogą być „absolutnie równoznaczne” w jednym kontekście, chyba że są równoznaczne we wszystkich kontekstach. Ten wniosek jest czasem uzasadniony przez odwołanie się do rozróżnienia między znaczeniem „konceptualnym” i „emocjonalnym”. Ale samo to rozróżnienie wymaga uzasadnienia. Nie da się ukryć, że o wyborze konkretnego mówcy tej, a nie innej jednostki decydują „skojarzenia emocjonalne”. Nie oznacza to jednak, że „skojarzenia emocjonalne” są zawsze aktualne (nawet jeśli są wspólne dla wszystkich członków grupy mówczej). I nie można po prostu zaliczyć do przesłanek twierdzenia, że ​​słowa zawsze niosą ze sobą „skojarzenia”, wywnioskowane z ich użycia w innych kontekstach. Dlatego odrzucimy założenie, że słowa nie mogą być synonimami w poszczególnych kontekstach, chyba że są synonimami we wszystkich kontekstach.

Drugim założeniem często przyjmowanym przez semantykę jest to, że synonimia jest relacją tożsamości między dwoma (lub więcej) niezależnie zdefiniowanymi sensami. Innymi słowy, pytanie, czy dwa słowa – aib – są tożsame, sprowadza się do pytania, czy aib oznaczają tę samą istotę, to samo znaczenie. W ramach zarysowanego w tej książce podejścia do semantyki nie będzie konieczne postulowanie istnienia niezależnie zdefiniowanych znaczeń. Synonimia zostanie zdefiniowana w następujący sposób: dwie (lub więcej) jednostki są synonimami, jeśli zdania wynikające z zamiany jednej jednostki na inną mają to samo znaczenie. Definicja ta jest wyraźnie oparta na apriorycznym pojęciu „tego samego znaczenia” dla zdań (i wypowiedzi). Do tego zagadnienia wrócimy później. Tutaj chcemy tylko podkreślić ideę, że relacja synonimii jest definiowana jako relacja, która zachodzi między jednostkami leksykalnymi, a nie między ich znaczeniami. Synonimia jednostek leksykalnych jest częścią ich znaczenia. Ten sam pomysł można sformułować w bardziej ogólnej formie: to, co nazywamy znaczeniem jednostki leksykalnej, to cały zbiór relacje semantyczne(w tym synonimia), w którym wchodzi z innymi jednostkami w słowniku języka.

9.4.3. PARADYGMATYCZNE I SYTAGMATYCZNE WRAŻLIWE RELACJE

Oprócz synonimii istnieje wiele innych relacji semantycznych. Na przykład mąż „mąż” i żona „żona” nie są synonimami, ale są semantycznie spokrewnieni w sposób, który nie zachodzi między mężem a serem „serem” lub „wodorem” wodoru; dobry „dobry” i zły „zły” mają różne znaczenie, ale są bliższe niż dobry i czerwony „czerwony” lub okrągły „okrągły”; puk "puknij; uderz", huk "uderz, puk; klaszcz; dudnienie", stuk "lekko uderz, puk" i rap "lekko uderz; puk, stuk" są połączone relacją, która nie dotyczy słów pukaj i jedz „jedz, jedz, jedz „lub podziwiaj”, aby podziwiać. Zilustrowane tutaj relacje są paradygmatyczny(wszystkie elementy zbioru terminów powiązanych semantycznie mogą występować w tym samym kontekście). Słowa mogą być ze sobą powiązane syntagmatycznie; porównaj: blond „blond” i włosy „włosy”, kora „kora” i pies „pies”, kopnięcie „kopnięcie, kopnięcie, kopnięcie” i stopa „noga” itp. (Ogólne zasady rozróżniania relacji paradygmatycznych i syntagmatycznych, zob. § 2.3.3.) Nie będziemy tu rozważać kwestii, czy te relacje syntagmatyczne i paradygmatyczne (jak sugerują niektórzy semantycy) można zdefiniować w kategoriach ich „odległości” od synonimii na skali znaczenia podobieństwa i różnicy: alternatywa podejście do tego zostanie opisane w następnym rozdziale. Tutaj po prostu zakładamy, że przynajmniej niektóre obszary słownictwa są podzielone na systemy leksykalne i co struktura semantyczna tych systemów należy opisać w kategoriach relacji semantycznych zachodzących między jednostkami leksykalnymi. To stwierdzenie jest przez nas uważane za wyrafinowane sformułowanie zasady, zgodnie z którą „wartość każdej jednostki jest funkcją miejsca, jakie zajmuje w odpowiednim systemie” (por. § 2.2.1, gdzie rosyjskie i angielskie terminy pokrewieństwa są porównywane).

W ostatnich latach wykonano wiele pracy nad badaniem systemów leksykalnych w słownictwie różnych języków, zwłaszcza w odniesieniu do takich pola(lub obszary), takich jak pokrewieństwo, kolor skóry, flora i fauna, waga i miary, stopnie wojskowe, oceny moralne i estetyczne, a także różne rodzaje wiedzy, umiejętności i zrozumienia. Wyniki po raz kolejny wykazały wartość strukturalnego podejścia do semantyki i potwierdziły przewidywania naukowców, takich jak Humboldt, Saussure i Sapir, że słowniki różnych języków (przynajmniej w niektórych dziedzinach) nie izomorficznyże istnieją rozróżnienia semantyczne dokonywane w jednym języku, a nie w innym; ponadto kategoryzacja poszczególnych dziedzin według różnych języków może odbywać się na różne sposoby. Wyrażając ten fakt w terminach Saussure’a, każdy język ma narzucać specyficzny… Formularz do a priori niezróżnicowanego substancja plan treści (por. § 2.2.2 i § 2.2.3). Aby zilustrować tę koncepcję, możemy wziąć (jako substancję) pole koloru i zobaczyć, jak ta koncepcja jest traktowana lub „ukształtowana” w języku angielskim.

Dla uproszczenia najpierw rozważymy tylko tę część pola, która jest pokryta słowami czerwony „czerwony”, pomarańczowy „pomarańczowy”, żółty „żółty”, zielony „zielony” i niebieski „niebieski; niebieski, lazurowy; niebieskawy”. Każdy z tych terminów jest referencyjnie nieprecyzyjny, ale ich względne położenie w tym systemie leksykalnym jest stałe (i na ogół pokrywają większość widzialnego spektrum): pomarańczowy jest między czerwonym a żółtym, żółty jest między pomarańczowym a zielonym i tak dalej. Znaczenie każdego z tych słów zawiera wskazówkę, że należą one do tego szczególnego systemu leksykalnego języka angielskiego i że w tym systemie pozostają one w stosunku do siebie w relacji przylegania (lub, dokładniej, „będąc między "). Wydawać by się mogło, że pojęcie znaczenia jest tu zbędne i aby opisać ich znaczenie wystarczyłoby wziąć pod uwagę odniesienie do każdego z oznaczeń kolorystycznych. Rozważ jednak warunki, w jakich dana osoba może znać (lub można uznać, że zna) odniesienie do tych słów. Dziecko uczące się języka angielskiego nie może najpierw przyswoić odniesienia do słowa zielonego, a następnie z kolei odniesienia do słowa niebieskiego lub żółtego, aby w określonym momencie można było powiedzieć, że zna znaczenie jednego słowa, ale nie zna odniesienia do innego. (Oczywiście, posługując się ostensywną metodą definicji, mógł wiedzieć, że słowo „zielony” odnosi się do koloru trawy lub liści konkretnego drzewa, albo do koloru jednej z sukien jego matki: ale słowo „zielona” ma szersze odniesienie niż jakiekolwiek jego użycie, a znajomość jego odniesienia obejmuje również znajomość granic tego odniesienia). Należy założyć, że z biegiem czasu dziecko stopniowo uczy się pozycji słowa zielony w stosunku do słów niebieski i żółty oraz wyraz żółty w stosunku do wyrazów zielony i pomarańczowy itd., aż pozna pozycje każdego terminu koloru względem jego sąsiada w danym systemie leksykalnym i przybliżone przekroczenie granic tego obszaru w kontinuum danego pola, które obejmuje każde słowo. Jego wiedza o znaczeniu terminów kolorystycznych z konieczności obejmuje zatem wiedzę zarówno o ich znaczeniu, jak i o ich znaczeniu.

Dziedzinę objętą omówionymi powyżej pięcioma oznaczeniami barw można sobie wyobrazić jako niezróżnicowaną (percepcyjną lub fizyczną) substancję, na którą język angielski narzuca określoną formę, wyznaczając granice w pewnych miejscach i stosuje do pięciu obszarów pewną klasyfikację leksykalną. uzyskane (nazywając je słowami czerwony, pomarańczowy, żółty, zielony i niebieski). Często zauważa się, że inne języki narzucają tej substancji inną formę, to znaczy rozpoznają w niej inną liczbę regionów i wyznaczają granice w innych miejscach. O powyższym przykładzie możemy powiedzieć, że rosyjskie słowa niebieski oraz niebieski razem pokrywają w przybliżeniu ten sam obszar co angielskie słowo niebieski; oznaczające specjalne, choć sąsiednie kolory i zajmujące równą pozycję w systemie ze słowami Zielony oraz żółty, nie należy ich uważać za słowa oznaczające różne odcienie tego samego koloru w taki sam sposób, w jaki szkarłatny „karmazyn” i szkarłatny „szkarłat” wraz z innymi słowami dzielą obszar objęty słowem czerwony w języku angielskim (por. § 2.2 .3) .

Związek między terminami kolorystycznymi a ich znaczeniem nie może być przedstawiony tak prosto, jak robiliśmy to do tej pory. Różnicę w odniesieniu do słów czerwonego, pomarańczowego, żółtego, zielonego i niebieskiego można opisać w kategoriach zmienności tony(odbicia światła o różnych długościach fal). Podczas analizy koloru fizycy rozróżniają dwie inne zmienne: panowanie lub jasność (odbijająca mniej lub więcej światła) oraz nasycenie(stopień wolny od białych zanieczyszczeń). Obszary kolorów oznaczone w języku angielskim słowami czarny „czarny”, szary „szary” i biały „biały” różnią się głównie jasnością, ale należy podać odniesienie do niektórych innych powszechnie używanych terminów kolorystycznych, biorąc pod uwagę wszystkie trzy wymiary, w których kolor może się różnić, na przykład: brązowy „brązowy” odnosi się do gamy kolorystycznej, który znajduje się w tonie pomiędzy czerwonym „czerwonym” a żółtym „żółtym”, ma stosunkowo niską jasność i nasycenie; różowy „różowy” odnosi się do koloru o odcieniu czerwonawym, ma dość dużą jasność i bardzo niskie nasycenie. Analiza tych faktów może sugerować, że substancja barwnej mszycy jest trójwymiarowym (fizycznym lub percepcyjnym) kontinuum.

Ale i to stwierdzenie wydaje się zbyt uproszczone. Nie chodzi tylko o to, że języki różnią się względną wagą, jaką przypisują wymiarom - tonie, jasności i nasyceniu - w organizacji systemów nazewnictwa kolorów (na przykład w przypadku łaciny i greki najwyraźniej ważniejsza była lekkość niż ton); istnieją języki, w których rozróżnienia kolorystyczne dokonywane są na zupełnie innych zasadach. W swoim klasycznym studium na ten temat Conklin wykazał, że cztery główne „terminy kolorystyczne” języka Hanunoo (języka używanego na Filipinach) są związane ze światłem (zawierającym zwykle białe i jasne odcienie innych „kolorów angielskich”), ciemnością. (w tym angielskie czarne, fioletowe, niebieskie, ciemnozielone i ciemne odcienie innych kolorów), „wilgotne” (zwykle kojarzone z jasnozielonym, żółtym i jasnobrązowym itp.) oraz „suchość” (zwykle kojarzone z bordowym, czerwonym, pomarańczowy itp.). Że rozróżnienie między „mokrym” i „suchym” nie jest tylko kwestią tonu („zielony” przeciw. „red”: to właśnie to rozróżnienie może być oczywiste, oparte na najczęstszych angielskich tłumaczeniach dwóch omawianych terminów), wynika z faktu, że „brilliant, moist, brązowy kawałek świeżo ściętego bambusa” jest opisany słowem, które jest zwykle używane dla jasnej zieleni itp. Conklin wnioskuje, że „kolor, w ścisłym tego słowa znaczeniu, nie jest pojęciem uniwersalnym dla języków zachodnioeuropejskich”; że kontrasty, jakimi określa się substancję koloru w różnych językach, mogą zależeć przede wszystkim od powiązania jednostek leksykalnych z tymi właściwościami obiektów w naturalnym środowisku człowieka, które są ważne dla danej kultury. Jeśli chodzi o język Hanunbo, jego system definicji najwyraźniej opiera się na typowym wyglądzie świeżych, młodych („mokrych”, „soczystych”) roślin. W związku z tym warto zauważyć, że słowniki angielskie często definiują podstawowe terminy kolorystyczne w odniesieniu do typowych właściwości środowiska człowieka (np. słownik może powiedzieć, że niebieski odpowiada kolorowi czystego nieba, czerwony kolorowi krwi). itp.).

9.4.6. SEMANTYCZNA „WZGLĘDNOŚĆ”

Pole koloru zostało omówione dość szczegółowo, ponieważ jest często używane jako przykład do zademonstrowania, jak To samo substancja może mieć różną formę narzuconą jej przez różne języki. Teraz wiemy, że nawet w przypadku nazewnictwa kolorów mamy wszelkie powody, by wątpić w możliwość a priori postulowania tożsamości „substancji treści”. Kategorie „koloru” opisane przez Conklina w hanunoo powinny naturalnie prowadzić nas do idei, że definicje substancji koloru, które są istotne dla języka, nie zawsze są tymi wymiarami, które są wybierane jako główne przez nauki przyrodnicze. Z tego wynika ogólny wniosek, że język danego społeczeństwa jest integralną częścią jego kultury i że wyróżnienia leksykalne nakreślone przez każdy język odzwierciedlają zwykle ważne (z punktu widzenia tej kultury) właściwości przedmiotów, instytucji i działań społeczeństwo, w którym język funkcjonuje. Ten wniosek znajduje potwierdzenie w wielu ostatnich badaniach z różnych dziedzin słownictwa różnych języków. Wobec faktu, że środowisko przyrodnicze różnych społeczeństw może być bardzo różne (nie wspominając o ich instytucjach społecznych i wzorcach zachowań), wydaje się bardzo wątpliwe, czy owocne rozważenie struktury semantycznej w wyniku narzucenia formy na Substancja leżąca u podstaw (percepcyjna, fizyczna lub konceptualna) jest bardzo wątpliwa, wspólna dla wszystkich języków. Jak powiedział Sapir: „Światy, w których żyją różne społeczeństwa, są odrębnymi światami, a nie tym samym światem z dołączonymi różnymi etykietami”.

Nawet zakładając, że różne społeczeństwa żyją w „specjalnych światach” (i niedługo powrócimy do tego pytania), nadal można argumentować, że każdy język narzuca jakąś konkretną formę substancji „świata”, w którym funkcjonuje. Do pewnego stopnia jest to prawda (jak widzieliśmy na przykład w przypadku terminów kolorystycznych). Należy jednak mieć świadomość, że systemy leksykalne wcale nie muszą być budowane w oparciu o z góry określoną „podstawową” substancję. Niech na przykład słowa uczciwość „uczciwość, prawdomówność, szczerość, prostolinijność, czystość, cnota, przyzwoitość”, szczerość „szczerość, szczerość, prostolinijność, uczciwość”, czystość „czystość, dziewictwo, czystość, czystość, cnota, surowość, prostota , skromność , powściągliwość , wstrzemięźliwość , wierność " wierność , oddanie , lojalność , dokładność , poprawność " itp. należą do tego samego systemu leksykalnego ze słowem cnota " cnota , moralność , czystość , dobra jakość , cecha pozytywna , godność " . . Strukturę tego systemu można opisać w kategoriach znaczących relacji, jakie zachodzą między jego członkami. Z tego punktu widzenia kwestia, czy istnieją jakiekolwiek „istotne” korelacje między pozycjami leksykalnymi a rozróżnialnymi cechami charakteru lub zachowaniami, jest nieistotna. Jeśli takie korelacje zostaną zaobserwowane, to będą one opisywane w kategoriach odniesienia, a nie znaczenia. Krótko mówiąc, o stosowalności pojęcia substancji w semantyce decyduje ten sam postulat „istnienia”, co pojęcie odniesienia (por. § 9.4.1).

Stwierdzenie, że „światy, w których żyją różne społeczeństwa, są odrębnymi światami”, jest często interpretowane jako proklamacja „determinizmu” językowego. Nie będziemy tutaj omawiać, czy Sapir (lub Humboldt przed nim, a po nim Whorf) wierzył, że nasza kategoryzacja świata jest całkowicie zdeterminowana przez strukturę naszego ojczystego języka. Większość uczonych zgadza się, że determinizm językowy, rozumiany w tym mocnym sensie, jest hipotezą nie do przyjęcia. Jednak przyjęty powyżej pogląd, że języki odzwierciedlają w swoim słownictwie rozróżnienia, które są kulturowo ważne dla społeczeństw, w których funkcjonują, po części skłania nas do pozycji językowej i kulturowej „względności”. Dlatego należy podkreślić niepodważalny fakt, że zrozumienie budowy systemów leksykalnych w językach innych niż nasz język ojczysty jest konieczne i całkiem możliwe zarówno przy ich przyswajaniu dla celów praktycznych, jak i przy badaniu ich słownictwa. Od tego oczywiście zależy możliwość tłumaczenia z jednego języka na inny.

9.4.7. ZBLIŻENIE KULTUR

Kultury (w sensie, w jakim termin ten jest używany przez antropologów i socjologów) nie pozostają w bezpośredniej korespondencji z językami. Na przykład wiele instytucji, zwyczajów, artykułów odzieżowych, mebli, żywności itp., które mają miejsce we Francji i Niemczech, obserwujemy również w Anglii; inne okazują się być charakterystyczne dla poszczególnych krajów lub określonych obszarów lub klas społecznych jednego kraju. (Relacja między językiem a kulturą jest oczywiście znacznie bardziej złożona, niż wynika to z tej uproszczonej prezentacji: granice polityczne nie pokrywają się z granicami językowymi, nawet jeśli akceptujemy bez dowodu pojęcie zjednoczonej wspólnoty językowej do pewnego stopnia uzasadnione; podobieństwa kulturowe można znaleźć między różnymi grupami społecznymi w różnych krajach itp.). W ogólnym przypadku można argumentować, że pomiędzy dowolnymi dwoma społeczeństwami będzie większy lub mniejszy stopień kulturowe nakładanie się; i może się okazać, że pewne cechy będą obecne w kulturze wszystkich społeczeństw. Praktyczne doświadczenie uczenia się języków obcych (w tych normalnych warunkach, w których te języki są używane) sugeruje, że szybko identyfikujemy pewne przedmioty, sytuacje i znaki, gdy kultury się pokrywają i łatwo uczymy się słów i wyrażeń do nich stosowanych. Znaczenia innych słów i wyrażeń są przyswajane z mniejszą łatwością, a ich poprawne użycie jest, jeśli w ogóle, tylko w wyniku długiej praktyki konwersacyjnej. Teoretyczna interpretacja tych faktów naszego doświadczenia może wyglądać następująco: wejście w strukturę semantyczną innego języka otwiera się z obszaru kulturowego zbiegu okoliczności; a kiedy przełamiemy ten krąg znaczeń, identyfikując jednostki w tym obszarze (por. § 9.4.7, o nieuniknionej „kołowej” naturze semantyki), możemy stopniowo poprawiać i udoskonalać naszą wiedzę o pozostałej części słownictwa z wewnątrz, poprzez asymilację odniesienia jednostek leksykalnych i relacji semantycznych łączących jednostki w kontekstach ich użycia. Prawdziwa dwujęzyczność polega na asymilacji dwóch kultur.

9.4.8. "PODANIE"

Jeżeli jednostki różnych języków można zestawić ze sobą w korespondencji na podstawie identyfikacji wspólnych cech i sytuacji dwóch kultur, można powiedzieć, że jednostki te mają to samo podanie. Powód użycia tego terminu zamiast terminu „odniesienie” wiąże się z dwoma względami. Przede wszystkim proponowany termin oznacza związek, jaki zachodzi między sytuacjami i wyrażeniami występującymi w tych sytuacjach (na przykład związek między przepraszam „przepraszam”, dziękuję „dziękuję” itp. a różnymi charakterystycznymi sytuacjami w w którym występują te stwierdzenia). nie jest to oczywiście relacja odniesienia. Po drugie, konieczne jest również uwzględnienie semantycznej identyfikacji jednostek leksykalnych, które nie mają odniesienia; warto na przykład powiedzieć, że angielskie słowo sin „sin” i francuskie słowo peche mają to samo zastosowanie, chociaż ustalenie tego faktu z referencyjnego punktu widzenia może być bardzo trudne lub nawet niemożliwe. Równie dobrze może się zdarzyć, że drugi z tych powodów wprowadzenia pojęcia „aplikacji” upadnie po zbudowaniu wyczerpującej i satysfakcjonującej teorii kultury. Obecnie interpretacja wniosku, podobnie jak proces tłumaczenia, zależy bardzo zasadniczo od intuicji dwujęzycznych mówców. Nie oznacza to, że pojęcie to nie ma obiektywnej treści, ponieważ osoby dwujęzyczne zwykle zgadzają się między sobą co do użycia większości słów i wyrażeń w językach, których używają.

W tej części nie powiedziano nic o tym, jak ustanawiane są paradygmatyczne i syntagmatyczne relacje semantyczne. Zanim przejdziemy do tego pytania, musimy rozważyć możliwość rozszerzenia pojęć odniesienia i znaczenia również na jednostki gramatyczne.

9.5. ZNACZENIE „LESYKALNE” I ZNACZENIE „GRAMATYCZNE”

9.5.1. „WARTOŚCI STRUKTURALNE”

Rozważając kwestię „kategorii gramatycznych”, odwołaliśmy się do tradycyjnego, „arystotelesowskiego” punktu widzenia, zgodnie z którym tylko główne części mowy (rzeczowniki, czasowniki, „przymiotniki” i przysłówki) są „znaczące” w pełnym tego słowa znaczeniu słowa (oznaczają „pojęcia”, które stanowią „materię” mowy), a pozostałe części mowy uczestniczą w tworzeniu całościowego znaczenia zdań, narzucając „treści” pewną „formę” gramatyczną dyskursu (por. § 7.1.3). Zadziwiająco podobne poglądy wyznaje wielu przeciwników tradycyjnej gramatyki.

Na przykład Freese rozróżnia znaczenia „leksykalne” i „strukturalne”, a opozycja ta dokładnie odzwierciedla „arystotelesowskie” rozróżnienie między znaczeniami „materialnymi” i „formalnymi”. Główne części mowy mają znaczenie „leksykalne”; i jest podane w słowniku, który jest powiązany z określoną gramatyką. Wręcz przeciwnie, rozróżnienie między podmiotem a przedmiotem w zdaniu, opozycje w określeniu, czasie i liczbie oraz rozróżnienie między wypowiedziami, pytaniami i żądaniami, wszystkie te rozróżnienia odnoszą się do „znaczeń strukturalnych”. („Całkowite znaczenie językowe każdej wypowiedzi składa się ze znaczeń leksykalnych poszczególnych słów oraz takich znaczeń strukturalnych… Gramatyka języka jest ukonstytuowana za pomocą sygnalizowania znaczeń strukturalnych”).

Pojęcie „znaczenia strukturalnego” Freese'a obejmuje co najmniej trzy różne rodzaje funkcji semantycznych; inni lingwiści używają terminu „znaczenie gramatyczne” (w przeciwieństwie do „znaczenia leksykalnego”) w tym samym sensie. Wymienione trzy rodzaje „znaczeń” to: (1) „znaczenie” jednostek gramatycznych (zwykle pomocniczych części mowy i drugorzędnych kategorii gramatycznych); (2) „znaczenie” takich gramatycznych „funkcji” jak „podmiot”, „przedmiot” lub „modyfikator”; (3) "znaczenie" związane z pojęciami takimi jak "narracja", "pytające" lub "imperatywne" w klasyfikowaniu różnych typów zdań. Te rodzaje „znaczenia gramatycznego” są ważne do rozróżnienia i rozważymy je po kolei poniżej.

9.5.2. JEDNOSTKI LEKSYKALNE I GRAMATYCZNE

Zaproponowano różne kryteria rozróżniania jednostek gramatycznych i leksykalnych. Najbardziej satysfakcjonująca z nich (i jedyna, o której tutaj wspomnimy) została sformułowana przez Martineta, Hollidaya i innych w kategoriach paradygmatycznej opozycji w ramach jednego z nich. Zamknięte, lub otwarty wiele alternatyw. Zbiór jednostek zamkniętych to zbiór o ustalonej i zwykle małej liczbie członków, taki jak zbiór zaimków osobowych, czasów, rodzajów itp. Zbiór otwarty to zbiór o nieograniczonej, nieskończenie dużej liczbie członków, np. klasa rzeczowników lub czasowników w języku. Używając tego rozróżnienia, możemy powiedzieć, że jednostki gramatyczne należą do zbiorów zamkniętych, a jednostki leksykalne należą do zbiorów otwartych. Definicja ta odpowiada tradycyjnemu rozróżnieniu między istotnymi częściami mowy z jednej strony a pomocniczymi częściami mowy i drugorzędnymi kategoriami gramatycznymi z drugiej. W przeciwieństwie do niektórych innych proponowanych definicji, nie jest ona powiązana z językami tego samego „typu” morfologicznego (np. języki „fleksyjne”; por. § 5.3.6). Na razie przyjmiemy, że definicja ta jest poprawna i że (na podstawie rozróżnienia zbiorów zamkniętych i otwartych) wszystkie elementy wprowadzone w głęboką strukturę zdań można podzielić na „gramatyczne” i „leksykalne”. Teraz pojawia się pytanie, czy w zasadzie istnieje jakakolwiek różnica między znaczeniem jednostek gramatycznych i leksykalnych.

Po pierwsze, zauważ, że jednostki leksykalne, zgodnie z tradycyjnym poglądem, mają zarówno znaczenie „leksykalne”, jak i „gramatyczne” (zarówno „materialne”, jak i „formalne”; por. §9.5.1). Posługując się terminologią gramatyki scholastycznej, „spekulatywnej”, możemy powiedzieć, że dana jednostka leksykalna, np. krowa „krowa”, nie tylko „oznacza” jakieś konkretne „pojęcie” (jest to znaczenie „materiałowe” lub „leksykalne” jednostki), ale jednocześnie realizuje pewien „sposób oznaczania” zjawisk w postaci np. „substancji”, „właściwości”, „działań” itp. (por. § 1.2.7 oraz § 7.1.1). Chociaż obecnie lingwiści rzadko wyrażają się w tych terminach, ta ogólna koncepcja rozróżnienia między „leksykalnym” i „gramatycznym” znaczeniem jednostek leksykalnych jest nadal aktualna. Co więcej, wydaje się to do pewnego stopnia uzasadnione.

Na przykład Lermontow ma znany wiersz, który zaczyna się od słów: Samotny żagiel robi się biały... To zdanie jest trudne (może nawet niemożliwe) do przetłumaczenia na język angielski, ponieważ jego efekt zależy od tego, że w języku rosyjskim „posiadanie własności bieli” można „wyrazić” za pomocą „czasownika” (który jest również wyrażony w słowach biały, który w zdaniach nieoznaczonych czasem, formą i modalnością jest zwykle używany bez „czasownika być”; por. § 7.6.3). Połączenie żegluj samotnie można przetłumaczyć na język angielski jako „samotny żagiel” ( żagiel jest rzeczownikiem, a samotny jest „przymiotnikiem”). Z tradycyjnego punktu widzenia „czasownik” oznacza „posiadanie właściwości bieli” jako „proces” lub „działanie”, „przymiotnik” jako „jakość” lub „stan”. Specyfikę preferowanego wyboru w tym przypadku „czasownika” zamiast „przymiotnika” można pokazać za pomocą języka angielskiego tylko za pomocą dość nieadekwatnej parafrazy typu „Jest samotny żagiel, który się wyróżnia (lub wręcz świeci ) biały (na tle morza lub nieba)...” Problemy tego rodzaju są dobrze znane osobom zajmującym się tłumaczeniem z jednego języka na drugi. Jesteśmy zainteresowani tutaj pytanie teoretyczne: czy możemy powiedzieć, że istnieje pewne „znaczenie gramatyczne” związane z każdą z głównych części mowy?

Widzieliśmy już, że rozróżnienie między „czasownikiem” a „przymiotnikiem” w ogólnej teorii składni jest trudnym problemem: niektóre języki w ogóle nie dokonują takiego rozróżnienia; w innych językach z tym rozróżnieniem wiąże się szereg cech składniowych, które w niektórych przypadkach mogą być ze sobą sprzeczne (por. § 7.6.4). Ale głównym kryterium, które odzwierciedla tradycyjne rozróżnienie między „aktywnością” a „jakością”, jest specyficzne rozróżnienie między „dynamicznymi” i „statycznymi” (por. § 8.4.7). W języku rosyjskim ta różnica w „znaczeniu gramatycznym” jest „nałożona” na „znaczenie leksykalne”, które jest wspólne dla obu „czasownika” zblednąć, a dla "przymiotnik" biały. Przy takim podejściu tradycyjna teoria „sposobów notacji” musi zostać uznana za poprawną: oczywiście należy ją przeformułować w ramach bardziej zadowalającej teorii struktury składniowej.

Jednocześnie nie wolno nam tracić z pola widzenia ogólnej zasady, że „posiadanie znaczenia pociąga za sobą wybór”. Jeśli opisywany język pozwala na wybór wyrażenia „werbalnego” lub „przymiotnikowego” (ograniczamy się do rozróżnienia zilustrowanego w naszym przykładzie), to użycie jednej lub drugiej z tych metod należy już do zakresu analiza semantyczna języka. Możemy dalej zastanawiać się, czy podane dwa „tryby” ekspresji ta sama wartość albo nie; a jeśli różnią się znaczeniem, to możemy zapytać, jaka jest między nimi różnica znaczeniowa. Jeśli tę różnicę można skorelować z pewnym rozróżnieniem gramatycznym w Głębokiej Strukturze (na przykład „dynamiczny” przeciw. „statyczny”), wtedy termin „znaczenie gramatyczne” jest w tym przypadku całkiem odpowiedni. Nie oznacza to jednak, że wybór „czasownika” zamiast „przymiotnika” zawsze wiąże się z różnicą w „znaczeniu gramatycznym”. W wielu przypadkach określone „znaczenie leksykalne” jest powiązane z jedną częścią mowy, ale nie z inną. Krótko mówiąc, w tej kwestii, podobnie jak w wielu innych, teoria lingwistyczna musi zachować równowagę między gramatyką „konceptualną” i „formalną” (por. § 7.6.1). Nie należy argumentować, że „oznaczenie czynności” jest częścią „znaczenia” każdego „czasownika” lub że „oznaczenie jakości” jest częścią „znaczenia” każdego „przymiotnika”.

Tradycyjnie uważa się, że jednostki leksykalne mają zarówno znaczenie „leksykalne” („rzeczywiste”), jak i „gramatyczne” („formalne”). Z drugiej strony uważa się, że jednostki gramatyczne mają jedynie znaczenie „gramatyczne”. W poprzednim rozdziale widzieliśmy, że pewne jednostki, występujące w strukturze powierzchniowej zdań jako „czasowniki”, mogą być interpretowane jako „realizacje leksykalne” rozróżnień aspektowych, przyczynowych i innych „gramatycznych”. Zostawimy na boku pytanie, na ile te hipotezy są prawdziwe. W obecnym stanie teorii składni rozróżnienie między jednostkami gramatycznymi i leksykalnymi jest dość niejasne. Powodem jest to, że rozróżnienie między otwartymi i zamkniętymi zbiorami alternatyw może dotyczyć tylko pozycji wyboru w głębokiej strukturze zdań; ale, jak widzieliśmy, możliwe są bardzo różne punkty widzenia na to, gdzie znajdują się te pozycje „wyboru”.

Główny punkt, który należy tutaj podkreślić, jest taki: nie wydaje się, aby istniała znacząca różnica między „rodzajem znaczenia” związanym z elementami leksykalnym a „rodzajem znaczenia” związanym z elementami gramatycznymi, gdy te dwie klasy struktur mogą być wyraźnie wyznaczone. Pojęcia „znaczenia” i „odniesienia” odnoszą się do obu rodzajów elementów. Jeśli istnieje jakiekolwiek uogólnienie, którego można dokonać na temat znaczenia elementów gramatycznych (i pamiętajmy, że niektóre czysto gramatyczne elementy w ogóle nie mają znaczenia; por. §8.4.1), wydaje się, że „wybory” gramatyczne są powiązane z ogólnymi pojęciami korelacji przestrzennej i czasowej, przyczynowości, procesu, indywidualizacji itp. - pojęć typu omówionego w rozdziałach 7 i 8. Nie można jednak z góry powiedzieć, że w strukturze jakiegoś określonego języka takie pojęcia, nawet jeśli są łatwe do odróżnienia, z konieczności będą „gramatyczne”, a nie „leksykalizowane”.

9.5.3. „ZNACZENIE” GRAMATYCZNYCH „FUNKCJI”

Drugą klasę zjawisk w strukturze języka angielskiego, do której Freese (i inni) zastosował termin „znaczenie strukturalne” (lub „znaczenie gramatyczne”), można zilustrować takimi pojęciami jak „podmiot”, „przedmiot” i „definicja”. Książka Freese'a została napisana przed współczesną teorią składni transformacyjnej i zajmował się wyłącznie strukturą powierzchni (w ramach dość ograniczonego pojęcia). Dlatego wiele z tego, co mówi o tych „funkcjonalnych” pojęciach, chociaż jest prawdziwe, nie ma związku z analizą semantyczną. To samo można powiedzieć o większości współczesnych teorii językoznawczych.

Jest całkiem jasne, że niektóre relacje gramatyczne, które zachodzą na poziomie głębokiej struktury między jednostkami leksykalnymi i kombinacjami jednostek leksykalnych, mają znaczenie dla semantycznej analizy zdań. Według Chomsky'ego to „funkcjonalne” pojęcia „podmiotu”, „dopełnienia bezpośredniego”, „orzecznika” i „czasownika głównego” stanowią główne głębokie relacje między jednostkami leksykalnymi; Katz, Fodor i Postal podjęli ostatnio próbę sformalizowania teorii semantyki za pomocą zestawu „reguł projekcji” operujących na elementach leksykalnych, które są powiązane tymi relacjami w obrębie zdań (por. § 10.5.4). Pojęcia takie jak „podmiot”, „orzeczenie” i „przedmiot” zostały omówione w poprzednim rozdziale; widzieliśmy, że ich formalizacja w ogólnej teorii składni wcale nie jest tak oczywista, jak przypuszczał Chomsky. Wynika z tego, że status „reguł projekcyjnych”, interpretujących zdania na podstawie tych pojęć, również wydaje się wątpliwy.

Rozważając „przechodniość” i „ergatywność”, wskazaliśmy, że wiele „dopełnień bezpośrednich” zdań angielskich można wygenerować przez wstawienie konstrukcji jednomiejscowych jako „predykatów” konstrukcji dwumiejscowych oraz przez wprowadzenie nowego podmiotu „agentytywnego” . Ale widzieliśmy również, że istnieją inne dwumiejscowe konstrukcje przejściowe, których nie można w zadowalający sposób wygenerować z tego schematu. Już sam ten fakt sugeruje, że relacja „dopełnienie bliższe” nie może otrzymać jednej interpretacji w semantycznej analizie zdań. W gramatyce tradycyjnej wyróżniano wiele różnych rodzajów „dopełnienia bliższego”. Jeden z nich można tu wymienić, ponieważ (niezależnie od jego statusu w teorii składni) jest niewątpliwie bardzo ważny w semantyce. Mamy na myśli „przedmiot rezultatu” (lub „efekt”).

„Przedmiot wyniku” można zilustrować na przykładzie dwóch zdań:

(1) Nie jest czytaniem książki „On czyta książkę”.

(1) Nie jest pisaniem książki „On pisze książkę”.

Książka, o której mowa w zdaniu (1) istnieje przed i niezależnie od przeczytania, natomiast książka, o której mowa w zdaniu (2) jeszcze nie istnieje – powstaje po wykonaniu czynności opisanej w tym zdaniu. Ze względu na to rozróżnienie, książka w punkcie (1) jest tradycyjnie traktowana jako „zwykły” przedmiot czasownika jest czytanie, podczas gdy książka w punkcie (2) jest opisywana jako „przedmiot wyniku”. Z semantycznego punktu widzenia każdy czasownik, który ma ze sobą „przedmiot skutku”, może być nazwany „egzystencjalnym czynnikiem sprawczym”. Najpopularniejszym „czasownikiem” w języku angielskim, który należy do tej klasy, jest make „to zrobić”, a wskazaliśmy już, że jest to również „czasownik pomocniczy w sprawie sprawczy” (por. § 8.3.6 i § 8.4.7). Ten sam „czasownik” działa, podobnie jak czasownik „do zrobienia”, jako „czasownik zastępczy” w zdaniach pytających. Pytania typu Co robisz? "Co ty robisz?" zawiera mniej założeń dotyczących „orzecznika” zdania, które odpowiada na pytanie (czasownik może być przechodni lub nieprzechodni, ale musi to być czasownik „działania”; por. § 7.6.4). Pytanie Co robisz? „Co robisz?”, przeciwnie, zakłada, że ​​odpowiednia „działalność” jest „produktywna” i ma na celu lub ograniczenie „istnienia” („istnienia”) jakiegoś „przedmiotu”. W wielu językach europejskich to rozróżnienie pojawia się jednak nie tak wyraźnie, jak w języku angielskim. (Na przykład w języku francuskim Qu „est-ce que tu fais? można przetłumaczyć na angielski jako „Co robisz?” lub „Co robisz?”). Nie oznacza to jednak, że dla tych języków rozróżnienie między „zwykłymi” przedmiotami a „przedmiotami wynikowymi” jest nieistotne.

Znaczenie pojęcia „egzystencjalny przyczynowy” wynika z faktu, że w zdaniach zawierających konstrukcję z „przedmiotem rezultatu” często występuje wysoki stopień współzależności między konkretnym czasownikiem lub klasą czasowników a konkretnym rzeczownikiem lub klasą rzeczowników. Na przykład niemożliwe jest dokonanie zadowalającej analizy semantycznej obrazu rzeczownikowego „obraz” bez ujawnienia jego związków syntagmatycznych z takimi czasownikami, jak malować „malować, rysować, pisać” i rysować „rysować, rysować”; odwrotnie, fakt, że te czasowniki mogą mieć obraz rzeczownikowy jako „przedmiot skutku”, musi być uwzględniony jako część ich znaczenia.

To pojęcie współzależności syntagmatycznej lub presupozycji odgrywa znaczącą rolę w analizie słownictwa dowolnego języka (por. § 9.4.3). Ma znacznie szersze zastosowanie niż pokazują nasze przykłady. Istnieją założenia, które występują między poszczególnymi klasami rzeczowników i czasowników, gdy rzeczownik jest podmiotem czasownika (np. ptak „ptak” : latać „latać”, ryba „ryba” : pływać „pływać”); między „przymiotnikami” i rzeczownikami (blond „blond” : włosy „włosy”, zgniłe „zgniłe” : jajko „jajko”); między czasownikami a "zwykłymi" przedmiotami (drive "to drive" : sag "car"); między czasownikami i rzeczownikami, które mają z nimi relacje „instrumentalne” (ugryzienie „ugryzienie” : zęby „zęby”, kopnięcie „daje” : stopa „noga, stopa”) itp. Wiele z tych relacji występuje między określonymi klasami jednostek leksykalnych nie być określone inaczej niż w kategoriach pewnego zestawu „reguł projekcji” (reguł ad hoc) w ramach składni transformacyjnej nakreślonej przez Chomsky'ego.

Ze względu na to, że wciąż nie ma w pełni zadowalającej podstawy syntaktycznej, w ramach której można by formułować różne relacje semantyczne służące do strukturyzacji słownictwa języków, nie będziemy podejmować próby formułowania zbiorów „reguł rzutowania” działających z głębokimi relacjami gramatycznymi. W następnym rozdziale rozważymy kilka szczególnie ważnych relacji paradygmatycznych między klasami pozycji leksykalnych; ich analiza zostanie przeprowadzona nieformalnie. Przy naszym założeniu, relacje te można by sformułować w bardziej elegancki sposób w postaci jakiegoś bardziej zadowalającego opisu relacji gramatycznych na poziomie Struktury Głębokiej.

9.5.4. „ZNACZENIE” „TYPÓW OFERTY”

Trzecią klasę „znaczeń”, które zwykle uważa się za „gramatyczne”, można zilustrować rozróżnieniem zdań „oznaczających”, „pytających” i „imperatywnych”. W ostatnich pracach nad teorią transformacyjną istnieje tendencja do wprowadzania elementów gramatycznych, takich jak „znacznik pytający” i „znacznik imperatywu” do głębokich struktur NS zdań, a następnie formułowania reguł składnika transformacyjnego w taki sposób, aby obecność jednego z tych „znaczników” „obejmuje » odpowiednią regułę transformacji. Nie rozważamy tutaj zalet syntaktycznych tego sformułowania rozróżnienia między różnymi „typami zdań”, interesuje nas jego istota semantyczna.

Stwierdzono (Katz i Postal), że te „markery” są semantycznie podobne do elementów leksykalnych i gramatycznych, które występują jako składniki w jądrach zdań. Na przykład „znacznik imperatywu” jest zapisany w słowniku i towarzyszy mu wskazanie „co charakteryzuje go jako mające następujące znaczenie: „mówca zwraca się z prośbą (prosi, żąda, nalega itp.) do””. Ale opinia ta opiera się na pomyłce w użyciu terminu „znaczenie”. Obchodzi sprzeczności, które powstają w związku z semantycznym rozróżnieniem między „znaczeniem”, „odniesieniem” i innymi rodzajami „znaczeń”. Jeśli nadal będziemy używać terminu „znaczenie” dla wszelkiego rodzaju rozróżnialnych funkcji semantycznych, to można śmiało powiedzieć, że istnieją różnice w „znaczeniu” między odpowiednimi stwierdzeniami, pytaniami i poleceniami (które niekoniecznie są „wyrażane” przez zdania oznajmujące, pytające i rozkazujące (odpowiednio - ale dla uproszczenia pomijamy ten fakt). Jednak pytanie, czy dwie jednostki leksykalne mają „to samo znaczenie”, czy nie, jest zwykle interpretowane w odniesieniu do pojęcia synonimia - to samo znaczenie. Jest to relacja paradygmatyczna, czyli taka, która albo zachodzi, albo nie zachodzi między jednostkami występującymi w tym samym kontekście, w tym samym „typie zdania”. W następnym rozdziale zobaczymy, że pojęcie „synonimii” między x oraz w można opisać w kategoriach mnogości implikacji „następujących” z dwóch zdań, które różnią się tylko tym, w którym w jednym przypadku jest x, w innym - warto w. Ale te rozważania po prostu nie mają zastosowania do odpowiednich zdań deklaratywnych i pytających (imperatywnych) (na przykład: Piszesz list „Piszesz list” przeciw. Piszesz list? "Czy piszesz list?" lub Napisz list! "Napisać list!"). Chociaż odpowiednie elementy różnych „typów zdań” można scharakteryzować jako różne w „znaczeniu”, nie można ich uznać za różniące się znaczeniem. Nie ma potrzeby próbować sformalizować teorii semantyki w taki sposób, aby „znaczenie” „znacznika pytającego” lub „znacznika imperatywu” można było opisać tymi samymi terminami, co „znaczenie” pozycji leksykalnych,

Powrót

×
Dołącz do społeczności koon.ru!
W kontakcie z:
Jestem już zapisany do społeczności koon.ru