يبدو أن الرواقيين لم يربطوا بصفة جلية نظرية اللغة بنظرية العلامات. أما عن اللغة اللفظية فهم يميزون بوضوح بين "العبارة" و"المضمون" "المرجع" .
فبخصوص العبارة فإنهم لم يعمقوا فحسب التقطع المتعدد، بل ميزوا بين الصوت المجرد الذي تصدره الحنجرة والعضلات ال
نطقية والعنصر اللغوي المركب والكلمة ذاتها التي لا تقوم إلآ إذا كانت موصولا بمضمون وقابلة للاتصال به ٠ كأن نقول، على طريقة سوسور، يقول أغسطين "مقتفياً أثر الرواقين" إن العلامة اللغوية هي شيء ذو وجهين "قول ومضمون".
"قولاً" تلك ،الكلمة المنطوقة، التي ليست فحسب ((إصدار صوت)) بل بالإمكان إدراك معناها والتعرف عليها لأنها مرتبطة بكلمة العقل.
وبالنسبة إلى الرواقيين فإن ما يحدث للهمجيين هو أنهم يتلقون الصوت المادي ولكن من دون أن يتعرفوا عليه باعتباره كلمة. ليس لأنهم لا يملكون ذهنيأ فكرة متطابقة، ولكن لأنهم لا يعرفون القاعدة التعالقية٠ وفي هذا الخصوص يذهب الرواقيون أبعد من سابقيهم ويميزون الطبيعة "المؤقتة" وغير المستقرة للوظيفة السيميائية (يمكن أن يكون المضمون نفسه كلمة بتعبير في لغة مختلفة). يوحي الرواقيون بأن المضمون هو شيء (غير مادي).
يمكن إذن أن نقول إن اللفظ اللغوي والعلامة الطبيعية يتكونان في علاقة دلالية مزدوجة أو في تعلية سيميائية مزدوجة تترجم في الأنموذج اليلمسلافي لل"دلالة الحافة"
This research handles the Semiotic Features in the Augustian's text an attempt to
discover its nature and implication. It tackies the Semiotic theme, its concepts and relation
to the Sociological Cultural realities of modern semitians. then it disc
usses the concept of
sign and its relation to interpretation in this text showing its distinct features, Symbolic
language which makes us delve deep into this text trying to open broaden horiozons via
searching deep into existence to decipher hidden meanings of symbos in the external
existence of things. It also deals with the speciality of sign to Augustein in which the
theological perspective played the major role. It also aims at specifying the differences and
similarities with some modern semitics to talk eventually about kinds of sign trying to end
up with some results that help us comprehend the Augustian's text.
Dependency parsing is a tool widely used in the field of Natural language processing and computational linguistics. However, there is hardly any work that connects dependency parsing to monotonicity, which is an essential part of logic and linguistic
semantics. In this paper, we present a system that automatically annotates monotonicity information based on Universal Dependency parse trees. Our system utilizes surface-level monotonicity facts about quantifiers, lexical items, and token-level polarity information. We compared our system's performance with existing systems in the literature, including NatLog and ccg2mono, on a small evaluation dataset. Results show that our system outperforms NatLog and ccg2mono.
Abstract Identifying factors that make certain languages harder to model than others is essential to reach language equality in future Natural Language Processing technologies. Free-order case-marking languages, such as Russian, Latin, or Tamil, have
proved more challenging than fixed-order languages for the tasks of syntactic parsing and subject-verb agreement prediction. In this work, we investigate whether this class of languages is also more difficult to translate by state-of-the-art Neural Machine Translation (NMT) models. Using a variety of synthetic languages and a newly introduced translation challenge set, we find that word order flexibility in the source language only leads to a very small loss of NMT quality, even though the core verb arguments become impossible to disambiguate in sentences without semantic cues. The latter issue is indeed solved by the addition of case marking. However, in medium- and low-resource settings, the overall NMT quality of fixed-order languages remains unmatched.