ترغب بنشر مسار تعليمي؟ اضغط هنا

مقارنة النظريات النحوية من خلط التعليمات البرمجية

Comparing Grammatical Theories of Code-Mixing

208   0   0   0.0 ( 0 )
 تاريخ النشر 2021
  مجال البحث الذكاء الاصناعي
والبحث باللغة English
 تمت اﻹضافة من قبل Shamra Editor




اسأل ChatGPT حول البحث

وجدت أنظمة توليد النص المختلط من التعليمات البرمجية قد وجدت تطبيقات في العديد من المهام المصب، بما في ذلك التعرف على الكلام والترجمة والحوار.تعتمد نموذج أنظمة الجيل هذه على نظريات النحوية المحددة جيدا من خلط التعليمات البرمجية، وهناك نقص في مقارنة هذه النظريات.نقدم تقييم بشري واسع النطاق لنظريات نحوية شعبية وشعبية لغة ماتريكس (ML) وقيد التكافؤ (EC).قارناها ضد ثلاث نماذج قائمة على أساسها وتظهر كمية فعالية فعالية نظريتين نحوي.

المراجع المستخدمة
https://aclanthology.org/
قيم البحث

اقرأ أيضاً

يكتب مطورو البرمجيات الكثير من التعليمات البرمجية المصدر والوثائق أثناء تطوير البرمجيات. جوهريا، غالبا ما يتذكر المطورون أجزاء من شفرة المصدر أو ملخصات التعليمات البرمجية التي كتبوها في الماضي أثناء تنفيذ البرامج أو توثيقها. لتقليل رمز المطور أو سلوك الجيل الموجز، نقترح إطارا معدليا استرجاعا، ريدكودر، الذي يسترد الكود أو الملخصات ذات الصلة من قاعدة بيانات استرجاع ويوفر لهم كملحق لجيل التعليمات أو نماذج التلخيص. ريدكودر لديه زوجين من التفرد. أولا، إنه يمتد تقنية استرجاع حديثة كثيفة الاستخدام للبحث عن التعليمات البرمجية أو الملخصات ذات الصلة. ثانيا، يمكن أن تعمل مع قواعد بيانات استرجاع تشمل Unimodal (رمز فقط أو وصف اللغة الطبيعية) أو مثيلات BIMODAL (أزواج الكود الوصف). نقوم بإجراء تجارب وتحليل مكثف على مجموعة بيانات قياسية لتوليد التعليمات البرمجية والتلخيص في جاوة وبيرثون، والنتائج الواعدة تؤيد فعالية الإطار المعزز المقترح لاسترجاعنا.
يمثل تحديا كبيرا في تحليل بيانات Me-Dia الاجتماعية التي تنتمي إلى لغات تستخدم البرنامج النصي غير الإنجليزي هو طبيعتها المختلطة من التعليمات البرمجية.قدمت أثر الحدث الذي أحدث طرازات تضمين حديثة تضمين تضمين الحديث (كل من أحادي الأحادي S.A.bert و Multil ingal S.A.XLM-R) كهدوث نهج FOROMISP.في هذه الورقة، نوضح أداء هذا التضمين وزارة الدفاع إلى العوامل المتعددة، مثل الخلاط الشامل من الشفرة في DataSet، وكلفة بيانات التدريب.نحن منظمات تجريبية أن كبسولة مقدمة تقدمت حديثا يمكن أن تتفوق على مصنف مصنوع على Bertned English-Bert بالإضافة إلى مجموعة بيانات تدريب XLM-R فقط من حوالي 6500 عينة لبيانات Sinhala-English المزاجية للبيانات المختلطة.
غالبا ما يتم تقييم نماذج اللغة المستخدمة في التعرف على الكلام بشكل جوهري باستخدام حيرة في بيانات الاختبار أو غير مسبوق مع نظام التعرف على الكلام التلقائي (ASR). لا يرتبط التقييم السابق دائما بشكل جيد مع أداء ASR، في حين أن الأخير يمكن أن يكون محددا ل أنظمة ASR معينة. اقترح العمل الحديث لتقييم نماذج اللغة باستخدامها لتصنيف جمل الحقيقة الأرضية بين جمل مماثلة للالعناد الصوتي الناتج عن محول الدولة الدقيقة. مثل هذا التقييم هو افتراض أن الجمل التي تم إنشاؤها غير صحيحة لغويا. في هذه الورقة، وضعنا أولا هذا الافتراض موضع السؤال، ومراقبة أن الجمل التي تم إنشاؤها بدلا من ذلك قد تكون صحيحة في كثير من الأحيان لغويا عندما تختلف عن الحقيقة الأرضية بواسطة تحرير واحد فقط. ثانيا، أظهرنا أنه باستخدام بيرت متعددة اللغات، يمكننا تحقيق أداء أفضل من العمل السابق على مجموعات بيانات تبديل التعليمات البرمجية. تطبيقنا متاح علنا ​​على Github في https://github.com/sikfeng/language-modelling-for-code-Switching.
جيل النص هو مجال نشط للغاية في البحث في المجتمع اللغوي الحسابي.يعد تقييم النص الذي تم إنشاؤه مهمة صعبة وتم اقتراح نظريات ومقاييس متعددة على مر السنين.لسوء الحظ، يتم إدراج توليد النص والتقييم نسبيا نسبيا بسبب ندرة الموارد عالية الجودة في اللغات المختل طة من التعليمات البرمجية حيث يتم خلط الكلمات والعبارات من لغات متعددة في كلام واحد للنص والكلام.لمعالجة هذا التحدي، نقدم كوربا (المفصلي) لغرض لغة مختلطة شائعة على نطاق واسع هينجليشيلي (مزيج من اللغات الهندية والإنجليزية).يحتوي المفصلات على جمل هنشية التي تم إنشاؤها من قبل البشر بالإضافة إلى خوارزميتين تعتمد على القواعد يتوافق مع الجمل الهندية والإنجليزية الموازية.بالإضافة إلى ذلك، نوضح فعالية مقاييس التقييم المستخدمة على نطاق واسع على البيانات المختلطة من التعليمات البرمجية.ستسهل مجموعة بيانات المفصلات التقدم المحرز في مجال أبحاث توليد اللغة الطبيعية في اللغات المختلطة التعليمات البرمجية.
نقدم COTEXT، وهو نموذج ترميز ترميز مدرب مسبقا مدرب مسبقا، يتعلم السياق التمثيلي بين اللغة الطبيعية (NL) ولغة البرمجة (PL). باستخدام الإشراف الذاتي، تم تدريب COTEX مسبقا على لغة البرمجة الكبيرة لشركة Corpora لتعلم فهم عام للغة والرمز. يدعم COTEXT مهام NL-PL المصب مثل الرمز الملخص / الوثائق، وتوليد الرموز، والكشف عن العيوب، وتصحيح التعليمات البرمجية. نحن ندرب مشعك على مجموعات مختلفة من Corpus المتوفرة المتوفرة بما في ذلك البيانات BIMODAL 'و Unimodal'. هنا، بيانات BIMODAL هي مزيج من النصوص النصية والنصوص المقابلة، في حين أن البيانات غير المستخدمة هي مجرد مقتطفات رمز. نقيم أولا COTEXT مع التعلم متعدد المهام: نقوم بإجراء تلخيص الكود على 6 لغات برمجة مختلفة وصقل التعليمات البرمجية على كل من الحجم الصغير والمتوسط ​​المميز في DataSet Codexglue. كلنا إجراء تجارب مكثفة للتحقيق في COTEXT على مهام أخرى ضمن DataSet Codexglue، بما في ذلك توليد التعليمات البرمجية والكشف عن العيوب. نحن نتحمل باستمرار نتائج SOTA في هذه المهام، مما يدل على تنوع نماذجنا.

الأسئلة المقترحة

التعليقات
جاري جلب التعليقات جاري جلب التعليقات
سجل دخول لتتمكن من متابعة معايير البحث التي قمت باختيارها
mircosoft-partner

هل ترغب بارسال اشعارات عن اخر التحديثات في شمرا-اكاديميا