يحتاج تحليل الأدبيات العلمي إلى التعرف على الكيان المسمى بشكل جيد (NER) لتوفير مجموعة واسعة من المعلومات للاكتشاف العلمي. على سبيل المثال، يحتاج أبحاث الكيمياء إلى دراسة العشرات إلى مئات أنواع الكيانات المتميزة والجمالية المميزة، مما يجعل التعليق التوضيحي ثابت ودقيقا صعبا حتى للحشود من خبراء المجال. من ناحية أخرى، يمكن الوصول بسهولة إلى أونتالولوجيات خاصة بالمجال وقواعد المعرفة (KBS) بسهولة، أو شيدت، أو متكامل، مما يجعل الإشراف البعيد واقعية للكيمياء النيذبة الناشئة. في الإشراف البعيد، يتم إنشاء تسميات التدريب عن طريق مطابقة تذكر في وثيقة مع المفاهيم في قواعد المعرفة (KBS). ومع ذلك، فإن هذا النوع من مطابقة KB يعاني من تحديين رئيسيين: التعليق التوضيحي غير الكامل والشروح الصاخبة. نقترح كيمنر، وهي طريقة توجيهية، تحت مضاد المسترد بها، تحت إشراف صاخبة للكيمياء النيذاري المحبوسين عن هذه التحديات. إنه يرفع هيكل OnTology لنوع الكيمياء لتوليد ملصقات بعيدة مع أساليب رواية من الغموض متعددة الأطراف متعددة الأطباق متعددة الأطباق. إنه يحسن بشكل كبير من توليد التسمية البعيدة للتدريب على تسلسل التسلسل اللاحق. نحن نقدم أيضا مجموعة بيانات من الخبراء، وكيمياء NER مع 62 نوعا من كيمياء كيمياء دقيقة (على سبيل المثال، المركبات الكيميائية والتفاعلات الكيميائية). تظهر النتائج التجريبية أن CHEMMNER فعالة للغاية، مما يتفوق بشكل كبير على أساليب NER-Artication NER (مع تحسن درجة F1 المطلقة).
Scientific literature analysis needs fine-grained named entity recognition (NER) to provide a wide range of information for scientific discovery. For example, chemistry research needs to study dozens to hundreds of distinct, fine-grained entity types, making consistent and accurate annotation difficult even for crowds of domain experts. On the other hand, domain-specific ontologies and knowledge bases (KBs) can be easily accessed, constructed, or integrated, which makes distant supervision realistic for fine-grained chemistry NER. In distant supervision, training labels are generated by matching mentions in a document with the concepts in the knowledge bases (KBs). However, this kind of KB-matching suffers from two major challenges: incomplete annotation and noisy annotation. We propose ChemNER, an ontology-guided, distantly-supervised method for fine-grained chemistry NER to tackle these challenges. It leverages the chemistry type ontology structure to generate distant labels with novel methods of flexible KB-matching and ontology-guided multi-type disambiguation. It significantly improves the distant label generation for the subsequent sequence labeling model training. We also provide an expert-labeled, chemistry NER dataset with 62 fine-grained chemistry types (e.g., chemical compounds and chemical reactions). Experimental results show that ChemNER is highly effective, outperforming substantially the state-of-the-art NER methods (with .25 absolute F1 score improvement).
المراجع المستخدمة
https://aclanthology.org/
لأكثر من ثلاثين عاما، قام الباحثون بتطوير وتحليل طرق لتحريض الأشجار الكامنة كهدوث لنهج التحليل النحوي غير المقترح. ومع ذلك، لا تزال الأنظمة الحديثة لا تؤدي بشكل جيد بما فيه الكفاية مقارنة بنظيراتهم الخاضعة للإشراف للحصول على أي استخدام عملي باسم التع
نحن نقدم Rackbert، وهي طريقة ما قبل التدريب التي تزيد من طرازات اللغة بالقدرة على السبب في العلاقات الطويلة المدى والسياقات المختلفة المحتملة. على عكس أساليب ما قبل التدريب الموجودة التي تحصدها فقط إشارات تعليمية فقط من السياقات المحلية للنصوص التي ت
على الرغم من أن النماذج الكبيرة المدربة مسبقا (E.G.، Bert، Ernie، Xlnet، GPT3 وما إلى ذلك) قدمت أداء أعلى في النمذجة SEQ2SEQ، وغالبا ما تعوق عمليات نشرها في تطبيقات العالم الحقيقي بواسطة الحسابات المفرطة وطلب الذاكرة المعنية. بالنسبة للعديد من التطبي
يقلل اعتراف الكيان المسمى بشكل مسمى (DS-NER) بكفاءة تكاليف العمالة بل في الوقت نفسه يعاني من ضوضاء الملصقات بسبب الافتراض القوي للإشراف البعيد.عادة ما تشتمل الحالات المسماة بشكل خاطئ على أرقام التعليقات التوضيحية غير المكتملة وغير الدقيقة، في حين أن
نحن نقدم مخطط شرح حالة إعلام من المحبوس الذي يتبع مباشرة من نموذج وحدة مجردة تدريجية لمعالجة الحوار عند استخدامها داخل إعداد متعدد الوسائط والشريط المشترك.نوضح نموذج الوحدة الإضافية وإعطاء طلب مثال باستخدام مجموعة بيانات الروايات المترجمة، ثم تقديم طرق للبحث في المستقبل.