Do you want to publish a course? Click here

Translation by deep learning

الترجمة بالتعلم العميق

1733   0   68   0 ( 0 )
 Publication date 2018
and research's language is العربية
 Created by ahmad aldali




Ask ChatGPT about the research

No English abstract


Artificial intelligence review:
Research summary
يتناول هذا البحث موضوع الترجمة باستخدام التعلم العميق، حيث يوضح كيفية بناء نظام ترجمة يعتمد على تقنيات التعلم العميق لتحسين دقة الترجمة من اللغة الإنجليزية إلى اللغة العربية. يبدأ البحث بمقدمة عن أهمية الترجمة في عصر الإنترنت وانتشار المعلومات، ويشير إلى التحديات التي تواجه الترجمة الآلية خاصة بالنسبة للغة العربية. يتناول البحث أنواع الترجمة الآلية المختلفة مثل الترجمة القاعدية والترجمة الإحصائية والترجمة العصبية، ويشرح كيفية بناء نموذج الترجمة العصبية باستخدام الشبكات العصبية المتكررة (RNN) وشبكات الذاكرة طويلة المدى (LSTM). كما يوضح البحث كيفية استخدام تقنية التعرف الضوئي على المحارف (OCR) لاستخراج النصوص من الصور وترجمتها باستخدام النموذج المطور. يتضمن البحث أيضًا شرحًا مفصلًا للبنية العامة للمشروع والخطوات البرمجية المتبعة في بناء النموذج وتقييم النتائج باستخدام معيار BLEU. وأخيرًا، يعرض البحث بعض التجارب العملية لتحسين أداء النموذج ويقترح بعض التقنيات الأخرى التي يمكن استخدامها في الترجمة الآلية.
Critical review
دراسة نقدية: على الرغم من الجهود المبذولة في هذا البحث لبناء نظام ترجمة باستخدام التعلم العميق، إلا أن هناك بعض النقاط التي يمكن تحسينها. أولاً، البحث يعتمد على عدد محدود من الجمل في التدريب، مما قد يؤثر على دقة النموذج. كان من الأفضل استخدام مجموعة بيانات أكبر لتحسين الأداء. ثانيًا، البحث يركز بشكل كبير على الترجمة من الإنجليزية إلى العربية، وكان من الممكن توسيع الدراسة لتشمل لغات أخرى لزيادة شمولية النتائج. ثالثًا، على الرغم من استخدام تقنية التعرف الضوئي على المحارف (OCR)، إلا أن البحث لم يتناول بشكل كافٍ التحديات التي قد تواجه هذه التقنية في النصوص المعقدة أو ذات الجودة المنخفضة. وأخيرًا، كان من الممكن تقديم مقارنة أكثر تفصيلاً بين أداء النموذج المطور والنماذج الأخرى المتاحة في السوق مثل Google Translate وBing Translator.
Questions related to the research
  1. ما هي التقنيات المستخدمة في بناء نموذج الترجمة العصبية في هذا البحث؟

    تم استخدام الشبكات العصبية المتكررة (RNN) وشبكات الذاكرة طويلة المدى (LSTM) وتقنية التعرف الضوئي على المحارف (OCR) لبناء نموذج الترجمة العصبية.

  2. ما هو معيار BLEU وكيف يتم استخدامه في تقييم نتائج الترجمة؟

    معيار BLEU هو خوارزمية تستخدم لتقييم جودة النص المترجم آليًا من خلال مقارنته مع نصوص مرجعية مترجمة بشكل جيد. يتم حساب متوسط النتائج على مجموعة النصوص لتقدير جودة الترجمة بشكل عام.

  3. ما هي التحديات التي تواجه الترجمة الآلية للغة العربية؟

    من التحديات التي تواجه الترجمة الآلية للغة العربية هي تعقيد اللغة، وجود العديد من اللهجات، نقص الموارد اللغوية، وصعوبة التعامل مع النصوص ذات الجودة المنخفضة أو المعقدة.

  4. كيف يمكن تحسين أداء نموذج الترجمة العصبية المطور في هذا البحث؟

    يمكن تحسين أداء النموذج من خلال استخدام مجموعة بيانات أكبر للتدريب، تحسين تقنيات التعرف الضوئي على المحارف، واستخدام تقنيات أخرى مثل الترجمة على مستوى المحارف أو الترجمة الهجينة بين الكلمات والمحارف.


References used
MARIANA, N. Neural Machine Translation, Hasso Plattner Institute, 2017.
rate research

Read More

2168 - MIT press 2016 كتاب
Written by three experts in the field, Deep Learning is the only comprehensive book on the subject." -- Elon Musk, co-chair of OpenAI; cof-ounder and CEO of Tesla and SpaceX
In this paper, we describe our MiSS system that participated in the WMT21 news translation task. We mainly participated in the evaluation of the three translation directions of English-Chinese and Japanese-English translation tasks. In the systems su bmitted, we primarily considered wider networks, deeper networks, relative positional encoding, and dynamic convolutional networks in terms of model structure, while in terms of training, we investigated contrastive learning-reinforced domain adaptation, self-supervised training, and optimization objective switching training methods. According to the final evaluation results, a deeper, wider, and stronger network can improve translation performance in general, yet our data domain adaption method can improve performance even more. In addition, we found that switching to the use of our proposed objective during the finetune phase using relatively small domain-related data can effectively improve the stability of the model's convergence and achieve better optimal performance.
Deep learning is at the heart of the current rise of artificial intelligence. In the field of Computer Vision, it has become the workhorse for applications ranging from self-driving cars to surveillance and security. Whereas deep neural networks have demonstrated phenomenal success (often beyond human capabilities) in solving complex problems, recent studies show that they are vulnerable to adversarial attacks in the form of subtle perturbations to inputs that lead a model to predict incorrect outputs. For images, such perturbations are often too small to be perceptible, yet they completely fool the deep learning models. Adversarial attacks pose a serious threat to the success of deep learning in practice. This fact has recently lead to a large influx of contributions in this direction. This article presents a survey on adversarial attacks on deep learning in Computer Vision. We review the works that design adversarial attacks, analyze the existence of such attacks and propose defenses against them
We consider the task of linking social media accounts that belong to the same author in an automated fashion on the basis of the content and meta-data of the corresponding document streams. We focus on learning an embedding that maps variable-sized s amples of user activity--ranging from single posts to entire months of activity--to a vector space, where samples by the same author map to nearby points. Our approach does not require human-annotated data for training purposes, which allows us to leverage large amounts of social media content. The proposed model outperforms several competitive baselines under a novel evaluation framework modeled after established recognition benchmarks in other domains. Our method achieves high linking accuracy, even with small samples from accounts not seen at training time, a prerequisite for practical applications of the proposed linking framework.
Active learning has been shown to reduce annotation requirements for numerous natural language processing tasks, including semantic role labeling (SRL). SRL involves labeling argument spans for potentially multiple predicates in a sentence, which mak es it challenging to aggregate the numerous decisions into a single score for determining new instances to annotate. In this paper, we apply two ways of aggregating scores across multiple predicates in order to choose query sentences with two methods of estimating model certainty: using the neural network's outputs and using dropout-based Bayesian Active Learning by Disagreement. We compare these methods with three passive baselines --- random sentence selection, random whole-document selection, and selecting sentences with the most predicates --- and analyse the effect these strategies have on the learning curve with respect to reducing the number of annotated sentences and predicates to achieve high performance.
comments
Fetching comments Fetching comments
Sign in to be able to follow your search criteria
mircosoft-partner

هل ترغب بارسال اشعارات عن اخر التحديثات في شمرا-اكاديميا