تعتبر عملية الاختزال الذكية، لعرض محتويات الفيديو من الأمور الأساسية المطروحة في أدبيات الرؤيا الحاسوبية، لما لها من أهمية في تقليص الحجم اللازم لتخزين الفيديو في مختلف الوسائط، و بالأخص في الهواتف النقالة و كميرات المراقبة، و تقليص في الوقت اللازم لمشاهدة الفيديو.
تتلخص عملية الاختزال الذكية، ببناء برمجية قادرة على عرض و تخزين المحتوى الهام من المشاهد، التي تحتوي على تفاصيل متجددة، إما من ناحية الصورة، أو من ناحية الصوت المرافق، و حذف المشاهد ذات المحتوى المتكرر من التفاصيل.
تم في هذا البحث تقديم منهجية عمل جديدة لاستخلاص المشاهد ذات التفاصيل الجديدة في الصورة و الصوت، دون التأثير على استمرارية الحركة ضمن الفيديو، و بشكل يضمن مشاهدة مستمرة؛ حيث اعتمدت منهجية العمل على خوارزميتين أساسيتين: الخوارزمية الأولى تعمل على استخلاص المشاهد ذات التفاصيل المتغيرة في الصورة، بالاعتماد على القيم الذاتية للمشاهد، التي تبدي تغير كبير يلازم أي تغير في تفاصيل المشهد، بينما الخوارزمية الثانية تعمل على استخلاص الصوت ذو التفاصيل المتغيرة، معتمدة على خوارزمية مقدمة عام 1985 من [1]، التي يمكنها أن تقنّع الإشارة المدروسة بغلاف ثنائي القيمة 1 أو 0، في منطقة الإشارة المحتوية على تفاصيل يأخذ القيمة 1 ، بينما في المنطقة غير المحتوية على تفاصيل يأخذ القيمة 0. يتم تنفيذ الخوارزميتين بشكل متزامن، و بالتالي يتم استخلاص المشاهد المتغيرة، و الإشارة الصوتية المرافقة لها.
تمّ تطبيق منهجية العمل على مقاطع فيديو كبيرة و متنوعة من حيث حركة الأغراض ضمنها، و حققت فعالية جيدة جداً، محققة دقة كبيرة في التزامن بين المشاهد، و الصوت المرافق لها.
Smart shorthand, to display video content, is one of the main problems in computer vision
literature, because it is important to reduce the size of video storage in various media,
especially in mobile phones and monitoring cameras, and reduce the time needed to watch
video.
The smart shorthand process is to build software capable of displaying and save important
content from the viewer, which contains new details, either in terms of the image or in the
accompanying voice and deleting scenes with repeated content.
In this research, a new methodology was introduced to extract new scenes in the image and
sound, without affecting the continuity of motion within the video, and in a manner that
ensures continuous viewing. The methodology relied on two basic algorithms: the first
algorithm works to extract scenes with variable details in the image, based on the
eigenvalues of the scenes, which show a significant change in the details of the scene,
while the second algorithm is based on the extraction of sound with variable details, based
on the algorithm introduced in 1985 from [1], which can encode the sound signal with a
double-value frame 1 or 0, in the signal area containing details that takes value 1, while in
the non- Details takes value 0, the two algorithms are executed synchronously, and thus the
variable scenes and the adjacent acoustic signal are drawn.
The methodology used to work on large video clips in terms of movement of objects
within them has achieved very good effectiveness, great accuracy in synchronization
between the scenes and sound adjacent to them.
المراجع المستخدمة
PAN, J., TOMPKINS, W. J. A real-time QRS detection algorithm. IEEE Trans. Biomed. Eng., BME-32(3), 1985 pp 230-236
VIJEETKUMAR, B., DINESH, R., PUNITHA, .P, RAO, V. Key frame extraction and shot boundary detection using Eigenvalues. International Journal of Information and Electronics Engineering vol. 5, no. 1, India, 2015 pp 40-45
ESAKKIRAJAN, S., JAYARAMAN, S., VEERAKUMAR, T. Digital Image processing. Tata McGraw Hill, New Delhi, 2015 pp 719