Do you want to publish a course? Click here

Developing an Approach for Data Steganography in Image by Segmentation to Different Size Random Blocks

تطوير طريقة لإخفاء البيانات في صورة بتقسيمها إلى بلوكات مختلفة الحجم بطريقة عشوائية

1498   2   15   0 ( 0 )
 Publication date 2017
and research's language is العربية
 Created by Shamra Editor




Ask ChatGPT about the research

In this paper we propose a new steganography algorithm by a random image segmentation to blocks of different size with several steganographic algorithms to increasing the security of hiding data. Both color and gray images have been used as cover files for our method.


Artificial intelligence review:
Research summary
يقترح هذا البحث طريقة جديدة لإخفاء البيانات في الصور عن طريق تقسيمها إلى بلوكات بأحجام عشوائية. يتم استخدام كل من الصور الملونة والرمادية كملفات غطاء. يتم تقسيم الصورة أولاً إلى بلوكات بأحجام عشوائية، ثم يتم استخدام خوارزميات مختلفة تعتمد على تقنية الخانة الأقل أهمية (LSB) للإخفاء داخل هذه البلوكات. بعد ذلك، يتم تطبيق تقنية ضبط البكسل المثلى (Optimal Pixel Adjustment Process) لتقليل التشوه الناتج عن إخفاء البيانات. العشوائية في أحجام البلوكات تلعب دورًا مهمًا في زيادة السرية ضد الهجمات. تظهر النتائج التجريبية أن الطريقة المقترحة تقلل من تشويه الصورة وتزيد من السرية ضد الهجمات. تم تقييم جودة الصورة باستخدام معايير مثل PSNR و MSE، وأظهرت النتائج أن جودة الصور المخفية جيدة جدًا ولا تعاني من تشوهات مرئية. كما تمت مقارنة الطريقة المقترحة مع طرق أخرى وأظهرت تفوقها في زيادة السرية وتقليل التشوه.
Critical review
دراسة نقدية: يعتبر البحث مقترحًا جيدًا في مجال إخفاء البيانات، حيث يقدم طريقة مبتكرة باستخدام تقسيم عشوائي للبلوكات. ومع ذلك، يمكن أن تكون هناك بعض التحديات في التطبيق العملي للطريقة المقترحة، خاصة فيما يتعلق بوقت المعالجة والحاجة إلى موارد حسابية كبيرة لتقسيم الصورة ومعالجة البلوكات بشكل عشوائي. بالإضافة إلى ذلك، قد يكون من المفيد تقديم مقارنة أكثر تفصيلًا مع تقنيات الإخفاء الأخرى لتوضيح الفوائد والعيوب بشكل أكثر شمولية. من الجيد أيضًا دراسة تأثير العشوائية على أنواع مختلفة من الصور وليس فقط الصور القياسية المستخدمة في الاختبارات.
Questions related to the research
  1. ما هي التقنية الأساسية المستخدمة في إخفاء البيانات في هذا البحث؟

    التقنية الأساسية المستخدمة هي تقنية الخانة الأقل أهمية (LSB) للإخفاء داخل البلوكات العشوائية الحجم.

  2. كيف يتم تقليل التشوه الناتج عن إخفاء البيانات في الصورة؟

    يتم تقليل التشوه باستخدام تقنية ضبط البكسل المثلى (Optimal Pixel Adjustment Process).

  3. ما هو الدور الذي تلعبه العشوائية في أحجام البلوكات في زيادة السرية؟

    العشوائية في أحجام البلوكات تجعل من الصعب على المهاجمين تحديد مواقع البيانات المخفية، مما يزيد من السرية ضد الهجمات.

  4. ما هي المعايير المستخدمة لتقييم جودة الصورة بعد إخفاء البيانات؟

    تم تقييم جودة الصورة باستخدام معايير مثل PSNR (نسبة الإشارة إلى الضوضاء القصوى) وMSE (متوسط مربع الخطأ).


References used
KAUR A, DHIR R, SIKKA G., 2009 "A New Image Steganography Based On First Component Alteration Technique", International Journal of Computer Science and Information Security, Vol.6,No.3, 53-56
SANCHETI A., 2012 " Pixel Value Differencing Image Steganography Using Secret Key ", International Journal of InnoVatiVe Technology and Exploring Engineering, Vol.2,No.1, 68-72
ISLAM R, SIDDIQA A, UDIN P, MANDAL A.K, HOSSAIN D., 2014 "An Efficient Filtering Based Approach Improving LSB Image Steganography using Status Bit along with AES Cryptography", IEEE 3rd INTERNATIONAL CONFERENCE ON INFORMATICS, ELECTRONICS & VISION
rate research

Read More

In this paper, a technique for hiding a message into digital images (256 gray levels) is proposed. Some tests, on the proposed technique, are done by applying the technique in hiding messages into some images. From the recorded results, we can not e that the proposed watermarking technique introduces, in many cases, a reasonable way that can be used to hide secret messages in the digital images.
Authorship attribution is the task of assigning an unknown document to an author from a set of candidates. In the past, studies in this field use various evaluation datasets to demonstrate the effectiveness of preprocessing steps, features, and model s. However, only a small fraction of works use more than one dataset to prove claims. In this paper, we present a collection of highly diverse authorship attribution datasets, which better generalizes evaluation results from authorship attribution research. Furthermore, we implement a wide variety of previously used machine learning models and show that many approaches show vastly different performances when applied to different datasets. We include pre-trained language models, for the first time testing them in this field in a systematic way. Finally, we propose a set of aggregated scores to evaluate different aspects of the dataset collection.
Direct high sensitive spectrophotometric method for determination Ni(III) has been suggested . proposed method is based on the formation of red- win colored complex between Ni(III) and DMG reagent in strong alkaline media of NaOH ,pH=12.5.the formed complex absorbed electromagnetic radiation at 465nm .
In this research we introduce a regularization based feature selection algorithm to benefit from sparsity and feature grouping properties and incorporate it into the medical image classification task. Using this group sparsity (GS) method, the wh ole group of features are either selected or removed. The basic idea in GS is to delete features that do not affect the retrieval process, instead of keeping them and giving these features small weights. Therefore, GS improves system by increasing accuracy of the results, plus reducing space and time requirements needed by the system.
We propose to tackle data-to-text generation tasks by directly splicing together retrieved segments of text from neighbor'' source-target pairs. Unlike recent work that conditions on retrieved neighbors but generates text token-by-token, left-to-righ t, we learn a policy that directly manipulates segments of neighbor text, by inserting or replacing them in partially constructed generations. Standard techniques for training such a policy require an oracle derivation for each generation, and we prove that finding the shortest such derivation can be reduced to parsing under a particular weighted context-free grammar. We find that policies learned in this way perform on par with strong baselines in terms of automatic and human evaluation, but allow for more interpretable and controllable generation.

suggested questions

comments
Fetching comments Fetching comments
Sign in to be able to follow your search criteria
mircosoft-partner

هل ترغب بارسال اشعارات عن اخر التحديثات في شمرا-اكاديميا