-- -- -- / -- -- --
إدارة الموقع

كيف تحمي صورك من التلاعب بالذكاء الاصطناعي؟

سمية سعادة
  • 668
  • 0
كيف تحمي صورك من التلاعب بالذكاء الاصطناعي؟

في عصر الذكاء الاصطناعي والتزييف العميق، أصبح التلاعب بالصور الشخصية، وانتهاك الخصوصية مصدر قلق متزايد لرواد الشبكات الاجتماعية.

فمع الانتشار الواسع للصور الشخصية على مواقع التواصل، أصبح المحتالون يستخدمون الذكاء الاصطناعي للابتزاز من خلال إدخال تعديلات غير لائقة على صور بعض الأشخاص.

التزييف العميق

أحد أكبر التهديدات التي يشكلها الذكاء الاصطناعي على الصور الشخصية هو احتمال التزييف العميق.

والتزييف العميق عبارة عن مقاطع فيديو أو صور تم التلاعب بها باستخدام الذكاء الاصطناعي لجعلها تبدو وكأن شخصا ما يقول أو يفعل شيئا لم يقله أو يفعله أبدا، كما عرّفه موقع tech-mag.

كيف تعرف أنه تم التلاعب بالصورة؟

– يواجه الذكاء الاصطناعي صعوبة في إنشاء عيون تبدو حقيقية وتتحكم في الضوء، وخاصة الانعكاسات، فإذا لاحظت وجود حالات شاذة في هذه الجوانب، فقد تكون الصورة مزيفة.

-فحص ملامح الشخص في الصورة، وكل ما يظهر فيه مثل اليدين، لأن الذكاء الاصطناعي يفشل في إنتاج بعض التفاصيل، لذلك تبدو الصورة غريبة.

– قد تحتوي الصور المولدة بواسطة الذكاء الاصطناعي على عيوب أو تناقضات تكشف عن أصلها الاصطناعي.

على سبيل المثال، قد تلاحظ تشوهات أو تمويهات أو تكرارات أوتماثلات أو حتى عناصر لا تتوافق مع سياق الصورة المرئية.

– الانتباه للخلفية، لأن الذكاء الاصطناعي ينتج ضبابية أو تفاصيل غريبة في الخلفية.

– إذا كان الموقع أو حساب التواصل الاجتماعي معروفا بنشر أخبار كاذبة أو محتوى غير موثوق به، فمن المستحسن اتخاذ الاحتياطات اللازمة بشأن ما تراه.

– إذا رأيت صورة تبدو مثالية جدا أو مذهلة أو غير محتملة، فكن حذرا،واستخدم الفطرة السليمة والتفكير النقدي لتقييم مدى معقولية الصورة وصحتها، هذا ما أشار عليه موقع codeur.

كيف تحمي صورك من التزييف؟

طور باحثون من معهد ماساتشوستس للتكنولوجيا أداة جديدة، PhotoGuard، لحماية صورك من التعديلات التي تعتمد على الذكاء الاصطناعي.

درع واقي لصورك

يقوم PhotoGuard بتغيير الصور بطرق غير مرئية للعين البشرية ولكنه يمنع أنظمة الذكاء الاصطناعي من معالجتها.

فإذا حاول شخص ما معالجة صورة “محصنة” باستخدام نماذج الذكاء الاصطناعي، فستظهر النتيجة غير واقعية أو مشوهة.

هجوم التشفير

تضيف التقنية الأولى، المعروفة باسم هجوم التشفير، إشارات غير محسوسة إلى الصورة، مما يتسبب في إساءة تفسير نموذج الذكاء الاصطناعي لها.

على سبيل المثال، يمكن لهذه الإشارات أن تجعل الذكاء الاصطناعي يصنفأي صورة على أنها كتلة من اللون الرمادي النقي، مما يجعل أي محاولات تحرير غير مقنعة.

هجوم الانتشار

الأسلوب الثاني الأكثر فعالية يسمى هجوم الانتشار، فهو يعطل عملية توليد الصور لنماذج الذكاء الاصطناعي عن طريق تشفير الإشارات السرية التي تغير معالجتها. يمكن لهذا التلاعب أن يجعل الصور المحررة بواسطة الذكاء الاصطناعي تبدو باللون الرمادي، بحسب موقع beardynerd.

التحليل العميق

توفر Forensically، وهي منصة مجانية، العديد من ميزات التحليل العميق لاكتشاف الصورة التي تم إنشاؤها بواسطة الذكاء الاصطناعي أو اكتشاف التعديلات على الصورة الأصلية.

تعتمد الأداة، من بين أمور أخرى، على تحليل الضوضاء ومستوى التفاصيل والعناصر المكررة والبيانات الوصفية للتحقق من صحة الصورة.

لا تجعل صورك متاحة

لا تجعل صورك متاحة على مواقع التواصل الاجتماعي لأنها قد تتعرض للفبركة باستعمال تطبيقات الذكاء الاصطناعي.

العلامة المائية

أحد أفضل الطرق لحماية صورك هي اضافة العلامة المائية وبالتالي لا يمكن لأي شخص سرقة الصورة أو التلاعب بها.

يمكن تنفيذ هذه المهمة باستخدام برامج تحرير الصور كالفوتوشوب فكل ما عليك هو كتابة النص التي تريد اضافته والتقليل من شفافية النص، وفقا موقع majnooncomputer.

أضف تعليقك

جميع الحقول مطلوبة, ولن يتم نشر بريدك الإلكتروني. يرجى منكم الإلتزام بسياسة الموقع في التعليقات.

لقد تم ارسال تعليقكم للمراجعة, سيتم نشره بعد الموافقة!
التعليقات
0
معذرة! لا يوجد أي محتوى لعرضه!