شاركوا في مهمّتنا،
بل قودوها

اترك/ ي بصمَتك!

"تعرية النساء"... تطبيق "مُفزع" سُحب من التداول، ولكن!

انضمّ/ ي إلى مجتمع "قرّائنا/ قارئاتنا الدائمين/ ات”.

هدفنا الاستماع إلى الكل، لكن هذه الميزة محجوزة لمجتمع "قرّائنا/ قارئاتنا الدائمين/ ات"! تفاعل/ي مع مجتمع يشبهك في اهتماماتك وتطلعاتك وفيه أشخاص يشاركونك قيمك.

إلى النقاش!

حياة

السبت 29 يونيو 201903:16 م

وُصف بالتطبيق "المُفزع"، وهو حقاً كذلك. يُذكّرنا بالمرّات الوافرة التي ابتُزت فيها فتيات بنشر صور مُفبركة لأجسادهن، ولكن الأمر لم يعد يتطلّب برامج مثل فوتوشوب لإتمام "مُهمة الابتزاز"، بل يتطلب كبسة واحدة على تطبيق DeepNude (عُري عميق) وثواني قليلة لتجريد الفتيات من ملابسهن.

هو تطبيق ظهر في الأشهر الأخيرة، وسُحب الخميس 27 يونيو بعدما حمّله نصف مليون شخص لأن "العالم ليس مُستعداً لـ DeepNude بعد"، وفقاً لبيانٍ نشره القائمون على التطبيق عبر تويتر.

وقالوا: "أطلقنا التطبيق لتسلية المُستخدم قبل أشهر قليلة واعتقدنا أننا قادرون على التحكم بسلوكه، ولكننا لم نعلم بأن التطبيق سيُنشر بشكل فيروسي وبأننا لن نستطيع السيطرة على المُستخدمين".

وأضافوا أنه بغض النظر عن علامة (FAKE) التي تظهر على الصور لتؤكّد أنها مُزيفة فإن استخدام نصف مليون شخص للتطبيق يزيد من احتمال سوء استعماله، وقالوا إنهم "لا يريدون ربح المال بهذه الطريقة".

وحث مطوّرو التطبيق الأشخاص الذين يملكون نسخة منه على عدم نشرها إذ يمكنهم استخدام التطبيق رغم سحبه.

وكان التطبيق متوافراً بالنسختين المجانية (تُظهر شعار التطبيق في نصف الصورة) وغير المجّانية التي توفّر صوراً واضحة خالية من أي شعارات مُقابل 50 دولاراً.

وأدّى الإقبال على تحميل التطبيق إلى تعطل موقع الشركة المطورة قبل أيامٍ من سحبه.

يصلح لأجساد النساء فقط

يعتمد التطبيق على خوارزمية pix2pix التي طوّرها باحثون من جامعة كاليفورنيا في بيركلي عام 2017 باستخدام شبكات الخصومة التوليفية Generative Adversarial Networks (GANs) التي بدورها تُدرّب الخوارزمية على آلافٍ من صور النساء العارية حتى تستطيع إنتاج صور تبدو حقيقية إلى درجة كبيرة.

وتعمل الشبكات على تحديد الملابس في الصورة ومن ثم استبدالها بتفاصيل جسدية مع الأخذ في الاعتبار درجة لون الجلد والإضاءة والظلال.

ويقول مطوّر التطبيق، آلبيرت (اسم مستعار)، إن DeepNude يصلح لأجساد النساء فقط لأنه "من السهل الحصول على آلاف الأجساد النسائية العارية على المواقع الإباحية"، على حدّ قوله.

وقد جرّب موقع "Vice" التطبيق قبل أن يُسحب، لافتاً إلى أنه حينما استخدم صورة رجل لتعريته، استُبدل بنطاله بعضو نسائي.

"الإنترنت مكان غير آمن، لا تُوجد قوانين فيه، ولا يعلم الفرد متى يتم استهدافه ومتى يكون الضحية المقبلة"... حينما تُصبح تعرية النساء ممكنة بكبسة زر
وُصف بالتطبيق "المُفزع". بعد سحبه من السوق لم تتوقف مخاطره، فهو يُذكّرنا بالمرّات الوافرة التي ابتُزت فيها فتيات لدى نشر صور مُفبركة لأجسادهن، جعلتهن عرضة لردات فعل انتقاميّة...

وأضاف الموقع أنه كُلما قلّت المناطق المُغطاة بالثياب في الصورة، كانت النتيجة النهائية أفضل، مُشيراً إلى أن النتائج الفضلى ظهرت في صور النساء اللواتي كُن في ملابس سباحة.

وأكّد موقع "Vice" إنه من السهل جداً قصّ علامة "FAKE" من زاوية الصورة أو حذفها من خلال فوتوشوب، وهذا ما يعني أنها غير مؤثرة على الإطلاق.

لم أُنشىء شيئاً جديداً

قال آلبيرت إنه يمكن لأي مُستخدم إنتاج ما يستطيع التطبيق إنتاجه من خلال فوتوشوب بعد مُشاهدته بعض الفيديوهات التعليمية، مؤكداً أن التطبيق لا يحوّل الصور بل يخلق صوراً جديدة.

أضاف "قلت لنفسي التكنولوجيا جاهزة وموجودة، إن أراد أحد أن يستخدمها بطريقة سيئة، فلن يؤثر عليه وجود التطبيق أو عدمه، وإن لم أعمد لإنشائه أنا، فسيطلقه شخص آخر خلال سنة".

"تعدٍّ على الخصوصية الجنسية"

في هذا السياق، وصفت كاتيلين بودن، مؤسسة حملة لمناهضة الانتقام الجنسي التطبيق بـ "المُرعب"، مُضيفةً "يمكن لأي شخص الآن الانتقام من أي شخص آخر بدون أن يضطر لالتقاط صورة (عارية) له".

واعتبرت دانييلا سيترون، وهي مُحاضِرة قانون في كلية الحقوق في جامعة ماريلاند الأمريكية، التطبيق "تعدياً على الخصوصية الجنسية"، مُضيفةً "نعلم أن الأعضاء ليست حقيقية، ولكن سيُخيّل للكثيرين أنها كذلك".

وأضافت: "قالت لي إحدى ضحايا تقنية DeepFake إنها شعرت بعدما شاهدها الآلاف عاريةً من خلال فيديو مُفبرك بأن جسدها لم يعد ملكاً لها".

حان وقت عدم تصديق ما نرى

في نهاية عام 2017، بواسطة برامج التعلّم العميق Deep Learning، ظهرت تقنية DeepFake (التزييف العميق) مُستخدمةً الذكاء الاصطناعي لإنتاج فيديوهات مُفبركة من خلال تبديل الوجوه، وهذا ما أتاح للعامة تركيب وجوه شخصيات سياسية وفنيّة وغيرها في أفلام إباحية.

هذه التقنية دفعت بالممثلة الأمريكية سكارليت جوهانسون التي سبق أن نُشرت صور وفيديوهات مُفبركة لها للتحذير منها، وعدم تصديق كل ما نراه، قائلةً في حوارٍ لها مع صحيفة "واشنطن بوست" إن "لا شيء يمكن أن يمنع أي شخص من الفبركة".

وكانت جوهانسون ضحية مقطع فيديو إباحي زعم ناشره أنه "حقيقي ومُسرّب"، حصل على أكثر من 1.5 مليون مشاهدة عبر أحد المواقع الإباحية.

واعتبرت جوهانسون أن تقنية DeepFake "تحدٍّ كبير" لكل امرأة تُريد حماية نفسها على الإنترنت، مؤكدةً أن "الأمر لا يؤثر عليها مثلما يتوقع البعض لأن ما ظهر في الصور ومقاطع الفيديو ليس جسدها الحقيقي"، ولكنه قد يؤثر كثيراً على نساء أُخريات، من الممكن أن يتعرضن لحملات انتقام من عائلاتهن، أو قد يخسرن وظائفهن.

وأضافت معلقة أن "الإنترنت مكان غير آمن، لا تُوجد قوانين فيه، ولا يعلم الفرد متى يتم استهدافه ومتى يكون الضحية المقبلة".


رصيف22 منظمة غير ربحية. الأموال التي نجمعها من ناس رصيف، والتمويل المؤسسي، يذهبان مباشرةً إلى دعم عملنا الصحافي. نحن لا نحصل على تمويل من الشركات الكبرى، أو تمويل سياسي، ولا ننشر محتوى مدفوعاً.

لدعم صحافتنا المعنية بالشأن العام أولاً، ولتبقى صفحاتنا متاحةً لكل القرّاء، انقر هنا.

Website by WhiteBeard