تحذيرات الخبراء من استخدام صور استوديو غيبلي بالذكاء الاصطناعي .. ما السبب ؟

الأحد - 06 أبريل 2025 - الساعة 09:00 م بتوقيت العاصمة عدن

عدن سيتي _متابعات



بينما ينغمس مستخدمو الإنترنت في التوجه المنتشر على نطاق واسع عالميًا لتحويل الصور الشخصية إلى صور بنمط "استوديو غيبلي" الياباني للرسوم المتحركة باستخدام أدوات الذكاء الاصطناعي، يبدو أن لهذا الأمر كُلفة مرتفعة.


ويُحذر خبراء الأمن السيبراني من أن هذا التوجه يُخفي واقعًا أكثر قتامة، خاصة في يتعلق بالخصوصية وإساءة استخدام البيانات.


وحذّر الخبراء أيضًا من أنه على الرغم من أن هذه الأدوات قد تبدو غير ضارة، إلا أن شروط الخدمة غالبًا ما تكون غامضة، مما يثير تساؤلات حول مصير صور المستخدم بعد معالجتها، بحسب تقرير لصحيفة "بيزنس ستاندرد".

بدأ هذا التوجه عندما أطلقت شركة "OpenAI" نموذج "GPT-4o" الخاص بها، والذي يسمح للمستخدمين بتغيير صورهم الشخصية لتصبح بنمط "استوديو غيبلي".


وتقول منصات قليلة من بين كثيرين إنها لا تخزن الصور، أو تحذفها بعد استخدامها لمرة واحدة، لكن معظمها لا يشرح بوضوح ما تعنيه بـ"الحذف" فعلًا، سواء كان فوريًا أو مُؤجلًا أو جزئيًا.


ولا تقتصر الصور على بيانات الوجه فحسب، بل غالبًا ما تتضمن بيانات وصفية مخفية مثل إحداثيات الموقع، وأختام زمنية بتاريخ ووقت التقاطها، وتفاصيل الجهاز، وكلها قد تكشف عن معلومات شخصية.


تخزين وحذف الصور

قال فيشال سالفي، الرئيس التنفيذي لشركة كويك هيل تكنولوجيز، إن أدوات الذكاء الاصطناعي هذه تستفيد من خوارزميات تقنية نقل النمط العصبي (NST).


وهذه التقنية تستخدم الذكاء الاصطناعي لتحويل صورة إلى أسلوب فني معين، مثل تحويل صورة حقيقية إلى صورة تبدو وكأنها رسم بأسلوب فنان معين.


وتفصل هذه الخوارزميات المحتوى عن الأنماط الفنية في الصور المُحمّلة لدمج صورة المستخدم مع الأعمال الفنية المرجعية.


ومع أن العملية تبدو غير ضارة، إلا أن ثغرات أمنية مثل هجمات عكس النماذج، حيث قد يُعيد الخصوم بناء الصور الأصلية من الصور بنمط "غيبلي"، تُشكل مخاطر كبيرة، وفقًا لسالفي.


وحذر سالفي من الأمر قائلًا: "حتى لو ادعت الشركات أنها لا تخزن صورك، فقد ينتهي الأمر بأجزاء من بياناتك في أنظمتها. من المؤكد أنه يمكن إعادة استخدام الصور المُحمّلة لأغراض غير مقصودة، مثل تدريب نماذج الذكاء الاصطناعي للمراقبة أو الإعلان".


تجربة ممتعة وسهلة لكن مقلقة

قال براتيم موخيرجي، من شركة مكافي، إن طريقة تصميم هذه الأدوات تُسهّل التغافل على ما تُوافق عليه بالفعل.


وغالبًا ما تخلق النتائج الجذابة، والفلاتر واسع الانتشار على الإنترنت، والتفاعلات السريعة تجربة تبدو ممتعة وبسيطة، لكنها غالبًا ما تأتي مع مخاطر خصوصية مخفية.


وأَضاف موخيرجي: "عندما يُمنح الوصول إلى محتوى شخصي، مثل صور الكاميرا، دون تفكير، فهذا ليس دائمًا أمرًا عرضيًا. غالبًا ما تُصمم هذه المنصات لتشجيع التفاعل السريع بينما تُجمع البيانات بهدوء في الخلفية".


وقال إن هذا هو منبع القلق، حيث يهتم الأشخاص بالنتيجة النهائية الجذابة، فيما يتم تطبيع نمط مشاركة البيانات الذي لا يفهمه المستخدمون كليًا.


اختراق البيانات

يظل خطر اختراق البيانات قائمًا بشكل كبير، وحذر الخبراء من أن صور المستخدمين المسروقة قد تُشجع على إنشاء مقاطع فيديو مزيفة بواسطة الذكاء الاصطناعي وانتحال الهوية.


قال فلاديسلاف توشكانوف، من مركز أبحاث تكنولوجيا الذكاء الاصطناعي في كاسبرسكي، إنه على الرغم من أن بعض الشركات تضمن سلامة وأمن البيانات التي تجمعها وتخزنها، إلا أن هذا لا يعني أن الحماية مضمونة.


وأضاف: "بسبب المشكلات التقنية أو الأنشطة الخبيثة، قد تتسرب البيانات أو تصبح متاحة للعامة أو تُباع على مواقع إلكترونية سرية متخصصة. علاوة على ذلك، يُمكن اختراق الحساب المُستخدم للوصول إلى الخدمة في حال اختراق بيانات الاعتماد أو جهاز المستخدم.


وحذر موخيرجي قائلًا: "المشكلة هي أنه لا يُمكنك تغيير وجهك كما يُمكنك إعادة تعيين كلمة المرور"، مضيفا أن بمجرد تحميل الصورة، تكون متاحة.


وعلاوة على ذلك، تُخفي العديد من المنصات بنود استخدام البيانات ضمن شروط خدمة مطولة، مما يُصعّب على المستخدمين فهم طريقة التعامل مع بياناتهم.


وهنا تكمن المشكلة، فغالبًا ما تكون هذه الشروط غامضة أو طويلة جدًا بحيث يصعب على معظم الناس فهمها، وبمجرد نقر شخص ما على زر "قبول" لا يعني أنه يُعطي موافقة مُستنيرة تمامًا.


اتخذت بعض الدول خطوات لفرض إفصاحاتٍ أكثر وضوحًا، بينما لا يزال البعض الآخر يدرس ذلك. وللتخفيف من هذه المخاطر، يوصي الخبراء المستخدمين بتوخي الحذر عند مشاركة الصور الشخصية مع تطبيقات الذكاء الاصطناعي.

متعلقات