
رام الله-نساء FM-اية عبد الرحمن - اجتاح منصات التواصل الاجتماعي في الأيام الأخيرة ترند جديد يعتمد على أدوات الذكاء الاصطناعي التي تقوم بتحويل صور المستخدمين إلى رسومات كاريكاتيرية، مع التنبؤ بمهنهم أو مستقبلهم المهني استنادًا إلى ملامح الوجه وتفاصيل الصورة.
وبالرغم من أن الفكرة تبدو للوهلة الأولى مسلية وخفيفة الظل، وتغري المستخدمين بمشاركتها على نطاق واسع، إلا أنها تثير تساؤلات عميقة تتعلق بالخصوصية، والتحيز الخوارزمي، واستغلال البيانات الشخصية، وإعادة إنتاج الصور النمطية التي تربط بين الشكل الخارجي والقدرات أو المسارات المهنية.
الترند يقوم على رفع صورة شخصية إلى أحد التطبيقات، ليقوم النام بتحليل الملامح وإنتاج صورة كاريكاتيرية مرفقة بتوقع حول المهنة الأنسب لصاحب الصورة.
غير أن هذا “التوقع” لا يتم في فراغ، بل يعتمد على خوارزميات دُرّبت على كمّ هائل من البيانات السابقة، ما يفتح الباب أمام احتمالية تكريس أنماط اجتماعية جاهزة، كربط ملامح معينة بوظائف محددة، أو تكريس قوالب مرتبطة بالجنس أو اللون أو الخلفية الاجتماعية. وهنا يبرز السؤال: هل نحن أمام أداة ترفيهية عابرة، أم أمام نموذج جديد من التنميط الرقمي ذي آثار اجتماعية وأخلاقية بعيدة المدى؟
في هذا السياق، حذّر مستشار أمن المعلومات سامي الشيخ، خلال حديثه لإذاعة “نساء إف إم”، من التعامل مع هذا النوع من التطبيقات بخفة، مشددًا على أن الخطورة لا تكمن في الصورة بحد ذاتها فقط، بل في حجم المعلومات المصاحبة لها والتي يمكن أن تُستنتج منها أو تُربط بها. وأوضح أن المستخدمين غالبًا ما يمنحون هذه التطبيقات بيانات إضافية بشكل مباشر أو غير مباشر، سواء عبر الصور السابقة، أو من خلال المعلومات المتاحة على حساباتهم، ما يسمح للأنظمة ببناء ملف رقمي واسع عن الشخص.
وأشار الشيخ إلى أن كثيرين لا يدركون أن الصور التي يتم رفعها قد تُخزّن على خوادم خارجية، وقد تُستخدم في تدريب نماذج ذكاء اصطناعي أخرى. وفي حال حدوث اختراق أمني أو تسريب بيانات، فإن هذه الصور والمعلومات قد تصبح متاحة للعلن. واستشهد بحوادث سابقة تسربت فيها معلومات حساسة بسبب سوء استخدام أدوات الذكاء الاصطناعي، مؤكدًا أن الأداة التي يفترض أن تساعدنا قد تتحول إلى مصدر خطر إذا أسيء استخدامها.
ومن أبرز المخاطر التي لفت إليها، إمكانية استغلال الصور المرفوعة في عمليات احتيال أو انتحال شخصية أو هجمات هندسة اجتماعية، فضلًا عن استخدامها في تقنيات التزييف العميق. وأوضح أن صورًا عادية منشورة على الإنترنت يمكن التلاعب بها لإظهار أشخاص في مواقف لم تحدث أصلًا، ما قد يؤدي إلى ابتزاز أو تشويه سمعة أو نزاعات أسرية واجتماعية. وبيّن أن التعامل مع مثل هذه الحالات بات واقعًا ملموسًا، حيث يتم تركيب صور أو مقاطع مزيفة لأشخاص وإرسالها لأسرهم أو شركائهم بقصد التهديد أو الابتزاز.
وأكد الشيخ أن المجتمعات ليست جاهزة بالكامل بعد للتعامل الواعي مع هذه التكنولوجيا، وأن جزءًا من المشكلة يكمن في الاستخدام غير المسؤول. ورغم صعوبة مطالبة الناس بعدم نشر صورهم نهائيًا، شدد على ضرورة تبني مبدأ “الشك الإيجابي”، أي عدم تصديق أي صورة أو مقطع بشكل فوري، خاصة إذا كان يحمل طابعًا صادمًا أو مسيئًا، وإدراك أن التلاعب الرقمي أصبح سهلًا ومتاحًا.
وعن الإطار القانوني، أوضح أن معظم هذه التطبيقات متاحة بشكل عام، ولا توجد قوانين محددة تمنع أداة بعينها، لكن يمكن ملاحقة الجرائم الناتجة عنها وفق قوانين انتحال الشخصية، والتشهير، والابتزاز، والإساءة الإلكترونية. كما أشار إلى أن معايير أمان الذكاء الاصطناعي لا تزال في طور التطوير، وغالبًا ما تُطبق على مستوى المؤسسات الكبرى، لا على استخدامات الأفراد اليومية.
وفي معرض حديثه عن الاستخدام المهني للذكاء الاصطناعي، نبّه الشيخ إلى خطورة مشاركة معلومات حساسة مع هذه الأدوات، مثل تفاصيل عقود قانونية، أو بيانات عملاء، أو شيفرات برمجية كاملة، مؤكدًا أن الاستفادة من الذكاء الاصطناعي ممكنة، لكن بشروط، أهمها إخفاء الهوية والبيانات الحساسة. فبدل إدخال معلومات حقيقية، يمكن استخدام أمثلة افتراضية أو بيانات عامة للحصول على صيغة أو فكرة، ثم استكمال التفاصيل بشكل منفصل وآمن.
ووجّه الشيخ رسالة مباشرة للمستخدمين قائلًا إن الذكاء الاصطناعي “ليس صديقًا ولا فردًا من العائلة”، بل أداة يجب التعامل معها بوعي وحذر. ودعا إلى التفكير قبل المشاركة في أي ترند: هل المعلومات التي ننشرها نملك حق نشرها كاملًا؟ ما العواقب القانونية أو المهنية إذا انتشرت؟ وهل هناك بديل أكثر أمانًا؟ وشبّه الأمر بشخص يطالع شاشة هاتفك أثناء كتابتك رسالة خاصة؛ الشعور بعدم الارتياح ذاته يجب أن يرافقنا عند مشاركة معلوماتنا مع أنظمة لا نعرف تمامًا كيف تخزن بياناتنا أو تستخدمها.
وبين متعة التجربة وسرعة الانتشار، يكشف هذا الترند جانبًا أعمق يتعلق بعلاقتنا المتسارعة مع التكنولوجيا. فخلف الصور الكاريكاتيرية الطريفة والتوقعات المهنية الجذابة، تقف أسئلة جوهرية حول الخصوصية، والعدالة الخوارزمية، وحدود استخدام الذكاء الاصطناعي في تصنيف البشر. ومع اتساع حضور هذه الأدوات في حياتنا اليومية، يبدو أن التحدي الحقيقي لم يعد في مواكبة الترند، بل في امتلاك الوعي الكافي لاستخدامه دون أن نتحول نحن إلى مادة خام في معادلاته الرقمية.
