
رام الله-نساء FM- في الدورة الأخيرة من مهرجان زيورخ السينمائي، سلّطت الأضواء على ممثلة صاعدة تُدعى تيلي نوروود. كانت تبتسم، وترتدي أزياء أنيقة، وتلتقط صوراً براقة لمتابعيها على "إنستغرام". لكن تفصيلاً واحداً غاب عن كثيرين في البداية: تيلي نوروود ليست إنسانة، بل أول ممثلة افتراضية بالكامل أنشأتها خوارزميات الذكاء الاصطناعي. ابتكرتها الممثلة الهولندية إيلين فان دير فِلدن لتكون "سكارليت جوهانسون القادمة" – كما وصفتها – وأولى نجمات سلسلة ممثلات افتراضيات سيغزون الشاشات والإعلانات والمنصات الرقمية قريباً.
تيلي ليست حالة استثنائية، بل جزء من موجة متسارعة من "منتجات" الذكاء الاصطناعي المتجسّدة في هيئة نساء. ففي ألبانيا مثلاً، عُيّنت دييلا وزيرةً للمشتريات العامة بوصفها أول مسؤولة حكومية مولَّدة بالكامل بالذكاء الاصطناعي، بينما استعانت علامة Guess بعارضة شقراء افتراضية لحملتها الإعلانية في مجلة فوغ.
من السهل النظر إلى هذه الظواهر بوصفها "قفزة تكنولوجية"، لكن من الصعب تجاهل أن جميعها وجوه أنثوية. فالآلة حين تتجسّد في هيئة بشرية، تكاد تكون دائماً امرأة، كما لاحظت صحيفة تريبون دي جينيف السويسرية في تقرير مطوّل نشرته مطلع الشهر الحالي.
أنوثة مبرمجة
يقول عالم الاجتماع أوليفييه غلاسي من جامعة لوزان للصحيفة السويسرية إن "الخيال العلمي، منذ بداياته، صاغ التكنولوجيا في هيئة نساء". في أفلام مثل ميتروبوليس وهير وإكس ماشينا، لطالما كانت المرأة صورة رمزية للآلة، تجمع بين الجاذبية والتهديد، بين الخدمة والسيطرة. ويضيف غلاسي أن "الذكاء الاصطناعي اليوم لا يختلف كثيراً؛ إنه يستعيد الأنثى واجهةً تكنولوجيةً مريحة، يسهل التعامل معها، قابلة للبرمجة والتشكيل".
لم يتوقف الأمر عند السينما، بل تجذّر في تفاصيل الحياة اليومية. فالمساعدات الصوتية مثل سيري وأليكسا جاءت بأسماء نسائية وأصوات ناعمة لتبدو أكثر لطفاً وأقل تهديداً للمستخدم.
لكن كما تقول الباحثة سيلفي بورو في دراسة منشورة في Journal of Business Ethics: "تأنيث الذكاء الاصطناعي ليس بريئاً. إنه يهدف إلى جعل الآلة تبدو أكثر إنسانية، لكنه يعتمد على قوالب جاهزة ترى النساء أكثر دفئاً وخضوعاً، وكأن التعاطف صفة برمجية أنثوية".
المساعدات الرقمية... امتداد لتاريخ الطاعة
تُظهر الأبحاث، وفق ما نقلت London School of Economics، أن نحو 10 % من المحادثات مع المساعدات الصوتية تتضمن إساءات لفظية. ملايين المستخدمين يتحدثون إلى أصوات نسائية وكأنها خدم رقمية. والأخطر، كما تقول الباحثة كايلي غيبسون، أن هذا التطبيع يحدث أمام الأطفال، فيتعلّمون من الإنترنت كيف يُخاطَب "الذكاء الأنثوي" بصوت آمِر وساخر في آن واحد.
منذ البداية، صُمّمت هذه النظم في بيئات عمل يهيمن عليها الرجال. وتضيف غيبسون أن "غالبية المهندسين والمبرمجين من الذكور البيض، وهو ما يجعل التكنولوجيا امتداداً للتحيّز الاجتماعي لا تصحيحاً له".
حتى محركات البحث تمارس نوعاً من الرقابة الذكورية: فهي تميل إلى حجب صور النساء وتصنيفها بأنها "فاضحة" حتى في سياقات علمية، ما يعيق الوصول إلى معلومات صحية وطبية تخص النساء.
من المساعدات إلى الدمى
في كتابها الجديد العصر الجديد للتمييز الجنسي: كيف تعيد تقنيات الذكاء الاصطناعي اختراع كراهية النساء، تذهب الكاتبة البريطانية لورا بيتس أبعد من التحليل الثقافي. تقول في حديثها إلى موقع وايرد:
"عندما نحصل على تقنيات جديدة، هناك دائماً فئة تستخدمها بسرعة لإخضاع النساء والتحكم فيهن. التكنولوجيا ليست خيّرة أو شريرة في ذاتها، لكنها تحمل تحيّز صانعيها".
تحذّر بيتس من أن الذكاء الاصطناعي التوليدي يفتح الباب واسعاً أمام العنف الرقمي. فبفضل أدوات التزييف العميق (DeepFake)، يستطيع أي شخص إنتاج صور إباحية واقعية لأي فتاة أو امرأة، فقط من صورة عادية منشورة على الإنترنت.
وقد ظهرت بالفعل حالات في مدارس بريطانية وأسترالية حيث استخدم أطفال في سن العاشرة هذه الأدوات لتزوير صور لزميلاتهم. بيتس نفسها كانت ضحية لهذه التقنية، إذ استُخدمت صورها في محتوى إباحي مزيف، ما جعلها ترى الذكاء الاصطناعي "ليس ثورة معرفية فحسب، بل ثورة في أدوات السيطرة".
رومانسية افتراضية
الأخطر، كما تشير بيتس، هو الانتشار الصامت لتطبيقات تتيح للمراهقين والرجال تصميم صديقات افتراضيات و"روبوتات جنسية" بالذكاء الاصطناعي، يمكن تخصيص كل تفاصيلها: من لون العينين إلى الشخصية، والاسم، ودرجة الطاعة.
"إنها متاحة دائماً، لا ترفض، لا تحتاج إلى موافقة، ولا تتحدث عن نفسها"، تقول بيتس. "هي نموذج لعلاقة مثالية بالنسبة للمجتمع الأبوي: خضوع دائم وامتثال بلا جدال".
وترى أن الشركات التي تروّج هذه التطبيقات باعتبارها علاجاً للعزلة أو وسيلة لتخفيف العنف "تمارس تبييضاً تسويقياً لكراهية النساء".
المساعدات الافتراضية وتطبيع العنف اللفظي
تُظهر الدراسات أن نحو 10 % من المحادثات مع المساعدات الصوتية مثل "سيري" و"أليكسا" تتضمن إساءات لفظية. قد تبدو النسبة صغيرة، لكنها هائلة حين نتذكر أن مليارات المستخدمين حول العالم يتعاملون مع هذه الأنظمة يومياً.
وتشير بيتس إلى أن "الأطفال الذين ينشؤون في منازل يسمعون فيها هذه الأصوات الأنثوية تُهان بانتظام، يكتسبون لاشعورياً تصوراً بأن مخاطبة النساء بهذا الشكل أمر طبيعي".
بهذا، تُسهم هذه المساعدات في إعادة إنتاج علاقات السلطة ذاتها التي حاولت النسوية تفكيكها لعقود — لكنها تفعل ذلك بعبارات مهذبة وصوت رقمي لطيف.
تكنولوجيا
دراسة: الذكاء الاصطناعي يهدّد بتوسيع فجوة الأجور بين الجنسين
ما بين الاستغلال الرقمي والبيئي
ترى بيتس أن الذكاء الاصطناعي لا يهدد النساء فقط على المستويين الثقافي والاجتماعي، بل البيئي أيضاً. "بحث واحد على ChatGPT يستهلك عشرة أضعاف طاقة بحث على غوغل. من يدفع ثمن ذلك؟ النساء في الجنوب العالمي، اللواتي يقفن في الخطوط الأمامية لأزمات المناخ".
وتشير إلى أن آلاف النساء يعملن في وسم البيانات اليدوي لتدريب الأنظمة الذكية، في ظروف استغلالية وبأجور زهيدة.
من المناجم التي تُستخرج منها المعادن لصنع المعالجات، إلى المكاتب الرقمية التي تُبرمج فيها الخوارزميات، تتكرر الحكاية نفسها: عمل نسائي منخفض الأجر يخدم صناعة يهيمن عليها الرجال.
تأنيث الذكاء الاصطناعي
ما يبدو لأول وهلة تقدماً في "إدماج المرأة" في التقنية، هو في الواقع استمرار لنمط قديم: المرأة بوصفها واجهةً تُزيّن النظام، لا صانعةً له.
فالروبوتات والمساعدات والواجهات الافتراضية تتقمص المظهر الأنثوي لتجعل الخوارزميات أكثر قبولاً، ولتغطي على حقيقة أن السلطة في هذه الصناعة ذكورية بالكامل تقريباً.
تقول الباحثة دانييلا سيركي من جامعة لوزان: "الروبوتات البشرية التي طورتها الصين منذ 2017، والتي يُفترض أن تساعد البشر، جميعها تقريباً إناث. هذا ليس مصادفة، بل انعكاس لرغبة في جعل التقنية مطيعة، مألوفة، جميلة المظهر".
ويصف عالم الاجتماع أوليفييه غلاسي هذه الظاهرة بأنها "جسد يمكن تشكيله كما نشاء، يذكّرنا بأن السيطرة على الجسد الأنثوي ما زالت مركزية في الثقافة المعاصرة".
