هل سنقول وداعاً للتنمّر والتحرّش الجنسي مع هذه التكنولوجيا؟

جاد محيدلي | 15 شباط 2019 | 17:00

مع كل الإيجابيات التي رافقت عالم الإنترنت ومواقع التواصل الاجتماعي، بالتأكيد ظهر العديد من السلبيات والمشاكل التي أدّت إلى حدوث مصائب قد تصل إلى الانتحار. نحن هنا نتكلم عن التنمّر، أي العنف اللفظي، بالإضافة إلى التحرش الجنسي اللذين احتلا عناوين الصحف والإعلام في السنوات الماضية بعد انتشار حالات انتحار حصلت بسبب التنمّر والإهانات، والتهديد والكلام الجنسي. يعتبر عالم الإنترنت أرضاً خصبة لهذه المشاكل لأن الجلّاد أو المجرم لا يمكن كشف هويته وشكله، وبالتالي يستطيع إلحاق الأذى من منزله وخلف الشاشة دون أن يدرك أحد من هو. لكن كل هذه المشاكل يمكن أن تحلّ بفضل تكنولوجيا جديدة، ما هي؟ في الحقيقة، الأجهزة الإلكترونية التي تزيد من احتمالات تعرضنا للتنمّر، قد نطوّعها لمساعدتنا في القضاء عليه، إذ يُستعان الآن بالذكاء الاصطناعي لرصد عبارات الإيذاء والمضايقات والتعامل معها.

وبحسب BBC، يقول جيلز جاكوبس، باحث لغوي بجامعة غِنت في بلجيكا: "لا يمكن لإنسان أن يطالع جميع المنشورات والتعليقات يدوياً على مواقع التواصل الاجتماعي للتأكد من عدم وجود مضايقات، ولهذا قد يكون الذكاء الاصطناعي هو الحل للكشف عن حالات التنمر والتصيّد عبر الإنترنت والاستجابة لها". وقد طوّر فريقه خوارزميات لرصد الكلمات والعبارات المرتبطة عادة بالتنمر في موقع "آسك إف إم" للتواصل الاجتماعي، والذي يتيح لمستخدميه طرح أسئلة والإجابة عنها. ونجحت الخوارزميات في حجب نحو ثلث الإهانات بعد تحليل 114 ألف رسالة باللغة الإنجليزية. وإن كانت عجزت عن فهم التعليقات الساخرة. ومن المعروف أنه ليس من السهل الكشف عن التعليقات الجارحة، إذ يستخدم الناس أحياناً الشتائم والألفاظ البذيئة دون أن يقصدوا توجيه الإهانات، كما أن بعض أكثر التعليقات إيلاماً لا تتضمّن ألفاظاً نابية. وطوّر باحثون بجامعة ماكغيل في مونتريال بكندا خوارزميات لرصد خطاب الكراهية بإدخال الكلمات المعينة التي يستخدمها المتنمّرون لاستهداف النساء وذوي البشرة السوداء وأصحاب الوزن الزائد، في شبكات التواصل الاجتماعي.

ويقول حجي سليم، قائد الفريق البحثي: "اكتُشف أننا نحتاج إلى فرز العبارات المهينة بحسب فئات الضحايا الموجهة لها". والمدهش أن الأداة التي طورها الباحثون استطاعت أن ترصد حتى الإهانات المبطنة، مثل كلمة "حيوانات". وقد خلص استطلاع للرأي في عام 2017 إلى أن 42 في المئة من مستخدمي موقع "إنستغرام" من المراهقين، تعرّضوا للتنمر، وهو أعلى معدل سجّلته الدراسة بين مواقع التواصل الاجتماعي، ومنهم من دفعهم الحزن والضيق إلى الانتحار. ويستعين الآن إنستغرام بتقنيات التعرّف على النصوص والصور تدار بالذكاء الاصطناعي للكشف عن التنمر في الصور ومقاطع الفيديو والتعليقات. وهذه التقنيات يمكنها رصد الانتقادات الموجهة لمظهر المستخدم أو شخصيته، وكذلك التهديدات ضد أفراد بعينهم داخل الصور وبين ثنايا التعليقات.

ويمتد التنمر أيضاً إلى أماكن العمل بالإضافة الى التحرش الجنسي، لكن قد يكون الحل في "سبوت"، روبوت الدردشة الذكي الذي يساعد الضحايا على الإبلاغ عن وقائع التحرش في أماكن العمل بدقة وأمان. ويُعِدّ الروبوت تقريراً مؤرخاً ليحتفظ به المستخدم لنفسه أو ليقدمه لأصحاب العمل، دون أن يذكر اسمه. وتقول جوليا شو، أخصائية نفسية بكلية لندن الجامعية وساهمت في تطوير "سبوت"، إن الفكرة تقوم على تحويل الذاكرة إلى دليل إدانة. وطُورت أداة ذكاء اصطناعي أخرى تحت اسم "بوتلر إيه أي" لتقديم المشورة لضحايا التحرش الجنسي. إذ تستخدم هذه الأداة تقنية معالجة اللغات الطبيعية لتقيّم، بناء على المعلومات التي استمدتها من 300 ألف ملف قضية كندية وأميركية، ما إن كان المتحرش قد ارتكب أعمالاً تقع تحت طائلة القانون، ثم تعدّ تقريراً بالواقعة، قد تقدمه الضحية لإدارة الموارد البشرية أو الشرطة.

بالإضافة إلى ذلك، طوّر علماء من المركز الطبي التابع لجامعة فاندربيلت وجامعة فلوريدا، خوارزميات قادرة على التنبؤ باحتمالات ظهور سلوكيات وأفكار انتحارية بناء على المعلومات التي استمدّتها من السجلات الصحية للمرضى الذين تعمّدوا إيذاء أنفسهم. ونجحت الخوارزميات في تحديد الأشخاص الذين يفكرون في الانتحار في الاسبوع اللاحق لحادثة إيذاء النفس، بدقة بلغت 92 في المئة. فهل ستستطيع التكنولوجيا حلّ كل المشاكل التي سبّبتها بنفسها للبشر؟

إظهار التعليقات

يلفت موقع النهار الإلكتروني إلى أنّه ليس مسؤولًا عن التعليقات التي ترده ويأمل من القرّاء الكرام الحفاظ على احترام الأصول واللياقات في التعبير.