Menu
Al-adala
Al-adala

بسم الله الرحمن الرحيم
وَلاَ يَجْرِمَنَّكُمْ شَنَآنُ قَوْمٍ عَلَى أَلاَّ تَعْدِلُواْ اعْدِلُواْ هُوَ أَقْرَبُ لِلتَّقْوَى
صدق الله العلي العظيم

خاصية فيسبوك تنتقي الأخبار “أقل من المستخدمين”

خاصية فيسبوك تنتقي الأخبار “أقل من المستخدمين”
طب وعلوم - 23:17 - 10/05/2015 - عدد القراء : 1164

أجرى باحثون في شركة فيسبوك، التي تشرف على الموقع الاجتماعي الشهير، دراسة جديدة لمعرفة إذا كانت خاصية “نشر الأخبار” على الموقع ينقي المحتوى الذي قد لا يوافق عليه المستخدمون.وتوصلت الدراسة إلى أن الخوارزميات الخاصة بفيسبوك قد تستبعد بالفعل بعض المواد غير المرغوب فيها، لكن تأثيرها أقل من قرارتنا باختيار الروابط (أم لا).ولكن أهم عامل لتنقية المحتوى على أساس أيديولوجي مصدره اختيار الأصدقاء على فيسبوك.ورحب خبراء آخرون بالدراسة، لكنهم طالبوا بإجراء المزيد من الأبحاث على نطاق أوسع.وقد شجع على إجراء هذه الدراسة الجديدة، التي نشرت في دورية “ساينس” العلمية، النقاش بشأن فكرة أن نشر الأخبار عبر شبكات التواصل الاجتماعي يمكن أن يعزلنا عن الآراء المختلفة.ويرى منتقدون أن هذا التأثير، خاصة إذا عززته بقوة “الخوارزميات الاجتماعية” التي تختار لنا المحتوى المفضل، يضر بالديمقراطية والنقاش العام.وقال سولومون ميسنغ خبير البيانات في فيسبوك والذي شارك في إعداد الدراسة: “يتزايد لجوء الناس إلى شبكاتهم الاجتماعية للحصول على الأخبار والمعلومات.”وأضاف: “أردنا تحديد مدى يتبادل الناس محتوى الأخبار المتنوع من الناحية الأيديولوجية، وإلى أي مدى يتعرض الناس بالفعل لهذا المحتوى ويقرأونه على مواقع التواصل الاجتماعي”.
اختيارات
ودرس ميسنغ وزملاؤه نشاط 10.1 مليون مستخدم لفيسبوك في الولايات المتحدة، وهؤلاء ينتمون لـ9 في المئة من البالغين على الموقع الذين أعلنوا عن انتماءاتهم السياسية كجزء من معلوماتهم الشخصية، وصنفوا هؤلاء “ليبراليين” أو “محافظين” على سبيل المثال.وتوصل الباحثون إلى أنه جرى تبادل 226 ألف قصة إخبارية من جانب أكثر من 20 من هؤلاء المستخدمين، ومنحوا تصنيفا بالنقاط لكل واحدة من هذه القصص “بحسب الميل السياسي” استنادا إلى الأيديولوجية المعلنة للأشخاص الذين تبادلوها على فيسبوك.وبدأوا بعد ذلك تقييم إلى مدى يتوافر لكل مستخدم المحتوى “التي تتلاقى فيه الاتجاهات” من المجال السياسي المقابل.وأوضحت الدراسة أنه في حال دخول الأشخاص إلى التعليقات العشوائية من يمين صفحة فيسبوك مباشرة فإن 40 إلى 45 في المئة من المحتوى الذي شاهدوه يكون ضمن هذه الفئة، لكن هذه ليست بالطبع الطريقة التي تعمل بها خاصية تغذية الأخبار لفيسبوك لأننا نرى فقط التعليقات التي يساهم بها أصدقاؤنا.وبناء على التعليقات التي نشرها أصدقاؤهم على الموقع، فإن المستخدمين الذين شاركوا في هذه الدراسة تمكنوا فقط من رؤية محتوى إخباري يضم مادة تتلاقى فيها الآراء السياسية بواقع 29.5 في المئة.وتمثل هذه نسبة متواضعة جدا، وهو ما يعزى بشكل كبير إلى رغبتنا في “تكوين صداقات” مع أشخاص لديهم نفس اهتماماتنا، وذكرت الدراسة أنه في المتوسط فإن نحو 80 في المئة من أصدقاء مستخدم فيسبوك يكون لديهم نفس الآراء السياسية في حال الإعلان عن نهجهم السياسي المفضل.وبعد أن نختار أصدقاءنا، تنقح فيسبوك ما نراه في تغذية الأخبار باستخدام خوارزميات اجتماعية معقدة وسرية ومثيرة للجدل، ووفقا للدراسة، فإن هذه العملية تقلل بصورة إضافية من نسبة المواد التي تتلاقى فيها الآراء إلى 28.9 في المئة فقط.بعد ذلك وحتى في إطار ما عرضته التغذية الإخبارية من فيسبوك للمستخدمين، فإن الروابط المتاحة من وجهات النظر المتعارضة حصلت على اختيارات أقل لنقرها، وكان فقط 24.9 في المئة من المحتوى الذي نقره المستخدمون أو اختاره تقاطعت فيه الآراء السياسية.الكثير من الناس وخاصة الشباب يحصلون على الكثير من الأخبار عبر وسائل التواصل الاجتماعي وتفاوتت هذه النسب بين مستخدمي فيسبوك الذين أعلنوا عن ميولهم السياسية سواء “محافظين” أو “ليبراليين”، لكن المبرر الذي ساقه باحثو فيسبوك كان واضحا: “إذا كان الشخص يرى أن متوسط الليبراليين أكثر من المحافظين، من الممكن بسهولة معرفة أن المقالات التي تختارها تكون أكثر أهمية من خوارزميات التغذية الإخبارية”، حسبما أفاد ميسنغ لبي بي سي.
يقظة مطلوبة
وفي تعليق نشر في دورية “ساينس” أيضا، اعتبر ديفيد ليزر من جامعة نورث ايسترن في بوسطن إن هناك مقارنة غير ملائمة في هذه الدراسة.وقال: “من غير الممكن أن تحدد بشكل حاسم إذا كانت فيسبوك تشجع أو تعيق النقاش السياسي على مستوى الانقسامات الحزبية فيما يخص عالم ما قبل فيسبوك لأننا تقريبا ليس لدينا نفس كمية ونوعية البيانات الخاصة بعالم ما قبل فيسبوك”.وأوضح أن موضوع البحث هو موضوع حساس، ومن الضروري توخي “استمرار اليقظة”.وأضاف: “تستحق فيسبوك إشادة كبيرة…لإجرائها هذا البحث بشكل معلن، لكن هناك حاجة كبيرة كي يدرس العلماء هذه الأنظمة بطريقة مستقلة عن مواقع فيسبوك حول العالم”.وأعرب البروفيسور ميسون بورت، الباحث في جامعة أوكسفورد البريطانية، الذي درس أيضا مواقع التواصل الاجتماعي عن الرأي نفسه. وقال لبي بي سي: “هذا شيء بالفعل مهم لمحاولة معرفته”، مضيفا أن الخطوة التالية ستكون مقارنة النتائج مع ما يحدث في البيئات الأخرى عبر الانترنت.وتساءل: “إلى أي مدى سيكون هذا حقيقيا في مواقع التواصل الاجتماعي الأخرى؟ الشيء الأساسي للدراسات من هذا القبيل هو أنك تريد أن تكررها بوسائل مختلفة.أعتقد أنها ستكون مصدر إلهام لإجراء المزيد من الدراسات الكثيرة، وهو بالفعل أحد أفضل الأشياء التي يمكنها أن تقدمها ورقة بحث علمية”.وقال باتريك ولف، أستاذ الإحصائيات وعلوم الكمبيوتر في جامعة لندن كوليدج، إن الدراسة مثيرة للاهتمام بالرغم من وجود قدر من محدودية البيانات.وأضاف في تصريح لبي بي سي: “أعتقد أن هذه المزاعم محتملة بشكل معقول، لا أعتقد أن النتيجة مثيرة للدهشة بهذا القدر”.وأوضح أن التفضيلات الخاصة بطريقة اختيار الموضوعات ربما تعني أن النتائج لا تعكس القطاع الأوسع من المستخدمين.وبصورة محددة فإن الباحثين أجروا الدراسة على عشرة ملايين مستخدم، واستبعدوا في الأساس 30 في المئة من مستخدمي فيسبوك في الولايات المتحدة الذين يزورون الموقع أقل من أربعة أيام أسبوعيا، بالإضافة إلى 91 في المئة من المستخدمين البالغين الذين لم يعلنوا عن انتماءاتهم السياسية.
شارك القصة حول المشاركة

blog comments powered by Disqus

مقالات مشابهة

العدالة PDF

Capture

ملحق العدالة

mulhaq-preview

استبيان

الطقس في بغداد

بغداد
28°
37°
Sat
34°
Sun
الافتتاحية