फ़ेसबुक क्या जानबूझकर नफ़रत वाली सामग्री को बढ़ावा देता रहा है? ताज़ा रिपोर्ट में कुछ ऐसे ही संकेत मिलते हैं। एक रिपोर्ट के अनुसार आपत्तिजनक सामग्री के पैमाने पर बॉर्डर लाइन की मानी जानी वाली 40 फ़ीसदी सामग्री को फ़ेसबुक ने नज़रअंदाज़ कर दिया, जबकि वे अश्लीलता, हिंसा और नफ़रत फैलाने वाली थीं। फ़ेसबुक के ही आंतरिक दस्तावेज़ों में कहा गया है कि ऐसी सामग्री 'प्रोब्लेमैटिक' यानी समस्या वाली थीं। इसमें भी ख़ास बात यह है कि ऐसी सामग्री फ़ेसबुक के दिशा-निर्देशों को पूरी तरह से उल्लंघन करने वाली सामग्री से 10 गुना ज़्यादा देखी गई। तो सवाल है कि क्या ज़्यादा व्यूअरशिप और ज़्यादा इंगेजमेंट मिलने की वजह से फे़सबुक ने ऐसी बॉर्डर लाइन की सामग्री को बढ़ने दिया या बढ़ावा दिया?
पिछले कुछ महीनों से फ़ेसबुक के बारे में जो रिपोर्टें आ रही हैं वे नफ़रत वाली सामग्री को लेकर कंपनी को कटघरे में खड़ा करती हैं। ये रिपोर्टें फ़ेसबुक के ही आंतरिक दस्तावेजों से सामने आई हैं। ह्विसल ब्लोअर बन चुके फ़ेसबुक के ही पूर्व कर्मचारियों ने कई ऐसी रिपोर्टों को जारी किया है।
हाल ही में एक रिपोर्ट में कहा गया था कि जब फ़ेसबुक पर ऐसी नफ़रत वाली सामग्री बढ़ रही थी तो वह ऐसी सामग्री को रोकने के लिए होने वाले ख़र्च में कटौती कर रहा था। हालाँकि, इसकी प्रतिक्रिया में फ़ेसबुक ने यह ज़रूर कहा कि उसने नफ़रत वाली पोस्टों की समीक्षा करने के घंटे बढ़ाए हैं और इसके लिए इसने तकनीक विकसित की है।
शुरुआत में कंपनी पर आरोप लगे थे कि फ़ेसबुक नफ़रत फैलाने वाली सामग्री रोकने में विफल रहा है। बाद में इसपर, ख़ासकर, मुसलिम विरोधी नफ़रत वाली पोस्टों पर कार्रवाई करने में पक्षपात का आरोप लगता रहा है। ऐसी रिपोर्टें आती रही हैं कि भारत में 2019 से ही ऐसी नफ़रत वाली पोस्टों की बाढ़ आ गई थी। फ़ेसबुक पर चुनिंदा तरीक़े से कार्रवाई करने का आरोप भी लगता रहा है।
हाल ही में एक रिपोर्ट तो यह भी आई थी कि फ़ेसबुक का एल्गोरिदम यानी अंदरूनी सिस्टम उन सामग्री को आगे बढ़ाता है जो नफ़रत फैलाने वाली हैं। यानी आप क्या देखना चाहते हैं या नहीं, इससे फर्क नहीं पड़ता है और फ़ेसबुक का आंतरिक सिस्टम आपको नफ़रत व भड़काऊ सामग्री परोसना शुरू कर देता है।
एल्गोरिदम ही तय करता है कि फ़ेसबुक जैसा सोशल मीडिया या कोई भी सर्च इंजन किस तरह की सामग्री को आगे बढ़ाता है यानी प्रमोट करता है।
मिसाल के तौर पर यदि आपने अकाउंट में लॉग इन किया तो फ़ेसबुक आपको किस तरह के पेज या कंटेंट को आपके सामने सुझाव के रूप में परोसता है और आपको सुझाव देता है कि किसको फॉलो करें और क्या सामग्री देखें। हालाँकि, फ़ेसबुक इन रिपोर्टों को खारिज करता रहा है, लेकिन ह्विसल ब्लोअर लगातार ऐसी रिपोर्टें जारी करते रहे हैं।
अब ताज़ा रिपोर्ट भी एक ह्विसल ब्लोअर द्वारा जारी की गई है। यह रिपोर्ट एक अमेरिकी आयोग एसईसी को बताए गए दस्तावेजों का हिस्सा है और पूर्व फेसबुक कर्मचारी और ह्विसल ब्लोअर फ्रांसेस हॉगेन के कानूनी सलाहकार द्वारा संशोधित रूप में कांग्रेस को दिए गए हैं। कांग्रेस द्वारा प्राप्त संशोधित संस्करणों की समीक्षा 'द इंडियन एक्सप्रेस' सहित वैश्विक समाचार संगठनों के एक कंसोर्टियम द्वारा की गई है।
ताज़ा रिपोर्ट फ़ेसबुक के 15 अप्रैल, 2019 के आंतरिक दस्तावेज में बॉर्डर लाइन की सामग्री को लेकर है जिसमें कहा गया है कि 40 फ़ीसदी ऐसी सामग्री को नज़रअंदाज़ किया गया। 'द इंडियन एक्सप्रेस' की रिपोर्ट के अनुसार, फेसबुक 'बॉर्डर लाइन कंटेंट' को परिभाषित करता है- जो सामग्री सामुदायिक मानकों का उल्लंघन नहीं करती है, लेकिन इसकी पहचान समस्याग्रस्त सामग्री के रूप में की जा सकती है।
रिपोर्ट के अनुसार, अप्रैल 2019 की रिपोर्ट में यह भी बताया गया है कि हल्की-फुल्की सामग्री की तुलना में 'बॉर्डर लाइन' वाली सामग्री अधिक यूज़रों तक पहुंचती है।
जहाँ फे़सबुक के आंतरिक दस्तावेज़ बॉर्डर लाइन वाली सामग्री के काफ़ी तेज़ी से फैलने या ज़्यादा यूज़रों तक पहुँचने की बात कहते हैं वहीं, फ़ेसबुक के प्रवक्ता इसके उलट दावे करते हैं। ‘द इंडियन एक्सप्रेस’ की रिपोर्ट के अनुसार, अब फेसबुक इंक से बने मेटा इंक के प्रवक्ता ने कहा, 'हम बॉर्डर लाइन वाली सामग्री का पता लगाने के लिए एआई (आर्टिफिशियल इंटेलिजेंस यानी मशीन) सिस्टम को प्रशिक्षित करते हैं ताकि हम उस सामग्री के फैलने की रफ़्तार कम कर सकें। चुनाव से पहले या चुनाव के दौरान समस्याग्रस्त सामग्री के वायरल होने और संभावित रूप से हिंसा भड़काने के जोखिम को कम करने के लिए, हम उस सामग्री को फैलने से बेहद कम कर देंगे। इसकी शिकायत से पहले ही पहचान करने वाली हमारी तकनीक संभावित नफ़रत या हिंसा और उकसावे को भांप लेती है। ऐसी सामग्री यदि हमारी पॉलिसी का उल्लंघन करती है तो इसको हटा लिया जाता है, और इसका निर्धारण होने से पहले भी ऐसी सामग्री के फैलने की रफ़्तार बेहद धीमी हो जाती है।’
फ़ेसबुक ने भले ही यह दावा किया हो, लेकिन इसके बारे में पहले ही ऐसी रिपोर्ट आई थी कि इसका अंदरुनी सिस्टम नफ़रत वाली पोस्टों को बढ़ावा देता है। उस रिपोर्ट में फे़सबुक के ही एक शोध का हवाला दिया गया था। वह शोध फ़ेसबुक पर नये एकाउंट बनाकर किया गया था।
अपनी राय बतायें