बसवराज बोम्मई
भाजपा - शिगगांव
अभी रुझान नहीं
फ़ेसबुक पर नफ़रत फैलाने के मामले में चौंकाने वाली रिपोर्टें आई हैं। इस पर नफ़रत फैलाने वाली पोस्टों को रोकने में नाकाम रहने और ऐसी पोस्टों पर चुनिंदा तरीक़े से कार्रवाई करने के आरोप तो पहले से ही लगते रहे हैं, लेकिन अब फ़ेसबुक के आंतरिक सिस्टम पर ही गंभीर सवाल उठे हैं। आरोप लगे हैं कि इसके आंतरिक सिस्टम उन पोस्टों को आगे बढ़ाते हैं जो नफ़रत फैलाने वाले हैं। यानी आप क्या देखना चाहते हैं या नहीं, इससे फर्क नहीं पड़ता है और फ़ेसबुक का आंतरिक सिस्टम आपको नफ़रत व भड़काऊ सामग्री परोसना शुरू कर देता है।
आंतरिक सिस्टम का मतलब है फ़ेसबुक का एल्गोरिदम से। आसान शब्दों में कहें तो एल्गोरिदम ही तय करता है कि फ़ेसबुक जैसा सोशल मीडिया या कोई भी सर्च इंजन किस तरह की सामग्री को आगे बढ़ाता है यानी प्रमोट करता है। मिसाल के तौर पर यदि आपने अकाउंट में लॉग इन किया तो फ़ेसबुक आपको किस तरह के पेज या कंटेट को आपके सामने सुझाव के रूप में परोसता है और आपको सुझाव देता है कि किसको फॉलो करें और क्या सामग्री देखें।
फ़ेसबुक के कर्मचारियों ने इस पर शोध किया था। नतीजे आए तो वे चौंक गए। उन्होंने पड़ताल करने के लिए आम यूज़र की तरह एकाउंट बनाये थे। उसमें पाया कि उन यूज़र एकाउंट पर फ़ेसबुक ऐसी सामग्री देखने के लिए या फॉलो करने के लिए सुझाव दे रहा था यानी परोस रहा था जो नफ़रत, हिंसा और झूठी ख़बरों पर आधारित थी। इसमें से बहुत सामग्री पाकिस्तान के ख़िलाफ़ नफ़रत उगलने वाली और मुसलिम विरोधी थी।
एक रिपोर्ट के अनुसार, दो साल पहले केरल में फ़ेसबुक के एक शोधकर्ता ने यूज़र खाता बनाया था। उसको फ़ेसबुक के एल्गोरिदम के आधार पर ऐसी सामग्री सुझाव के रूप में आई जिसमें अभद्र भाषा थी और ग़लत सूचनाएँ थीं। इसी कारण कंपनी ने भारत में अपनी सिफारिश प्रणालियों यानी एल्गोरिदम का गंभीर विश्लेषण किया। 'द इंडियन एक्सप्रेस' की एक रिपोर्ट के अनुसार जवाब में फ़ेसबुक ने ही यह कहा है। रिपोर्ट के अनुसार, फ़ेसबुक के प्रवक्ता ने कहा कि इस पड़ताल पर गहन विश्लेषण किया गया और इससे उन्हें सुधार करने में मदद मिली। इसने यह भी कहा है कि इसने राजनीतिक ग्रुपों को भी एल्गोरिदम के सिस्टम से निकाला है। साफ़ है कि नफ़रती, भड़काऊ और हिंसा वाली सामग्री देने में राजनीतिक ग्रुप भी शामिल थे।
प्रवक्ता ने कहा कि अलग से अभद्र भाषा पर अंकुश लगाने का हमारा काम जारी है और हमने नफ़रत वाली सामग्री को छांटने के अपने सिस्टम को और मज़बूत किया है। उन्होंने कहा है कि इसमें 4 भारतीय भाषाओं को शामिल किया गया है।
फ़ेसबुक की यह प्रतिक्रिया न्यूयॉर्क टाइम्स की एक रिपोर्ट पर आई है। वह रिपोर्ट भारत में सोशल मीडिया प्लेटफार्म के प्रभाव के बारे में थी। न्यूयॉर्क टाइम्स की रिपोर्ट में कहा गया था कि उस शोधकर्ता की रिपोर्ट फ़ेसबुक के कर्मचारियों द्वारा लिखे गए दर्जनों अध्ययनों में से एक थी। 'न्यूयॉर्क टाइम्स सहित कई समाचार संगठनों के एक संघ ने आंतरिक दस्तावेज तैयार किया है जिसे 'द फेसबुक पेपर्स' नाम दिया गया है। उन्हें फ़ेसबुक के पूर्व प्रोडक्ट मैनेजर फ्रांसेस हौगेन द्वारा जुटाया गया था। हौगेन अब खामियों को उजागर करने वाले ह्विसल ब्लोअर बन गए हैं।
फ़रवरी 2019 में फ़ेसबुक कर्मचारियों द्वारा किए गए उस शोध के बारे में एक रिपोर्ट ब्लूमबर्ग में भी छपी है। इसमें कहा गया है कि शोध के नतीजे तीन सप्ताह के भीतर जो मिले वे चौंकाने वाले थे। नए यूज़र के फ़ीड में फ़ेक न्यूज़ और भड़काऊ तसवीरों की बाढ़ आ गई। उनमें सिर काटने की ग्राफिक वाली तसवीरें, पाकिस्तान के ख़िलाफ़ भारत के हवाई हमले और हिंसा व कट्टरता वाली तसवीरें शामिल थीं। "थिंग्स दैट मेक यू लाफ" नाम के ग्रुप में जो फर्जी ख़बरें चल रही थीं उसमें से एक यह भी थी कि पाकिस्तान में एक बम विस्फोट में 300 आतंकवादी मारे गए। रिपोर्ट के अनुसार तब एक कर्मचारी ने लिखा था, 'मैंने पिछले 3 हफ्तों में मृत लोगों की इतनी अधिक तसवीरें देखी हैं, जितनी मैंने अपने पूरे जीवन में भी नहीं देखी हैं।'
रिपोर्ट में कहा गया है कि सोशल मीडिया की इस दिग्गज कंपनी के आंतरिक दस्तावेज़ बताते हैं कि कंपनी वर्षों से इन समस्याओं को जानता है।
बता दें कि फ़ेसबुक पर पहले भी आरोप लगते रहे हैं कि वह नफ़रत फैलाने वाली सामग्री रोकने में विफल रहा है। इसपर ख़ासकर मुसलिम विरोधी नफ़रत वाली पोस्टों पर कार्रवाई करने में पक्षपात का आरोप लगता रहा है।
फ़ेसबुक की पूर्व कर्मचारी रहीं और फ़िलहाल व्हिसल ब्लोअर के तौर पर काम कर रही सोफ़ी झांग ने हाल ही में कहा था कि फ़ेसबुक ने बीजेपी सांसद से जुड़े फ़ेक अकाउंट्स वाले नेटवर्क को नहीं हटाया। जबकि उसने चुनाव को प्रभावित करने वाले कांग्रेस और आम आदमी पार्टी के फ़ेक अकाउंट्स के नेटवर्क के ख़िलाफ़ कार्रवाई की थी। ये नेटवर्क दिल्ली विधानसभा चुनाव 2020 के दौरान फ़ेसबुक के सामने आए थे। उन्होंने कहा कि उन्हें फ़ेक अकाउंट्स वाले इन नेटवर्क के बारे में 2019 के आख़िर में पता चला था। झांग ने तब चार ऐसे नेटवर्क का पता लगाया था, जिसमें फ़ेक अकाउंट थे, जिनका इस्तेमाल फ़ेक शेयर, लाइक्स, कमेंट व रिएक्शन्स के लिए किया जाता था। इनमें से दो नेटवर्क बीजेपी नेताओं से जुड़े हुए थे, जिनमें से एक सांसद था। इसके अलावा दो फ़ेक नेटवर्क एक कांग्रेसी नेता से जुड़े हुए थे।
About Us । Mission Statement । Board of Directors । Editorial Board | Satya Hindi Editorial Standards
Grievance Redressal । Terms of use । Privacy Policy
अपनी राय बतायें