फेसबुक ने इंस्टाग्राम से हिंसक और आपत्तिजनक तस्वीरों को हटाने का ठोस कदम उटाया है। इसी क्रम में इस साल की दूसरी तिमाही में इंस्टाग्राम से हिंसक, नग्नता और यौन गतिविधियों से जुड़ी तस्वीरों को हटाया गया है। इसके लिए फेसबुक लगातार निगरानी रख रही है। साल की पहली तिमाही में यौन संबंधित तस्वीरों और वीडियोज की संख्सा 81 लाख थी जो दूसरी तिमाही तक 1.24 करोड़ पहुंच गई है। वहीं हिंसक सामग्री से जुड़ी तस्वीरों की संख्या पहली तिमाही में 28 लाख थी जो दूसरी तिमाही तक बढक़र 31 लाख पहुंच गई। इस तरह की सभी सामग्री को फेसबुक द्वारा हटा दिया गया है। वहीं इस तरह के कटेंट पर लगातार नजर रखी जा रही है। फेसबुक ने मंगलवार को सामुदायिक मानक प्रवर्तन रिपोर्ट का छठा संस्करण जारी किया। जिसमें कहा गया कि सभी तरह की सामग्री जिनसे बच्चों पर नकारात्मक असर पड़ता है, उन्हें हटाया जा रहा है। इस पर हमारी एक बड़ी टीम काम कर रही है। रिपोर्ट में कहा गया है हमें जैसे ही आपत्तिजनक सामग्री मिलती हम तुरंत उसे हटा देते हैं। हम यह भी परवाह नहीं करते कि वह किस संदर्भ में डाली गई है। रिपोर्ट में कहा गया कि इस गंभीर विषय पर हमारी सक्रियता भी 68.9 से बढक़र 74.3 प्रतिशत हो गई है।





