डीप फेक तकनीक सच को झूठ बना सकती है और झूठ में सच जड़ सकती है, How Deepfake will control the World

How DeepFake Will Control the World

How Deepfake will control the World: आपने यूट्यूब पे जोमाटो की एक ऐड देखी होगी। इसमें ऋतिक रोशन खुद आपके शहर और वहां के किसी famous restaurant का नाम लेते दिख रहे थे। इस ऐड के बारे में सबसे interesting बात ये थी कि viewer का लोकेशन change होते ही same advertisement में ऋतिक रोशन उस particular place और वहां के लोकल restaurant का नाम लेते दिखाई देते हैं।

पिछले साल ऐसे ही एक ऐड के कारण controversy भी create हो गई थी. जब ऋतिक रोशन ने मध्यप्रदेश के शहर उज्जैन में किसी restaurant की जगह महाकाल का नाम ले लिया था। दरअसल महाकालेश्वर टेम्पल उज्जैन में एक famous मंदिर है और महाकाल नाम का वहां एक famous restaurant भी है। इस वजह से confusion create हो गई।

How DeepFake Will Control the World

How DeepFake Will Control the World

उस एड में महाकाल का नाम सुनते ही महाकालेश्वर temple के पुजारी समेत उज्जैन और इंडिया भर से हिंदू community के कई लोगों ने ट्विटर पे जोमाटो को boycott करना शुरू कर दिया और Zomato और ऋतिक रोशन से इसे लेकर apology issue करने की demand भी की गई। बाद में जोमैटो ने apology issue भी की और फौरन उस add को हटा दिया।

लेकिन क्या आप जानते हैं असल में ऋतिक रोशन ने खुद से महाकाल का नाम नहीं लिया था। in fact उन्होंने ऐड में दिखाए गए किसी भी शहर और रेस्टोरेंट का नाम नहीं लिया। बल्कि इन ऐड्स को जोमाटो ने आर्टिफिशियल इंटेलिजेंस की मदद से प्रोड्यूस किया था। इससे पहले ऐसे ही वीडियो केडबरी ने भी रिलीज किए थे। इसमें शाहरुख खान अलग-अलग शहरों के लोकल स्टोर्स को प्रमोट करते दिखाई दे रहे थे।

ये वीडियो रियलिटी में ना तो शूट किए गए थे और ना ही इन एक्टर्स के वॉइस को रिकॉर्ड किया गया था. बल्कि इनकी स्पीच पैटर्न facial expressions और voice को copy करके इन videos को AI और machine learning के जरिए generate किया गया था. इस तरह की technology को deep fake कहा जाता है.

आज deep fake की मदद से एक व्यक्ति चाहे तो Dilwale Dulhania Le Jayenge film में Shahrukh Khan की जगह Ranbir Kapoor को दिखा सकता है. ये 2011 में वानखेड़े stadium में Mahendra Singh Dhoni की जगह Virat Kohli को Sri Lanka के खिलाफ world cup winning six लगाते हुए, portray कर सकता है. लेकिन दोस्तों ये technology दूर से interesting लगती है उतनी ही खतरनाक भी है।

दरअसल इस technology के इस्तेमाल से एक user किसी भी politician या public figure का controversial statements देते हुए एक वीडियो बना सकता है। जो उन्होंने असल में कभी कहा ही ना हो. उदाहरण के लिए 2019 में डोनाल्ड ट्रम्प की एक ऐसे ही वीडियो वायरल हो रही थी. इसमें वो रशिया को यूनाइटेड स्टेट्स का अच्छा दोस्त और पुतिन से अच्छे relations बनाने की बात कर रहे थे।

दुनिया भर के लोग ट्रम्प के इस स्टेटमेंट को सुनकर shocked हो रहे थे। हालांकि बाद में मालूम हुआ कि ये वीडियो fake है। लेकिन आज के sensitive वर्ल्ड में ऐसा एक
फेक वीडियो वर्ल्ड में chaotic situation पैदा करने के लिए काफी है। ऐसे में सवाल उठता है कि आखिर ये technology इसकी शुरुआत recreational और entertainment purpose से हुई थी हमारे लिए कितना मददगार है। दोस्तों आज के हमारे इस नए स्टोरी में हम deep fake technology और इसके इन्हीं aspects को detail में analyse करेंगे। जहाँ हम जानेंगे कि ये technology काम कैसे करती है? इसके potential benefits क्या है? क्या ये वर्ल्ड order के लिए कोई threat करती है और अगर हाँ तो उसके harmful impacts को कम करने के लिए क्या-क्या actions लिए जा सकते हैं?

What are DeepFakes? How do Deepfakes Work?

डीप फेक दो वर्ड से मिलकर बना है, डीप और फेक जहाँ पे डीप का मतलब है डीप मशीन लर्निंग जो कि एक तरह का आर्टिफिशियल intelligent tool है. डीप फेक टेक्नोलॉजी में मशीन लर्निंग और आर्टिफिशियल इंटेलिजेंस के जरिए किसी इमेज या वीडियो को manipulate या generate किया जा सकता है. इस टेक्नोलॉजी के पीछे का सबसे basic concept facial recognition है।

उदाहरण के तौर पर messaging app स्नैपचैट पर मौजूद कुछ filters की मदद से आप अपने फेशियल features को alter और facial expression को change कर सकते हैं। deep fake भी कुछ इसी तरह काम करता है। लेकिन deep fake इससे कई गुना ज्यादा realistic होते हैं। इतना realistic कि एक आम इंसान के लिए ये recognize कर पाना मुश्किल हो जाता है कि ये content real है या fake. deep fakes mainly तीन types के होते हैं।

Face Swap

इस तरह के deep fake आजकल काफी popular हो रहे हैं। जहाँ already existing photos या वीडियोज में किसी और person के face को original person की body के साथ align कर दिया जाता है. ध्यान से देखिए दूसरी वाली तस्वीर में एलन मस्क की बॉडी में निकोलस सेज का face लगाया गया है यानी कि एलन मस्क इस फोटो में। इसमें एक एलन मस्क है और दूसरे अमेरिकन एक्टर निकोलस सेज पहली नजर में किसी के लिए ये बताना बहुत मुश्किल है कि कौन सा फोटो original है और कौन-सी fake वाली फोटो original है और निकोलस सेज वाली फोटो को face swapping सॉफ्टवेयर के जरिए create किया गया है।

deep fake का दूसरा टाइप है facial attributes and facial expressions manipulation. इस तरह के टीप फेक के जरिए स्किल से लेकर age, gender और facial expression तक change किए जा सकते हैं और दोस्तों इसका तीसरा टाइप है face synthesis. इसके जरिए already existing image से एक completely नया और non existent face बनाया जा सकता है,

उदाहरण के तौर पर ये तस्वीर है मेस्सी kinsley की. इनके ट्विटर और लिंक्डइन bio के अनुसार ये ब्लूमबर्ग पे एक senior journalist है। लेकिन यदि हम आपसे कहें कि इस नाम की और इस face वाली कोई लेडी रियल वर्ल्ड में है ही नहीं । जी हाँ दोस्तों ये एक AI generated deep fake फोटो है। लेकिन आपके जैसे ही दुनिया में कई लोग इस तस्वीर में दिख रही ये लेडी को real मान रहे थे।

लेकिन बाद में जब कुछ लोगों को इस account से personal details भेजने के messages आने शुरू हुए तो वो suspicious हो गए। लेकिन जब पता चला कि इंटरनेट पर इस लेडीज से related कहीं और कोई भी information available नहीं थी. तब further investigation के बाद पता चलता है कि मैसी किंस्ले reality में कोई exist ही नहीं करता।

इसके अलावा दोस्तों आज इंटरनेट पर deep fake based एक ऐसी वेबसाइट भी है जो कि हर बार पेज refresh करने पर एक न्यू non-existent person का फोटो शो करती है। इस वेबसाइट का नाम है the person does not exist डॉट कॉम. fake फोटोज और वीडियोज क्रिएट करने के अलावा ऑडियोज भी डीप फेक किए जा सकते हैं। इसका बेस्ट एग्जांपल हम वीडियो की शुरुआत में जोमाटो और केडबॉरी के एड वाले केस में देख चुके हैं।

हालाँकि आज मास लेवल पर इस टेक्नोलॉजी पर बेस्ड tools और apps के फेमस होने का एक कारण ये भी है कि entertainment और creative perspective से ये technology लोगों के लिए गेम changer साबित हो रही है जहाँ इंस्टाग्राम पर active meme pages या यूट्यूब पर active channels इस technology के जरिए बड़े ही मजेदार और मनोरंजन images और वीडियोज बना रहे हैं. ऐसे में सवाल उठता है कि आखिर ये technology काम कैसे करती है?

How DeepFakes Works

दोस्तों यदि हम deep fake technicalities की बात करें तो deep fake को बनाने के लिए encoder और decoder नाम के दो neural networks का structure इस्तेमाल किया जाता है। अब देखिए neural network जिसे artificial neural network भी कहा जाता है. एक computing system है जो animal brains में पाए जाने वाले biological neural network से inspired है। जिस तरह neuron हमारी बॉडी में present एक messenger की तरह होता है जो electrical impulses और chemical signals की मदद से brain और nervous system के बीच information को share करने का काम करता है.

उसी तरह deep fake भी एक neural network based technology है जो received information के basis पर suitable results को generate करता है। इसी network की वजह से deep fake base tools creative task जैसे facial rejuvenation या audio replacement को करने में सक्षम है। deep fake के पहले neural network यानी encoder का काम यही होता है। जो कि है image को small data में break करना, इसे compress भी कहते है। वहीं deep fake के दूसरे neural network structure यानी डिकोडर का काम करता है.

इस कॉम्प्लेक्स इमेज को वापस reconstruct करना होता है। इनकोडर मॉडल का use face swapping और facial expressions या atributes को manipulate करने के लिए किया जाता है। इसके अलावा डी fake generate करने का एक दूसरा एआई tool भी है। जिसे जनरेटिव adversarial tool यानी GAN कहते हैं। GAN के इस्तेमाल से non-existant images create की जा सकती हैं। deep fakes तैयार करने के लिए एआई मॉडल में बहुत सारा डाटा फीड करके उसे ट्रेन किया जाता है।

इसी training को हम computing terms में मशीन learning कहते हैं। दोस्तों मशीन learning computer science की एक ऐसी branch को कहा जाता है जहाँ हम डेटा और algorithm की मदद सेकिसी non living technological बॉडी को human की तरह learn करने के लिए intimate करते हैं. यानी जिस तरह एक human किसी चीज को पढ़कर उसे अपने mind में लाइफ टाइम के लिए स्टोर कर लेता है.

वैसे ही मशीन learning से एक ऐसी कोई बॉडी खुद को मिले inputs को अपनी memory में save कर लेती है। साथ ही जैसे-जैसे उसे नए task दिए जाते हैं वैसे उसकी मेमोरी और चीजों को लेकर क्लैरिटी भी इम्प्रूव होती जाती है।

for example ऋतिक रोशन को जोमाटो का ऐड तैयार करने के लिए एक twenty minutes का monologue दिया गया था। इस monologue को पढ़ते वक़्त उनके फेशियल expression स्पीच पैटर्न और अलग-अलग words pronounce करने के अंदाज को detect और स्टोर किया गया. बाद में जब tool को ये data transfer किया गया तो उसने मशीन learning की मदद से ऋतिक के सभी expressions को ना सिर्फ imitate यानि नकल किया बल्कि एआई ने उन results या words को भी produce किया जो उस डाटा के कॉम्बिनेशन से बनाए जा सकते थे।

दोस्तों दरअसल deep fake वीडियो तैयार करने के लिए इन encoder, decoder मॉडल में किसी individuals के faces के हजारों अलग-अलग angle से लिए गए शॉर्ट्स फीड किए जाते हैं। इसे बाद में डीप फेक कॉम्प्रेस और reconstruct कर सूटेबल रिजल्ट तैयार कर लेते हैं। वैसे तो convincing deep fake वीडियोज बनाने का process बहुत टाइम taking होता है। लेकिन जिस रफ्तार से इस टेक्नोलॉजी में advancement देखने को मिल रही है, जल्द ही ये process बहुत ही आसान और सबके लिए accesible हो जाएगा।

ऐसे में फर्ज कीजिए कि एक ऐसी टेक्नोलॉजी जो किसी भी इंसान के फेस, एक्सप्रेशन यहाँ तक की उस इंसान की आवाज तक को कॉपी कर सकती है उसका इस्तेमाल यदि गलत इरादों से किया जाए तो उसके परिणाम कितने घातक साबित हो सकते हैं और खासकर के उस दौर में जब हमारी सोसाइटी, हमारा समाज और हमारी पूरी मानव सभ्यता अपनी सहनशीलता, स्थिरता और सब्र को कहीं खो चुकी है।

आज के मॉडर्न टाइम्स में धर्म, जात, ideological यहाँ तक की जनरल ब्लीव्स के नाम पर दो के बीच शुरू हुई छोटी-सी तू-तू, मैं-मैं दंगे या हिंसा का रूप लेकर पूरे सोशल fabric को distort कर देती है. ऐसे में इस बात को नकारा नहीं जा सकता कि इस technology का नेगेटिव impact कहाँ, किधर और किस हद तक chaos create कर सकता है, हालांकि किसी भी दूसरी technology की तरह defake से पड़ने वाले प्रभावों को सिर्फ positive या नेगेटिव की category में नहीं रखा जा सकता। इसलिए जरूरी है कि हम इसके दोनों effects को discuss करें और possible solutions के बारे में बात करें, आइए पहले इसकी positive side को जानते हैं.

Benefits of DeepFake Technology

advertising इंडस्ट्री में डीप फेक का use, दोस्तों डीप फेक companies के लिए adds बनाने का ना केवल कॉस्ट कम कर देता हबल्कि टाइम saving भी करता है। साथ ही ये customized deep fake ऐड्स कस्टमर को highly personalised experience provide कराते हैं जो कि उन्हें particular ब्रांड की तरफ attract करता है। केडबरी के ऐड का ही example ले लीजिए।

सोचिए केडबरी को इस तरह पैन इंडिया लोकल स्टोर्स एड शूट करने में ना जाने कितना वक्त और प्रोडक्शन कॉस्ट आती है। लेकिन डीप फेक टेक्नोलॉजी की मदद से ये काम कुछ टाइम में और कम investment में हो गया। कुछ digital marketing experts की राय में companies future में adds बनाने के लिए actors की identity use करने के लिए लाइसेंस purchase कर सकती है और उनके पुराने recordings use कर आसानी से कम कॉस्ट में adds produce कर सकते हैं।

अब बात करें entertainment industry की। तो दोस्तों अब तक इंटरनेट पे जितने भी deep fake वीडियोज मौजूद हैं उसमें से ninety nine परसेंट entertainment वीडियोज ही हैं। deepfake technology, entertainment industry के लिए most useful tool है। इसके जरिए foreign languages में फिल्म्स को मल्टीपल regional language में डब किया जा सकता है। ये लोकल वॉइस और आर्टिस्ट को हायर करने की कॉस्ट को भी reduce कर देता है और इंटरनेशनल audiences को बेटर और realistic मूवी watching experience provide कराता है।

इसके अलावा डी फेक technology actors की unavailability की प्रोब्लेम को overcome करने में भी हेल्पफुल है। इसके जरिए कोई भी deceased actor पुराने फुटेजेस को use कर मूवी बना सकता है। उदाहरण के तौर पर दो हजार सोलह में आई स्टार वार्ड्स की मूवी रोग वन में बीटर कुशिंग को कमांडर मॉफ स्टार का रोल प्ले करते दिखाया गया है। लेकिन आपको जानकर हैरानी होगी कि पीटर कुशिंग की death year 1994 में हो गई थी. इसके अलावा deep fake की मदद से actors की age मूवीज में कम करके भी दिखाई जा सकती है।

साथ ही आजकल डीप फेक्स को दूसरे creative ways में भी use किया जाता है। इसे फ्लोरिडा में डाली म्यूजियम में सालोडा डाली का एक defake create किया गया जोकि visitors को personally अपना art work introduce कराता है और उसके साथ सेल्फी भी लेता है। साथ ही political campaigns में भी defake का use किया जा सकता। दोस्तों deep fake को recent में political campaigns के लिए इस्तेमाल किया जा रहा है।

deep fake की मदद से leaders multiple language speakers तक अपनी बात पहुँचा सकते हैं। similarly इस technology का use सोशल awareness program में भी किया जा सकता है। उदाहरण के तौर पर famous footballer डेविड बेगम एक ग्लोबल मलेरिया campaign में nine languages बोलते दिखाई दिए हैं। इसमें हिंदी भी शामिल है। लेकिन असल में उन्होंने वीडियो सिर्फ इंग्लिश में रिकॉर्ड की थी बाकी बची आठ language एआई की help से dub की गई थी इसी तरह mass को educate करने के लिए defake का use किया जा सकता है।

लेकिन दोस्तों इन तमाम benefits के बावजूद defakes के साथ कई सारे potential harms भी जुड़े हुए हैं। जिसे अगर properly मॉनिटर नहीं किया गया तो ये एक बड़े खतरे का रूप ले सकता है। deep fake का सबसे बड़ा खतरा ये है कि ये सच और झूठ के बीच की लकीर को धुंधला कर देता है। इसकी वजह से झूठ को सच और सच को झूठ मानकर उसे disregard करने की संभावनाएं बढ़ जाती है।

आज की दुनिया already misinformation और fake न्यूज़ से भरी हुई है। इसके बीच deep fake technology का इस गति से विस्तार human society में truth के existence के लिए साबित हो सकता है। इसके science already दिखने शुरू हो गए हैं। पिछले साल रशिया युक्रेन वॉर के बीच यूक्रेनियन में जेलेंसकी का एक वीडियो वायरल हो रहा था, जिसमें जेलंस की यूक्रेनियन soldiers को रशिया के आगे surrender करने को बोलते नजर आ रहे थे।

बाद में जेलेंस्की ने अपने फेसबुक account के माध्यम से लोगों को बताया कि ये वीडियो एक deep fake है और ये most probably रशिया के disinformation campaign का पार्ट है। इस तरह का इंसिडेंट ये clearly शो करता है। कि किस तरह से deep fakes, जियो पॉलिटिक्स को पलक झपकते ही बदल सकते हैं। डीप फेक्स के through कोई भी आसानी से कंट्री के मिलिटरी personal intelligent agents यहाँ तक कि पीएम और प्रेसिडेंट जैसे important public figures के fake वीडियो या audio recording create करके उसे वायरल कर सकता है।

जिससे नेशनल सिक्योरिटी को हम पहुँच सकता है और सिविल वॉर तक की नौबत आ सकती है। एक advance technology होने के कारण deep fake वीडियोज इतनी realistic और convincing होती है कि इन्हें differentiate करना मुश्किल हो जाता है और जैसे-जैसे वक्त के साथ इस technology में सुधार होगा वैसे-वैसे ये और भी कठिन होता जाएगा।

साथ ही fake के harms को भारत और दुनिया के कई देशों में मौजूद lack of डिजिटल literacy भी और dangerous बना देती है और ज्यादातर लोग किसी भी वीडियो को सोशल मीडिया पर शेयर करने से पहले ये नहीं चेक करते हैं कि ये वीडियो real है या फिर fake central अफ्रीका की एक country में already ऐसा हो चुका है जहाँ के president की एक deep fake वीडियो ने military को को अंजाम दे दिया था।

ऐसे में ऐसी कोई भी fake वीडियो इंडिया में धर्म के नाम पर दो समुदायों के बीच भी दंगे-फसाद का बन सकती है और जैसा हमने पहले भी बताया कि जैसे ये वीडियो advance होगी वैसे ही इससे बनने वाले प्रोडक्ट यानी वीडियोज और भी realistic होते जाएंगे। deep fake के कारण सिर्फ national सिक्योरिटी नहीं बल्कि इंटरनेशनल relations भी डेंजर में आ सकते हैं। deep fake वर्ल्ड leaders और diplomatic के fake वीडियो या audio recording create कर सकता है। जिससे दो countries के बीच के diplomatic relations ख़राब हो सकें। वहीं deep fake के कारण सबसे ज्यादा जिस चीज का खतरा है वो है
democracy.

Democracy का base होता है communication लेकिन deep fakes में वो potential है कि इस base को undermine कर सके। उदाहरण के तौर पर operation पार्टी ruling पार्टी के against या ruling पार्टी operation पार्टी के against deep fake वीडियोज create कर लोगों के बीच misinformation और propaganda create करने की कोशिश कर सकती है। इंटरनेट पे deep fake वीडियोज इतने provolent हो जाएंगे कि eventually पब्लिक के लिए ये जानना almost impossible हो जाएगा कि आखिर सच क्या है?

इसके अलावा deep fake से financial frauds जैसे cyber crimes के भी बढ़ने की संभावना हैं defaik के जरिए आसानी से किसी relative, फ्रेंड या authorized person की voice में मिलकर fraudsters इसी individual से पैसे transfer कर सकते हैं ऐसे ही 2019 में एक जर्मनी बेस्ड firm के यूके में located subsidiary firm के सीईओ से एक fraudster ने कंपनी के बॉस की voice डी फेक कर दो लाख पाउंड एक hungarian बैंक अकाउंट में transfer कर लिए थे।

lastly defake के कारण इंटरनेट पे non-consensual pornographic content भी increase हो रहा है। डाटा के according available ninety सिक्स परसेंट non consensual porn deep fake हैं। इसके ज्यादातर victims, permanent female celebrities और young girls होती हैं। वहीं कुछ रिपोर्ट्स के अनुसार fake revenge पॉइंट बनाने के लिए भी deep fake का इस्तेमाल हो रहा है।

2018 में कुछ यूएस बेस रिसर्चर्स ने ये डिस्कवर किया था कि डीप फेक फेसेस नॉर्मली ब्लिंक नहीं करते लेकिन उनके रिसर्च पर पब्लिश होने के कुछ समय बाद ही ब्लिंक करने वाले डीप फेक फेसेस देखने को मिलने लगे। वैसे तो लो क्वालिटी के डीप फेक फेसेस को करना आसान है। जैसे कि unnatural फेस कलर दोनों इयर्स में अलग-अलग ईयर रिंग्स स्टैटिक हेयर, स्ट्रेंज, लाइटिंग effects इत्यादि-इत्यादि।

लेकिन जैसे-जैसे technology advance होगी और डी फेक वीडियोज की क्वालिटी enhance होगी वैसे ही लोगों के लिए almost impossible हो जाएगा। इसलिए ऐसे में गवर्नमेंट और organisations की responsibility है कि डी फेक वीडियोज के स्प्रेड को कंट्रोल करने के लिए अर्जेंट स्टेप्स लें।

दुनिया भर में कंपनी जैसे माइक्रोसॉफ्ट, गूगल, इत्यादि डीफेक डिटेक्शन टेक्नोलॉजी पे इन्वेस्ट कर रहे हैं। लेकिन माइक्रोसॉफ्ट के चीफ साइंटिस्ट, इंजिनियर हॉर्बिट्स के अनुसार प्रॉब्लम ये है कि एक तरफ जहाँ डी फेक एआई को डिटेक्ट करने की टेक्नोलॉजी develop हो रही है, तो वहीं दूसरी ओर डीप फेक एडिटर टेक्नोलॉजी भी develop हो रही है और दोनों के बीच का ये रेस हमें जारी रहेगी।

इसलिए solution fake वीडियोज को detect नहीं बल्कि true वीडियोज को find करने का way निकालना है। इसके लिए माइक्रोसॉफ्ट और डॉबे ने कंटेंट फ्रेंडशियल का एक feature introduce किया है। इस इमेजेस और वीडियोज की authenticity का पता लगाया जा सकता है। जैसे कि यदि आप सोशल मीडिया स्कूल करते वक्त कोई फोटो देखते हैं तो ये क्लेम करता है कि इसे नासा ने ली थी तो फोटो के साथ एक content credential आइकॉन appear होगा।

इस पर टैप कर आप उस फोटो से related सारे फैक्ट्स जैसे इसे किस और कब click किया और edit क्या आपको देखने को मिलेगा। दुनिया भर की नौ सौ companies already content credential icon introduce करने के लिए agree कर चुके हैं. इसके अलावा गवर्नमेंट भी defake के harmful impacts को कंट्रोल करने के लिए policy level पर कुछ steps ले सकती है। जैसे कि सबसे पहले गवर्नमेंट media literacy programs के through लोगों को deep fake वीडियोज और उसके impacts के बारे में aware कर सकती है।

दूसरा गवर्नमेंट एक बॉडी setup कर सकती है जो कि deep fakes को ब्लॉक पब्लिक में circulate हो रहे चैन टेक्नोलॉजी के जरिए मॉनिटर कर सके तीसरा गवर्नमेंट को को रोकने के लिए legislative सोल्यूशन ड्राफ्ट करने की भी जरूरत है। तो दोस्तों इन कुछ स्टेप्स से गवर्नमेंट और companies इस futuristic technology के नेगेटिव impact को reduce कर सकती हैं।

लेकिन इसके अलावा as a responsible citizen हमारी भी responsibility बनती है कि हम सोशल मीडिया पर किसी भी sensational वीडियो को शेयर करने से पहले उसके authenticity जानने की कोशिश करें और trusted platform से उसके real होने का पता लगाने पे भी और उसके बाद ही उसे दूसरे लोगों साथ शेयर करें।

Leave a Reply

Your email address will not be published. Required fields are marked *