Khandesh Darpan 24x7

आता गुगलनेही घेतली 'डीपफेक'बाबत अ‍ॅक्शन; यूट्यूबर्सना गंभीर इशारा दिला..



खान्देश दर्पण 24x7 वृत्तसेवा -


गेल्या काही दिवसांपासून डीपफेकचा मुद्दा चर्चेत आहे. भारत सरकारने याबाबत ठोस नियमावली तयार करण्यासाठी सोशल मीडिया कंपन्यांना निर्देश दिले आहेत. यातच आता गुगलने देखील आपल्या यूट्यूब या प्लॅटफॉर्मच्या नियमांमध्ये बदल केले आहेत. आता यूट्यूब कंटेंट क्रिएटर्सना कोणतीही पोस्ट करण्यापूर्वी त्यातील एआयच्या वापराबाबत खुलासा करावा लागणार आहे.



अशी होणार कारवाई


कंटेंट क्रिएटर्सना आपल्या व्हिडिओमध्ये एआयचा कसा आणि किती वापर केला आहे, काय बदल केले आहेत याबाबत माहिती द्यावी लागणार आहे. ही माहिती न दिल्यास, गुगल स्वतःच कारवाई करत असे व्हिडिओ हटवणार आहे. येत्या काही महिन्यांमध्ये ही प्रक्रिया सुरू करण्यात येईल.


सावदा शहरातील आणि सावदा शहर परिसरातील 
एकमेव व्यावसायिक संगणक 
(Special Tally - Off Line Education) शिक्षण इन्स्टिट्यूट,





काय आहे डीपफेक?


डीपफेक व्हिडिओ म्हणजे असे व्हिडिओ ज्यामध्ये एखाद्या व्यक्तीचा चेहरा, आवाज, हावभाव बदलून नवीन व्हिडिओ तयार केले जातात. काही दिवसांपूर्वी रश्मिका मंदाना, कॅटरीना कैफ, काजोल आणि अगदी सारा तेंडुलकरला देखील डीपफेक व्हिडिओंमुळे भरपूर त्रास सहन करावा लागला होता. यानंतर पंतप्रधान मोदींनी देखील डीपफेक व्हिडिओंबाबत चिंता व्यक्त केली होती.



नॅशनल क्रश म्हणून ओळखली जाणारी अभिनेत्री रश्मिका मंदाना ही सध्या एका फेक व्हिडिओमुळे चर्चेत आहे. डीपफेक तंत्रज्ञानाच्या मदतीने एका मॉडेलच्या चेहऱ्यावर रश्मिकाचा चेहरा बसवण्यात आला आहे. एका डीपनेक टाईट जिमवेअरमध्ये ही मॉडेल दिसत आहे. मात्र, रश्मिकाचा चेहरा बसवण्यात आल्यामुळे हा बोल्ड व्हिडिओ तिचाच असल्याचं वाटत आहे.



एखाद्या व्यक्तीच्या फोटोमध्ये त्याच्या चेहऱ्यावर दुसऱ्या व्यक्तीचा चेहरा बसवणं हा प्रकार आपल्याला माहितीच आहे. फोटोशॉपच्या मदतीने अशा प्रकारे एडिटिंग करता येतं. मात्र, ते खोटं असल्याचं लक्षात येऊ शकतं. डीपफेक ही त्याच्या पुढची आणि अधिक धोकादायक पायरी आहे.




डीपफेक तंत्रज्ञान एखाद्या व्यक्तीचा खोटा व्हिडिओ तयार करू शकते. 'Deep Learning' आणि 'Fake' अशा दोन शब्दांपासून DeepFake हा शब्द तयार झाला आहे. ही टेक्नॉलॉजी खोटे व्हिडिओ तयार करण्यासाठी Generative Adversarial Networks (GANs) याचा वापर करते. यामध्ये केवळ या व्यक्तीचा चेहराच नाही, तर त्याचा आवाज, हावभाव, बोलताना होणारी ओठांची हालचाल, डोळ्यांचे भाव आणि इतर गोष्टी देखील कॉपी करता येऊ शकतात. यामुळे कोणत्याही व्यक्तीचा काहीही बोलतानाचा व्हिडिओ तयार करता येऊ शकतो.



यापूर्वी कित्येक वेळा मोठमोठ्या नेत्यांचे किंवा सेलिब्रिटींचे डीपफेक व्हिडिओ तयार करण्यात आले आहेत. यामध्ये काही केवळ मनोरंजनासाठी तयार करण्यात आले असले, तरी या टेक्नोलॉजीचा गैरवापर देखील केला जाण्याची शक्यता तेवढीच आहे. रश्मिकाच्या उदाहरणातून हे आता स्पष्टच दिसत आहे. केवळ रश्मिकाच नाही, तर कित्येक सेलिब्रिटी याला बळी पडले आहेत.


डीपफेक तंत्रज्ञान जुनंच


ब्लूमबर्ग या संस्थेने तब्बल पाच वर्षांपूर्वी एक व्हिडिओ शेअर केला होता. यामध्ये बराक ओबामा, डोनाल्ड ट्रम्प, पुतीन अशा मोठ्या नेत्यांचे डीपफेक व्हिडिओ कशा प्रकारे तयार केले जातात यामध्ये माहिती दिली आहे. एवढ्या जुन्या व्हिडिओमध्ये देखील खऱ्या-खोट्याचा फरक करणं स्पष्ट होत नाहीये.


यानंतर पाच वर्षांमध्ये आता तंत्रज्ञान एवढं प्रगत झालं आहे, की त्यावेळी दोन-तीन वेगवेगळ्या प्रक्रिया करून तयार होणारे डीपफेक व्हिडिओ आता एका क्लिकमध्ये होत आहेत. कित्येक टिकटॉकर्स देखील चक्क मोबाईलवर असे व्हिडिओ तयार करत आहेत. सोशल मीडियावर पंतप्रधान मोदींचे गाणं म्हणतानाचे व्हिडिओ तुम्ही पाहिले असतीलच.




'एआय'वर निर्बंध


रश्मिकाचा फेक व्हिडिओ व्हायरल झाल्यानंतर अमिताभ बच्चन यांनी याबाबत कारवाई केली जाण्याची इच्छा व्यक्त केली आहे. यासोबतच कित्येक नेटिझन्स देखील एआयवर निर्बंध लागू करण्याची गरज असल्याचं म्हणत आहेत. विशेष म्हणजे अमेरिकेने गेल्याच महिन्यात याबाबत एक एक्झिक्युटिव्ह ऑर्डर पास केली आहे.



अमेरिकेचे राष्ट्राध्यक्ष जो बायडेन यांनी 30 ऑक्टोबरला याबाबत निर्णय घेतला. यानुसार सर्व एआय डेव्हलपर्सना आपल्या सुरक्षा चाचण्यांचे निकाल अमेरिका सरकारला द्यावे लागणार आहेत. तसंच एआयवर सरकारचे काही निर्बंध लागू होणार आहेत. एआयबाबत नॅशनल इन्स्टिट्यूट ऑफ स्टँडर्ड अँड टेक्नॉलॉजी काही गाईडलाईन्स निश्चित करेल. या गाईडलाईन्स सर्व नागरिकांना सांगण्यात येतील. असंही यावेळी स्पष्ट करण्यात आलं.


एआयला रेग्युलेट करण्याव्यतिरिक्त दुसरा पर्याय आपल्याकडे नसल्याचं बायडेन यावेळी म्हणाले. तसंच त्यांनी यावेळी डीपफेकचा देखील उल्लेख केला. "एखाद्या व्यक्तीचा हुबेहुब डुप्लिकेट व्हिडिओ तयार करण्याची क्षमता यामध्ये आहे. मी स्वतःचे व्हिडिओ पाहिले आहेत, ज्यामध्ये मी अशा गोष्टी बोलताना दिसतोय ज्या मी कधीच बोलल्या नाहीत", असं बायडेन म्हणाले.


एआयचा धोका केवळ नोकऱ्या जाण्यापुरता मर्यादित नाही. तर एखाद्या व्यक्तीचं वैयक्तिक आयुष्य उद्ध्वस्त करणं, निवडणुकांमध्ये अपप्रचार करणं अशा बऱ्याच गोष्टी एआयच्या मदतीने शक्य आहे. यामुळेच आर्टिफिशिअल इंटेलिजन्सच्या धोक्याबाबत आता अमेरिका गंभीर झाली आहे. याबाबत इतर देशही हळू-हळू निर्बंध लागू करण्याची शक्यता आहे.



सरकारची कारवाई


केंद्र सरकार देखील डीपफेकच्या बाबतीत गांभीर्याने पावलं उचलत आहे. डीपफेक किंवा ऑनलाईन चुकीच्या कंटेंटबाबत तक्रार करण्यासाठी सरकार एक प्लॅटफॉर्म उपलब्ध करणार आहे. सोबतच अशा प्रकरणांकडे लक्ष ठेवण्यासाठी एक विशेष अधिकारी देखील नियुक्त करण्यात येणार आहे.

Sakal 1 December 2023 at 8:52


अशाच ज्ञानवर्धक माहिती साठी,  नवनवीन बातम्यांसाठी तसेच जाहिरातीसाठी 
खालील लिंक वर क्लिक करून इतर ग्रुप ला जॉईन व्हा


Post a Comment

أحدث أقدم