News

‘डीपफेक’ करणाऱ्यांची आता खैर नाही, दंडासह तुरूंगाचीही हवा खावी लागणार.. जाणून घ्या नेमकं काय आहे हे प्रकरण! Deepfake Technology

नवी दिल्ली | डीपफेक (Deepfake Technology) रोखण्यासाठी केंद्र सरकार लवकरच नवीन आणि कठोर कायदा आणणार असून पुढील काही महिन्यांमध्येच याबाबत नियामक बनवण्यात येणार आहे. सर्वसामान्य जनतेकडूनही याबाबत सूचना मागवण्यासाठी सरकार एक प्लॅटफॉर्म जारी करणार आहे.

केंद्रीय तंत्रज्ञान मंत्री अश्विनी वैष्णव यांनी गुरुवारी डीपफेकबाबत इंटरनेटच्या सर्व प्लॅटफॉर्मचे प्रतिनिधी, नॉस्कॉम, एआय तज्ज्ञ, आयआयटी प्रोफेसर यांची बैठक बोलावली होती. बैठकीनंतर त्यांनी सांगितले की, केंद्र सरकार लवकरच नियामक घेऊन जनतेत जाणार आहे.

यासाठी आजपासूनच काम सुरू करण्यात आले आहे. पुढील 10 दिवसांत नियामक तयार होणार आहे. त्यानंतर विद्यमान कायद्यांमध्ये बदल करणे अथवा नवीन कायदा आणण्याच्या पर्यायांवर निर्णय घेतला जाणार असल्याचे त्यांनी सांगितले. तसेच यामध्ये मोठ्या प्रमाणात दंड ठोठावण्याबरोबर कठोर कारावासाची शिक्षाही समाविष्ठ असणार आहे.

खालील चार मुद्यांवर सहमती
डिटेक्शन : डीपफेक आहे की नाही हे सर्वांत आधी जाणून घेणे
प्रिव्हेन्शन : डीपफेक व्हायरल होण्यापासून रोखणे
डीपफेक असेल तर त्याबाबत कुणाकडे, कशी तक्रार करावी? 
हा प्रकार रोखण्यासाठी जागरूकता वाढवणार. यात मध्यमांची महत्त्वाची भूमिका असणार आहे.

अभिनेत्री रश्मिका मंदानाच्या डीपफेक व्हिडीओ प्रकरणाचा तपास सुरू असून, त्याचे धागेदोरे हाती लागल्याचे दिल्ली पोलिसांनी गुरुवारी सांगितले. व्हिडीओ अपलोड केलेल्या सर्व आयपी ॲड्रेसची ओळख पटवली जात आहे. तसेच सर्वप्रथम हा व्हिडीओ कोणी अपलोड केला, याची माहिती घेतली जात आहे.

पंतप्रधान नरेंद्र मोदींनी देखील रश्मिका मंदानाच्या डीपफेक व्हीडीओनंतर आपला गरब्यात गाणं गातानाचा डीपफेक व्हिडीओ पाहिला असल्याची माहिती दिली. “मी एक व्हिडीओ पाहिला ज्यामध्ये मी गरब्याचं गाणं गाताना दाखवलं आहे. असे अनेक व्हिडीओ ऑनलाइन उपलब्ध आहेत”, असं नरेंद्र मोदी म्हणाले होते. तसेच याबद्दल पंतप्रधान मोदींनी जी-२० व्हर्च्युअल शिखर परिषदेत चिंता व्यक्त केली, आणि कृत्रिम बुद्धीमत्तेच्या वैश्विक नियमनासाठी आपण सर्वांनी मिळून पाऊले उचलली पाहिजेत असे मोदी म्हणाले.

काय आहे Deepfake Technology?

डीपफेक हे कृत्रिम बुद्धिमत्तेच्या (AI) एका प्रकारातून तयार केलेले बनावट व्हिडिओ किंवा ऑडिओ रेकॉर्डिंग आहे. या तंत्रज्ञानाचा वापर एखाद्या व्यक्तीच्या चेहऱ्यावर दुसऱ्या व्यक्तीचे चेहरा लावण्यासाठी केला जातो. त्यामुळे, एखादी व्यक्ती काहीही करत असल्याचा भास निर्माण होतो, जसे की बोलणे, अभिनय करणे किंवा काहीतरी खाणे.

डीपफेक तंत्रज्ञान तयार करण्यासाठी, एखाद्या व्यक्तीचे मोठ्या प्रमाणात फोटो आणि व्हिडिओंचे डेटा सेट वापरले जाते. या डेटा सेटवर डीप लर्निंग अल्गोरिदमचा वापर करून, एखाद्या व्यक्तीच्या चेहऱ्याची वैशिष्ट्ये ओळखली जातात. या वैशिष्ट्यांवर आधारित, एखाद्या दुसऱ्या व्यक्तीच्या चेहऱ्यावर त्या वैशिष्ट्ये लावून डीपफेक व्हिडिओ तयार केला जातो.

डीपफेक तंत्रज्ञानाचा वापर विविध उद्देशांसाठी केला जाऊ शकतो. याचा वापर मनोरंजनासाठी, शिक्षणासाठी किंवा माहिती प्रसारणासाठी केला जाऊ शकतो. तथापि, डीपफेक तंत्रज्ञानाचा वापर चुकीच्या माहितीचा प्रसार करण्यासाठी किंवा एखाद्या व्यक्तीचा गैरवापर करण्यासाठी देखील केला जाऊ शकतो.

डीपफेक तंत्रज्ञानाच्या काही संभाव्य धोक्यांमध्ये हे समाविष्ट आहे:

  • चुकीच्या माहितीचा प्रसार
  • एखाद्या व्यक्तीचा गैरवापर
  • राजकीय गोष्टींवर परिणाम करणे
  • गुन्हेगारी क्रियाकलापांमध्ये वापर

डीपफेक तंत्रज्ञानाच्या धोक्यांपासून बचाव करण्यासाठी, लोकांनी डिपफेक व्हिडिओ ओळखण्याचे मार्ग शिकणे आवश्यक आहे. तसेच, सरकारांनी आणि इतर संस्थांनी डीपफेक व्हिडिओचा वापर चुकीच्या माहितीचा प्रसार करण्यासाठी केला जाऊ नये यासाठी उपाययोजना करणे आवश्यक आहे.

Back to top button