May 19, 2024
Artificial Intelligence on Lok Sabha Elections
Home » लोकसभा निवडणूकांवर कृत्रिम बुद्धिमत्तेचे -” एआय” चे गारुड !
सत्ता संघर्ष

लोकसभा निवडणूकांवर कृत्रिम बुद्धिमत्तेचे -” एआय” चे गारुड !

लोकसभा निवडणूकांवर कृत्रिम बुद्धिमत्तेचे -” एआय” चे गारुड!

भारतीय जनता पक्षाने लोकसभा निवडणुकीसाठी माहिती तंत्रज्ञान व  समाज माध्यमांवर – सोशल मीडियावर – व्यापक लक्ष दिले असून  प्रचारासाठी कृत्रिम बुद्धिमत्तेचा म्हणजे आर्टिफिशियल इंटेलिजन्सचा – ‘एआय’ चा मोठा वापर  करत आहे. उदाहरण द्यायचे झाले तर पंतप्रधान नरेंद्र मोदी यांची  भाषणे आठ  भारतीय भाषांमध्ये देशाच्या कानाकोपऱ्यात पोचवली जात आहेत. 2024 मध्ये होत असलेली लोकसभेची निवडणूक कृत्रिम बुद्धिमत्ता म्हणजे एआय ची निवडणूक ठरणार आहे असे दिसते. 

गेली तीन-चार दशके प्रत्येक लोकसभेच्या  निवडणुकीत वापरले जाणारे तंत्रज्ञान, निवडणुका जिंकण्यासाठी वापरलेली धोरणे, युक्त्या यात सातत्याने बदल होत असून सर्व राजकीय पक्षांकडून नवनवीन तंत्रज्ञानाचा अवलंब केला जात आहे. निवडणुकांमध्ये वापरलेल्या तंत्रज्ञानाचा आढावा घेतला तर 1990 च्या दशकामध्ये तत्कालीन लोकप्रिय असलेल्या  मोबाईलचा वापर करून मतदारांपर्यंत पोचण्याचा प्रयत्न झाला. उमेदवाराच्या आवाजामध्ये  रेकॉर्डिंग करून त्याच्या माध्यमातून  मतदार व मोबाईल धारकाला  मतदान करण्याचे आवाहन केले जात होते. होलोग्राम सारखे तंत्रज्ञान वापरून  काही निवडणुकांमध्ये प्रचार केला होता. गेल्या दोन-तीन निवडणुकांवर लक्ष टाकले तर असे लक्षात येते की समाज माध्यमांचा मोठ्या प्रमाणावर वापर केला जात आहे. 

2014 मधील लोकसभा निवडणुका समाज माध्यमातून लढलेल्या निवडणुका म्हणून ओळखल्या जात होत्या. त्यावेळी फेसबुक हे समाज माध्यम खूप लोकप्रिय होते. भारतीय जनता पक्षाने त्या काळात डिजिटल प्रचारासाठी सुमारे 500 कोटी रुपयांचा खर्च केला होता. त्या माध्यमातून भारतीय जनता पक्ष तरुण पिढीपर्यंत पोचल्याने त्याचा लाभ त्यांना झाला. “फेसबुक ” या समाजा माध्यमाला मिळणाऱ्या ‘लाईक्स’ वरून  नेत्यांची लोकप्रियता  ठरली जात होती.  जगभरातील विविध नेत्यांचे अधिकृत फेसबुक  अकौंट (खाते) बनवले जायचे व त्याला मिळणारे फॉलोअर्स किंवा लाईक्स यावरून त्यांच्या लोकप्रियतेचे मोजमाप  केले जात असे. एकेकाळी ट्विटर या समाज माध्यमाचा  जगभरात मोठा वापर केला जात होता. आज  त्याचे नाव ‘एक्स ‘ असे बदलले  आहे. पंतप्रधान नरेंद्र मोदी यांचे सुमारे एक कोटी साठ लाख पाठीराखे जगभर होते. अमेरिकेचे त्यावेळचे अध्यक्ष बराक ओबामा यांच्या पाठोपाठ मोदी यांची लोकप्रियता  जास्त असल्याचे  सांगितले जात होते.

2019 च्या निवडणुकांमध्ये लोकप्रिय निवडणूक प्रचार सल्लागार शिवम शंकर सिंग यांनी “निवडणुका कशा जिंकाव्यात” याविषयीचे एक पुस्तक प्रकाशित केले होते. त्यात त्यांनी व्हॉट्सअप  समाज माध्यम  निवडणुकांच्या प्रसारासाठी किती परिणामकारकरित्या वापरता येईल हे स्पष्ट केलेले होते. केवळ पक्षांचेच कार्यकर्ते नाही तर तळागाळातील मतदारांपर्यंत पोहोचून त्यांना व्हॉटसअप च्या माध्यमातून प्रचार करणे सोपे जात होते.  भारतासह नायजेरिया व ब्राझील या देशांमध्येही समाज माध्यमांचा मोठ्या प्रमाणावर वापर केला होता.  अनेक राज्यांमध्ये झालेल्या विधानसभा निवडणुकांमध्ये या समाज माध्यमाचा वापर अत्यंत परिणामकारक रित्या करण्यात आला होता. भारतीय जनता पक्षाने अलीकडे प्रसृत केलेल्या लक्षवेधी  जाहिराती त्याची साक्ष देतात.

अमेरिकेतही अध्यक्षीय निवडणुकांचे वारे  वहात आहेत. त्यांच्याकडे समाज माध्यमाचा मोठ्या प्रमाणावर वापर होत आहे. त्यांच्याकडे रिपब्लिकन व डेमोक्रॅट असे दोन प्रमुख पक्ष आहेत. अमेरिकेचे विद्यमान अध्यक्ष जो बायडेन  यांच्या आवाजासदृश्य दूरध्वनी कॉल करून मतदानासाठी न जाण्याचे आवाहन रोबोकॉल  ” एआय”  तंत्रज्ञानाचा वापर करून केले जात होते. अमेरिकेत त्यावर बंदी घालण्यात आल्याचेही जाहीर करण्यात आले. स्लोव्हाकिया  देशातील निवडणुकीत काही नेते व पत्रकार यांच्यातील  संभाषण ‘एआय’ च्या माध्यमातून तयार करून ते फेसबुक वर प्रसारित केले होते. हे संभाषण बनावट होते व त्यासाठी कृत्रिम बुद्धिमत्तेचा वापर करण्यात आला होता. गेल्या वर्षी अर्जेंटिना मधील निवडणुकांमध्ये या कृत्रिम बुद्धिमत्तेचा वापर करून मतदारांना संभ्रमित करण्यात आलेले होते. काही दिवसांपूर्वी डोनाल्ड ट्रम्प यांना अटक केल्याची  एआय निर्मित प्रतिमा प्रसृत केली होती.

भारतातही मध्यप्रदेश किंवा तेलंगण मध्ये झालेल्या विधानसभा निवडणुकांमध्ये ‘डीप फेक” तंत्रज्ञान वापरून मतदारांना भुरळ घालणाऱ्या छोट्या व्हिडिओ क्लिप तयार करण्यात आल्या होत्या. “कौन बनेगा करोडपती”सारख्या लोकप्रिय खेळांचे बनावट व्हिडिओ अमिताभ बच्चन यांच्या आवाजात बनवून निवडणुकांचा प्रचार केला गेला. वेळा मतदारांना चुकीच्या पद्धतीने माहिती दिली जाऊन प्रचार केला गेला. ‘ एआय’चा वापर करून  भारतातही मोठ्या प्रमाणावर आर्थिक फसवणूक केली जात असल्याची उदाहरणे दररोज नव्याने उघडकीस येत आहेत. आत्ताच्या लोकसभा निवडणूकीत  ‘एआय’ चा गैरवापर होईल अशी शक्यता जाणवते.

या पार्श्वभूमीवर महत्त्वाची घटना म्हणजे समाज माध्यमांचा वापर करणाऱ्या जगातील मायक्रोसॉफ्ट, गुगल, ओपन  एआय व मेटा या बहुराष्ट्रीय तंत्रज्ञान कंपन्यांनी कृत्रिम बुद्धिमत्तेचा ‘ एआय’ चा वापर करून मतदारांना फसवले जाणार नाही याची दक्षता  घेत असल्याचे जाहीर केले आहे.  ” मेटा” ही  अमेरिकन  बहुराष्ट्रीय कंपनी   मोठ्या प्रमाणावर या बाबत काम करीत आहे. चुकीच्या kप्रसारणावर बंधने घालणे, निवडणुकांबाबतची माहिती  पारदर्शकता आणि जबाबदारीने  प्रसृत करत आहे. यासाठी त्यांनी जागतिक पातळीवर 40 हजार तंत्रज्ञान व्यक्तींना  नियुक्त केले असून 20  बिलियन डॉलर्स  रक्कम तंत्रज्ञान व मनुष्यबळ यासाठी गुंतवलेली आहे. फेसबुक, इन्स्टाग्राम आणि थ्रेडस् या समाज माध्यमातून प्रसिद्ध होणाऱ्या माहितीची सत्यता तपासण्यासाठी
(फॅक्ट चेक) त्यांनी  15  हजार “कंटेंट रिव्ह्यूवर” नेमले असून एकूण वीस प्रमुख भारतीय भाषांसह 70 भाषांमध्ये त्याची सतत तपासणी सुरू आहे. 

भारतातील समाज माध्यमातील वापरकर्त्यांची प्रचंड संख्या लक्षात घेऊन मेटाने भारतासाठी ‘स्वतंत्र निवडणूक केंद्र’ उभारले असून त्यामध्ये कृत्रिम बुद्धिमत्ता, डेटा सायन्स, इंजीनियरिंग, संशोधन, ऑपरेशन्स कंटेंट पॉलिसी व कायदेशीर बाबींची पूर्तता करणारी यंत्रणा उभारलेली आहे.   ‘ मेटा’च्या विविध समाज माध्यमातून म्हणजे फेसबुक, इंस्टाग्राम व थ्रेड्स याच्यावर चुकीची  माहिती प्रस्तुत केली जात असेल किंवा ज्या माहितीमुळे मतदारांवर दबाव निर्माण होईल किंवा त्यामुळे त्वरित  दंगे धोपे सुरू होण्यास मदत होईल किंवा हल्ले एकमेकांवर हल्ले केले जातील अशा स्वरूपाची माहिती काढून टाकण्यास  प्रारंभ केला आहे. यासाठी त्यांनी 16 भारतीय भाषांमध्ये 11 भागीदारांशी सहकार्य करार केला असून स्वतंत्रपणे सत्यता तपासण्याची यंत्रणा कार्यरत केलेली आहे. विविध माध्यमांवर ब्रेकिंग न्यूज चा सुळसुळाट झालेला असताना त्यातून चुकीची माहिती प्रस्तुत नाही होऊ नये याची दक्षता ‘मेटा’तर्फे घेतली जात आहे. यासाठी त्यांनी  “स्वतंत्र मेटा कंटेंट लायब्ररी” निर्माण केली असून त्याचा वापर सर्व भागीदार संस्था करत आहेत.

कृत्रिम बुद्धिमत्तेच्या क्षेत्रात सध्या जनरेटिव्ह एआयचा दुरुपयोग केला जात असल्याचे लक्षात घेऊन याबाबत अत्यंत गंभीर उपाय योजना हाती घेतल्याचे मेटाने जाहीर केले आहे. यासाठी त्यांनी काही समुदाय मानके आणि मार्गदर्शक तत्वे तयार केली असून त्याचे कोठेही उल्लंघन होते किंवा कसे याची दक्षता घेण्यास  प्रारंभ केला आहे. त्याचप्रमाणे गुगल, ओपन एआय, मायक्रोसॉफ्ट, अडोब, मिडजर्नी किंवा शटर स्टॉक यांच्या माध्यमातून जनरेटिव्ह ए आयचा  वापरून निर्माण केलेल्या छायाचित्रांची छाननी करण्यास प्रारंभ केला आहे.

यासाठी मेटाने खास ग्राहक प्रशिक्षण योजना हाती घेतली असून चुकीची माहिती  प्रसृत केली जाऊ नये म्हणून विशेष मोहीम हाती घेतली आहे. यासाठी स्थापन करण्यात आलेल्या मिसइन्फॉर्मेशन कॉम्बॅट अलायन्स ( एमसीए)  यांच्याबरोबर व्हॉट्सअप हेल्पलाइन सुरू केली आहे. त्यावर विशेष करून डीप फेक,  संशयास्पद माहिती वर  बारीक लक्ष ठेवलेले आहे. त्यामुळे व्हॉटसअप सारख्या माध्यमातून प्रसृत होणाऱ्या माहिती व बंधने घातली आहेत. पूर्वी कोणताही एखादा संदेश पाच समूहांना पाठवता येत असे आता त्यावर निर्बंध घालून तो एका वेळी  एकाच समूहाला पाठवता येईल अशी व्यवस्था केली आहे. त्या दृष्टिकोनातून व्हॉट्सअप मधील संदेश व माहितीला जास्त खाजगी किंवा प्रायव्हसीला प्राधान्य देण्यात  आले आहे. ‘गुगल’ने ही त्यांच्या यूट्यूब सारख्या समाज प्रसारमाध्यमांवर योग्य ते निर्बंध लादण्यास प्रारंभ केला आहे.

एकंदरीत लोकसभा निवडणुकांवर कृत्रिम बुद्धिमत्तेचे गारुड असले तरी चार जूनला निवडणुकांचा निकाल काय लागतोय यावर बऱ्याच गोष्टी अवलंबून आहेत.  सध्याच्या माहिती  तंत्रज्ञानाच्या युगात कोणताही राजकीय पक्ष किंवा संघटना त्यातून बाजूला राहू शकत नाही. मात्र  ‘ एआय’ तंत्रज्ञान वापराचा अतिरेक होऊन आगामी काळात तो “भस्मासुर” ठरणार नाही याची दक्षता  घेऊन सर्वमान्य नियमावली, निर्बंध लादण्याची आवश्यकता आहे.

Related posts

कोडगे…

रत्नाकर राज्यस्तरीय काव्य पुरस्कारासाठी पुस्तके पाठवण्याचे आवाहन

शेतकऱ्यांना कार्बन साक्षर बनविण्याची गरज

Leave a Comment

श्री अथर्व प्रकाशनचे इये मराठीचिये नगरी हे मिडिया व्यासपिठ आहे. अध्यात्म, शेती, पर्यावरण, ग्रामीण विकास यासह आता पर्यटन, राजकारण, समाजकारण, नवं संशोधन, साहित्य, मनोरंजन, आरोग्य आदी विषयांना वाहून घेतलेले हे न्युज पोर्टल आहे. संपर्कः श्री अथर्व प्रकाशन, 157, साळोखेनगर, कळंबा रोड, कोल्हापूर 416007 मोबाईलः 9011087406 WhatsApp - 8999732685, 9011087406