कृत्रिम बुद्धिमत्ता: चुकीच्या वापरामुळे होणारे लपलेले धोके


“थर्मोस्टॅटसारख्या साध्या मशीननाही काही प्रमाणात ‘समज’ असते. समस्या सोडवणाऱ्या बहुतेक मशीनमध्ये ही क्षमता आढळते.”
— जॉन मॅकार्थी, कृत्रिम बुद्धिमत्तेचे जनक


कृत्रिम बुद्धिमत्ता (Artificial Intelligence – AI) माणसासाठी खूप फायदेशीर ठरू शकते. पण ती योग्य पद्धतीने वापरली नाही, तर समाजाला मोठे नुकसानही होऊ शकते. डिझाइनमध्ये किंवा वापरात झालेल्या छोट्या चुका पक्षपात, गोपनीयतेचा भंग आणि सामाजिक धोके निर्माण करू शकतात. या लेखात अशा काही महत्त्वाच्या धोक्यांची सोप्या भाषेत चर्चा केली आहे.


अल्गोरिदममधील पक्षपात


AI प्रणाली डेटावरून शिकते. पण जर तो डेटा माणसांच्या चुकीच्या समजुतींनी भरलेला असेल, तर AI देखील तसाच पक्षपाती निर्णय देते. उदाहरणार्थ, काही कंपन्यांच्या भरती प्रक्रियेत AI ने महिलांना नाकारले, कारण जुना डेटा पुरुषांना जास्त प्राधान्य देणारा होता.


कॅथी ओ’नील यांच्या Weapons of Math Destruction या पुस्तकात सांगितले आहे की असे डेटा-आधारित मॉडेल नोकरी, कर्ज आणि पोलिसिंगमध्ये असमानता वाढवतात. योग्य तपासणी केल्यास हे टाळता येऊ शकते, पण दुर्लक्ष केल्यास दीर्घकालीन नुकसान होते.


स्वयंचलनामुळे नोकऱ्यांवर परिणाम


AI मुळे अनेक कामे स्वयंचलित होत आहेत. कारखाने, कार्यालये आणि सेवा क्षेत्रातील अनेक कर्मचाऱ्यांच्या नोकऱ्या धोक्यात येत आहेत. योग्य प्रशिक्षण न दिल्यास लाखो लोक बेरोजगार होऊ शकतात.
अहवाल दर्शवतात की कमी कौशल्याच्या नोकऱ्यांवर याचा जास्त परिणाम होतो आणि आर्थिक दरी वाढते. कौशल्य विकास कार्यक्रमांसह AI चा वापर केल्यास प्रगती आणि माणूस यामध्ये समतोल राखता येतो.


गोपनीयता आणि देखरेखीचे धोके


AI कॅमेरे, मोबाइल अ‍ॅप्स आणि इतर साधनांमधून मोठ्या प्रमाणात वैयक्तिक माहिती गोळा करते. नियम कमकुवत असतील तर कंपन्या लोकांची परवानगी न घेता त्यांच्यावर नजर ठेवू शकतात. यामुळे लोकांचा विश्वास कमी होतो.
आरोग्य क्षेत्रात पक्षपाती AI मुळे गरीब आणि दुर्बल गटांना योग्य उपचार मिळत नाहीत. मजबूत कायदे असतील तर AI चा सुरक्षित वापर शक्य आहे.


डीपफेकचा धोका


डीपफेक तंत्रज्ञानामुळे खोटे व्हिडिओ किंवा आवाज तयार करता येतात. यामुळे खोट्या बातम्या वेगाने पसरतात.
2023 मध्ये हाँगकाँगमध्ये एका कर्मचाऱ्याला बनावट CEO च्या व्हिडिओ कॉलद्वारे फसवून 25 दशलक्ष डॉलर्स पाठवायला लावले गेले. अशा प्रकारच्या घटना लोकशाही, निवडणुका आणि समाजातील विश्वासाला धोका पोहोचवतात.


चुकीच्या माहितीचा प्रसार


डीपफेकमुळे खरी आणि खोटी माहिती ओळखणे कठीण होत आहे. युक्रेनच्या राष्ट्राध्यक्षांचा बनावट व्हिडिओ युद्धाच्या काळात सोशल मीडियावर पसरवण्यात आला होता.
वृत्तपत्रांच्या मते, डीपफेक फाइल्सची संख्या 2025 पर्यंत 5 लाखांवरून 80 लाखांपर्यंत जाण्याची शक्यता आहे. तथ्य तपासणी साधने असली तरी AI चा वेग त्यापेक्षा जास्त आहे.


सुपरइंटेलिजन्सबाबत इशारे


अत्यंत प्रगत AI माणसांपेक्षा जास्त हुशार होऊ शकते. जर तिची उद्दिष्टे माणसांच्या हिताशी जुळली नाहीत, तर ती धोकादायक ठरू शकते.
निक बॉस्ट्रॉम यांच्या Superintelligence या पुस्तकात अशा AI मुळे नेटवर्क हॅकिंग किंवा जगावर नियंत्रण मिळवण्याचा धोका सांगितला आहे. त्यामुळे आत्ताच जागतिक नियम बनवणे गरजेचे आहे.


नैतिक मार्ग पुढे


कॅथी ओ’नील आणि निक बॉस्ट्रॉम यांसारखे लेखक AI साठी चाचणी, पारदर्शकता आणि मानवी नियंत्रण यावर भर देतात. सरकारे पक्षपात आणि फसवणूक कमी करण्यासाठी तपासणी नियम लागू करत आहेत.
प्राध्यापक आणि शिक्षक म्हणून जबाबदार AI वापराबाबत शिक्षण देणे खूप महत्त्वाचे आहे.


इतर महत्त्वाचे धोके


AI मुळे सायबर हल्ले, डेटा बिघडवणे आणि फसवणूक वाढत आहे. मोठ्या AI मॉडेल्सना प्रशिक्षण देण्यासाठी खूप ऊर्जा लागते, ज्यामुळे पर्यावरणाला हानी पोहोचते.
स्वयंचलित शस्त्रे अनियंत्रित हिंसाचार वाढवू शकतात. AI वर जास्त अवलंबून राहिल्याने मानवी कौशल्ये आणि मानसिक आरोग्यावर परिणाम होतो. अनेक AI निर्णय “ब्लॅक बॉक्स” स्वरूपाचे असल्याने ते समजावून सांगता येत नाहीत, जे गंभीर क्षेत्रात धोकादायक ठरते.


AI मधील धोके तंत्रज्ञानामुळे नाही, तर चुकीच्या निर्णयांमुळे निर्माण होतात. योग्य काळजी, नियम आणि नैतिकता पाळल्यास समाजाला AI कडून जास्त फायदे मिळू शकतात.


— श्री. सुरज दिलीपराव कुलकर्णी

Comments

Leave a Reply