Technology Alert: दिल झूठा और चेहरा भी झूठा!

Technology Alert India: जबर्दस्त कन्फ्यूजन फैलाने के लिए अब हमारे बीच आर्टीफीशियल इंटेलिजेंस नामक जिन्न आ चुका है।

Written By :  Yogesh Mishra
Update:2024-03-05 18:57 IST

Technology Alert Fake News Chatbot AI Deepfake App Scams

Technology Alert India: नई खबर, नई जानकारी भला किसको नहीं चाहिए? सच ही है कि सब कुछ जानकारी पर ही टिका है। जिसे आज ज्ञान व सूचना में बाँट दिया गया है। अनंत काल से जानकारी ही चीजों को आगे बढ़ाती रही है। जानकारी ही जीवन है, ऐसा कहा जा सकता है। आप नहीं चाहेंगे तब भी यह मिलती रहेगी।

जानकारी, खबर या सूचना कुछ भी कह लें, हमारे पास सोर्स सिर्फ मीडिया ही तो है।अखबार, टीवी, इंटरनेट, रेडियो। इन दिनों सोशल मीडिया भी। जिसने जो परोस दिया वही ग्रहण कर लिए। अब चाहे वह नकली हो या असली। सो, सूचनाओं के इस समंदर में सच्चाई ढूंढ सको तो ढूंढो। सच्चाई भी 24 कैरट वाली।

इसमें एक पेंच है। समय और काल बदलने के साथ साथ जानकारी का अस्तित्व भी मेकओवर में चला गया है। अब जो जानकारी आपको मिल रही है, वह सच्ची है कि नहीं, कितनी सच्ची है, कितनी घुमाई गई है, इसकी गारंटी कोई नहीं ले सकता। इस ज़माने का सूचना मंत्र है - सब कुछ मायावी है, सब माया है। टीवी पर आप जो देख सुन रहे हैं, वो सब आंखों कानों का धोखा हो सकता है। लेकिन इसे पकड़ेगा कौन?

हाल ही में भारत के समाचार प्रसारण और डिजिटल मानक प्राधिकरण (एनबीडीएसए) ने तीन तीन नामचीन टीवी चैनलों के खिलाफ कार्रवाई की है, जुर्माना ठोंका है। अपराध यह था कि ये चैनल गुमराह करने वाली, झूठी और गढ़ी हुई कहानियां पेश कर रहे थे। किसी जागरूक ने शिकायत की, जांच हुई और सज़ा हुई।


लेकिन ये तो मात्र एक कार्रवाई है, यहां तो रोज़ का यही ढर्रा है। टीवी का क्या कहना, समूचा सोशल मीडिया, वेबसाइट्स, वीडियो, अखबार सब में कोई अछूता नहीं है। कहने को एक्सक्लूसिव और ब्रेकिंग न्यूज़ परोसी जा रही हैं लेकिन न कुछ इनमें ब्रेकिंग होता है न एक्सक्लूसिव। लिखने, बोलने या ब्रॉडकास्ट करने वाले को खुद कुछ सच्चाई नहीं पता होती।

दरअसल, ये सब बिजनेस का हिस्सा हैं। और जैसा पहले कपड़े की दुकानों में लिख कर टंगा रहता था कि 'फ़ैशन के इस दौर में गारंटी की उम्मीद न करें' ठीक यही बात संपूर्ण सूचना तंत्र पर आज लागू होती है। यह स्थिति तो अभी और परवान चढ़ेगी। क्योंकि जबर्दस्त कन्फ्यूजन फैलाने के लिए अब हमारे बीच आर्टीफीशियल इंटेलिजेंस नामक जिन्न आ चुका है। अब क्या फेक और क्या डीपफेक और क्या असली, अच्छे अच्छे नहीं पहचान सकते। जब आपकी आवाज मशीन से निकाल ली जाए, जब साक्षात आपको कहीं भी किसी भी स्थिति में दिखा दिया जाए तो उसे क्या ही कहेंगे?


ये खेल गंभीर स्थितियों में अत्यंत गंभीर नतीजा पैदा कर सकते हैं। समुदायों के बीच वैमनस्यता, ठगी, धोखाधड़ी - कुछ भी किया जा सकता है। सबसे बड़ा खतरा तो ये है कि चुनाव जैसी महत्वपूर्ण प्रक्रिया में बड़ा खेल हो सकता है। मतदाताओं को भ्रमित करने के लिये नकली वीडियो, ऑडियो या इमेज किसी भी चीज का इस्तेमाल मुमकिन है। ये कोई अनुमान या अटकलबाजी नहीं है, ये सब हो चुका है, हो रहा है।

दुनिया में हाल के चुनाव अभियानों से इस बात की झलक मिलती है कि कैसे एआई चुनाव लड़ने के तरीके को बदल रही है। उम्मीदवारों के जेनेरिक एआई कार्टून अवतारों से लेकर स्वर्ग के पार से जारी किए गए राजनीतिक समर्थन तक, इमोशन-ट्रैकिंग चैटबॉट्स द्वारा लुभावने भाषण लिखने तक, पार्टियां नई तकनीक को उन तरीकों से इस्तेमाल में ला रही हैं, जिनकी इसके आविष्कारकों ने कल्पना भी नहीं की होगी।

अब मतदाता के विचारों, उसके समर्थन, उसके वोट की दिशा बदलने के लिए किसी प्रत्याशी या पार्टी की भौतिक उपस्थिति जरूरी नहीं रही है। एक एक मतदाता, एक एक बूथ और बीते ट्रेंड्स के बारे में पूरी जानकारी एआई पेश कर देता है। जो काम बड़ी एजेंसियां और कंसल्टेंट करते थे, वो अब एआई टूल्स कर रहे हैं। मज़े की बात ये कि ये सब अब सभी की पहुंच के दायरे में है। अब पैसा कोई फैक्टर नहीं रहा। बस, दिमाग लगाना है।

एआई ने हाल के पाकिस्तानी चुनावों में भी महत्वपूर्ण भूमिका निभाई, जिससे पूर्व प्रधानमंत्री इमरान खान जेल के भीतर से प्रचार करते दिखाई पड़े। इन वीडियो ने मतदाताओं पर बड़ा प्रभाव डाला। अमेरिकी कंपनी इलेवनलैब्स की तकनीक का उपयोग करके बनाए गए वीडियो इतने असली जैसे थे मानो इमरान खान जेल से भाषण दे रहे हैं।


पार्टियों द्वारा अपने फायदे के लिए एआई  डीपफेक को इस्तेमाल करने का एक उदाहरण भारत में भी नज़र आया जहाँ मृत राजनेताओं से भाषण दिला दिया गया। बात तमिलनाडु की है जहां के दिग्गज नेता दिवंगत एम करुणानिधि के वीडियो पिछले कई महीनों से मीडिया कार्यक्रमों और पुस्तक लॉन्च पर दिखाई दे रहे हैं। जिसमें वह अपने बेटे, तमिलनाडु के मुख्यमंत्री एमके स्टालिन के नेतृत्व की प्रशंसा करते नजर आते हैं। ये वीडियो भारत की ही एक कंपनी ने बनाया है। कंपनी ने लोकसभा चुनावों से पहले ही महात्मा गांधी सहित 45  वर्तमान और पूर्व नेताओं की आवाज़ों की क्लोनिंग कर ली है।

अमेरिका में भी इसी साल राष्ट्रपति चुनाव होने हैं। वहां तो बहुत चिंता है कि आर्टिफीशियल इंटेलिजेंस से वोटिंग ही पलट दी जा सकती है। चिंता इतनी ज्यादा है कि माइक्रोसॉफ्ट,  फेसबुक वाली मेटा, गूगल,  अमेज़ॅन,  आईबीएम, एक्स, एडोब, ओपनएआई और टिकटॉक जैसी दिग्गज टेक कंपनियों ने दुनिया भर में लोकतांत्रिक चुनावों को बाधित करने, वोटरों को धोखा देने के उद्देश्य लिए एआई  टूल्स के इस्तेमाल को रोकने की ठानी है और एक समझौता कर डाला है।

कहा जाता है कि खुराफाती दिमाग, सीधे सच्चे दिमाग से दो कदम आगे चलता है। मतलब ये कि गलत काम करने वाले हर चीज की काट निकाल लेते हैं। टेक्नोलॉजी में तो ये बहुत हावी है। ऐसे में टेक दिग्गज कितना कामयाब हो पाएंगे, कहना कठिन है।

फिर उसी बात पर लौटते हैं - टीवी चैनलों की कारस्तानियों पर। जान लीजिये कि फेक न्यूज़ शब्द कुछ ही साल पहले ही अस्तित्व में आया है। लेकिन आज ये बोलचाल की भाषा में घुल मिल चुका है। यह इसकी व्यापकता को दर्शाता है। भले ही "फेक" को आप नज़रंदाज़ कर देते हों लेकिन हर कोई ऐसा नहीं करता। ज्यादातर लोग उसे सच और तथ्य मान लेते हैं।

समस्या बड़ी है जिसका कोई आसान जवाब तो दूर, कोई ठोस समाधान है ही नहीं। सिर्फ एक तोड़ है - इंसान के अपने दिमाग, अपने तर्क, अपने निर्णय का इस्तेमाल। दुर्भाग्य से यही सबसे बड़ी कमी भी है। जब तक अपने विवेक का इस्तेमाल नहीं करेंगे, फेक में उलझते जाएंगे। जिम्मेदारी आपकी है, कोई और समझाने आने वाला नहीं है। खुद समझिए और फेक-डीपफेक-क्लोन के चंगुल से बचिए। जान लीजिए कि अभी तो सिर्फ शुरुआत है। अभी तो न जाने क्या क्या आना बाकी है।

( लेखक पत्रकार हैं ।)

Tags:    

Similar News