Technology Alert: दिल झूठा और चेहरा भी झूठा!
Technology Alert India: जबर्दस्त कन्फ्यूजन फैलाने के लिए अब हमारे बीच आर्टीफीशियल इंटेलिजेंस नामक जिन्न आ चुका है।
Technology Alert India: नई खबर, नई जानकारी भला किसको नहीं चाहिए? सच ही है कि सब कुछ जानकारी पर ही टिका है। जिसे आज ज्ञान व सूचना में बाँट दिया गया है। अनंत काल से जानकारी ही चीजों को आगे बढ़ाती रही है। जानकारी ही जीवन है, ऐसा कहा जा सकता है। आप नहीं चाहेंगे तब भी यह मिलती रहेगी।
जानकारी, खबर या सूचना कुछ भी कह लें, हमारे पास सोर्स सिर्फ मीडिया ही तो है।अखबार, टीवी, इंटरनेट, रेडियो। इन दिनों सोशल मीडिया भी। जिसने जो परोस दिया वही ग्रहण कर लिए। अब चाहे वह नकली हो या असली। सो, सूचनाओं के इस समंदर में सच्चाई ढूंढ सको तो ढूंढो। सच्चाई भी 24 कैरट वाली।
इसमें एक पेंच है। समय और काल बदलने के साथ साथ जानकारी का अस्तित्व भी मेकओवर में चला गया है। अब जो जानकारी आपको मिल रही है, वह सच्ची है कि नहीं, कितनी सच्ची है, कितनी घुमाई गई है, इसकी गारंटी कोई नहीं ले सकता। इस ज़माने का सूचना मंत्र है - सब कुछ मायावी है, सब माया है। टीवी पर आप जो देख सुन रहे हैं, वो सब आंखों कानों का धोखा हो सकता है। लेकिन इसे पकड़ेगा कौन?
हाल ही में भारत के समाचार प्रसारण और डिजिटल मानक प्राधिकरण (एनबीडीएसए) ने तीन तीन नामचीन टीवी चैनलों के खिलाफ कार्रवाई की है, जुर्माना ठोंका है। अपराध यह था कि ये चैनल गुमराह करने वाली, झूठी और गढ़ी हुई कहानियां पेश कर रहे थे। किसी जागरूक ने शिकायत की, जांच हुई और सज़ा हुई।
लेकिन ये तो मात्र एक कार्रवाई है, यहां तो रोज़ का यही ढर्रा है। टीवी का क्या कहना, समूचा सोशल मीडिया, वेबसाइट्स, वीडियो, अखबार सब में कोई अछूता नहीं है। कहने को एक्सक्लूसिव और ब्रेकिंग न्यूज़ परोसी जा रही हैं लेकिन न कुछ इनमें ब्रेकिंग होता है न एक्सक्लूसिव। लिखने, बोलने या ब्रॉडकास्ट करने वाले को खुद कुछ सच्चाई नहीं पता होती।
दरअसल, ये सब बिजनेस का हिस्सा हैं। और जैसा पहले कपड़े की दुकानों में लिख कर टंगा रहता था कि 'फ़ैशन के इस दौर में गारंटी की उम्मीद न करें' ठीक यही बात संपूर्ण सूचना तंत्र पर आज लागू होती है। यह स्थिति तो अभी और परवान चढ़ेगी। क्योंकि जबर्दस्त कन्फ्यूजन फैलाने के लिए अब हमारे बीच आर्टीफीशियल इंटेलिजेंस नामक जिन्न आ चुका है। अब क्या फेक और क्या डीपफेक और क्या असली, अच्छे अच्छे नहीं पहचान सकते। जब आपकी आवाज मशीन से निकाल ली जाए, जब साक्षात आपको कहीं भी किसी भी स्थिति में दिखा दिया जाए तो उसे क्या ही कहेंगे?
ये खेल गंभीर स्थितियों में अत्यंत गंभीर नतीजा पैदा कर सकते हैं। समुदायों के बीच वैमनस्यता, ठगी, धोखाधड़ी - कुछ भी किया जा सकता है। सबसे बड़ा खतरा तो ये है कि चुनाव जैसी महत्वपूर्ण प्रक्रिया में बड़ा खेल हो सकता है। मतदाताओं को भ्रमित करने के लिये नकली वीडियो, ऑडियो या इमेज किसी भी चीज का इस्तेमाल मुमकिन है। ये कोई अनुमान या अटकलबाजी नहीं है, ये सब हो चुका है, हो रहा है।
दुनिया में हाल के चुनाव अभियानों से इस बात की झलक मिलती है कि कैसे एआई चुनाव लड़ने के तरीके को बदल रही है। उम्मीदवारों के जेनेरिक एआई कार्टून अवतारों से लेकर स्वर्ग के पार से जारी किए गए राजनीतिक समर्थन तक, इमोशन-ट्रैकिंग चैटबॉट्स द्वारा लुभावने भाषण लिखने तक, पार्टियां नई तकनीक को उन तरीकों से इस्तेमाल में ला रही हैं, जिनकी इसके आविष्कारकों ने कल्पना भी नहीं की होगी।
अब मतदाता के विचारों, उसके समर्थन, उसके वोट की दिशा बदलने के लिए किसी प्रत्याशी या पार्टी की भौतिक उपस्थिति जरूरी नहीं रही है। एक एक मतदाता, एक एक बूथ और बीते ट्रेंड्स के बारे में पूरी जानकारी एआई पेश कर देता है। जो काम बड़ी एजेंसियां और कंसल्टेंट करते थे, वो अब एआई टूल्स कर रहे हैं। मज़े की बात ये कि ये सब अब सभी की पहुंच के दायरे में है। अब पैसा कोई फैक्टर नहीं रहा। बस, दिमाग लगाना है।
एआई ने हाल के पाकिस्तानी चुनावों में भी महत्वपूर्ण भूमिका निभाई, जिससे पूर्व प्रधानमंत्री इमरान खान जेल के भीतर से प्रचार करते दिखाई पड़े। इन वीडियो ने मतदाताओं पर बड़ा प्रभाव डाला। अमेरिकी कंपनी इलेवनलैब्स की तकनीक का उपयोग करके बनाए गए वीडियो इतने असली जैसे थे मानो इमरान खान जेल से भाषण दे रहे हैं।
पार्टियों द्वारा अपने फायदे के लिए एआई डीपफेक को इस्तेमाल करने का एक उदाहरण भारत में भी नज़र आया जहाँ मृत राजनेताओं से भाषण दिला दिया गया। बात तमिलनाडु की है जहां के दिग्गज नेता दिवंगत एम करुणानिधि के वीडियो पिछले कई महीनों से मीडिया कार्यक्रमों और पुस्तक लॉन्च पर दिखाई दे रहे हैं। जिसमें वह अपने बेटे, तमिलनाडु के मुख्यमंत्री एमके स्टालिन के नेतृत्व की प्रशंसा करते नजर आते हैं। ये वीडियो भारत की ही एक कंपनी ने बनाया है। कंपनी ने लोकसभा चुनावों से पहले ही महात्मा गांधी सहित 45 वर्तमान और पूर्व नेताओं की आवाज़ों की क्लोनिंग कर ली है।
अमेरिका में भी इसी साल राष्ट्रपति चुनाव होने हैं। वहां तो बहुत चिंता है कि आर्टिफीशियल इंटेलिजेंस से वोटिंग ही पलट दी जा सकती है। चिंता इतनी ज्यादा है कि माइक्रोसॉफ्ट, फेसबुक वाली मेटा, गूगल, अमेज़ॅन, आईबीएम, एक्स, एडोब, ओपनएआई और टिकटॉक जैसी दिग्गज टेक कंपनियों ने दुनिया भर में लोकतांत्रिक चुनावों को बाधित करने, वोटरों को धोखा देने के उद्देश्य लिए एआई टूल्स के इस्तेमाल को रोकने की ठानी है और एक समझौता कर डाला है।
कहा जाता है कि खुराफाती दिमाग, सीधे सच्चे दिमाग से दो कदम आगे चलता है। मतलब ये कि गलत काम करने वाले हर चीज की काट निकाल लेते हैं। टेक्नोलॉजी में तो ये बहुत हावी है। ऐसे में टेक दिग्गज कितना कामयाब हो पाएंगे, कहना कठिन है।
फिर उसी बात पर लौटते हैं - टीवी चैनलों की कारस्तानियों पर। जान लीजिये कि फेक न्यूज़ शब्द कुछ ही साल पहले ही अस्तित्व में आया है। लेकिन आज ये बोलचाल की भाषा में घुल मिल चुका है। यह इसकी व्यापकता को दर्शाता है। भले ही "फेक" को आप नज़रंदाज़ कर देते हों लेकिन हर कोई ऐसा नहीं करता। ज्यादातर लोग उसे सच और तथ्य मान लेते हैं।
समस्या बड़ी है जिसका कोई आसान जवाब तो दूर, कोई ठोस समाधान है ही नहीं। सिर्फ एक तोड़ है - इंसान के अपने दिमाग, अपने तर्क, अपने निर्णय का इस्तेमाल। दुर्भाग्य से यही सबसे बड़ी कमी भी है। जब तक अपने विवेक का इस्तेमाल नहीं करेंगे, फेक में उलझते जाएंगे। जिम्मेदारी आपकी है, कोई और समझाने आने वाला नहीं है। खुद समझिए और फेक-डीपफेक-क्लोन के चंगुल से बचिए। जान लीजिए कि अभी तो सिर्फ शुरुआत है। अभी तो न जाने क्या क्या आना बाकी है।
( लेखक पत्रकार हैं ।)