TRENDING TAGS :

Aaj Ka Rashifal

Technology Alert: दिल झूठा और चेहरा भी झूठा!

Technology Alert India: जबर्दस्त कन्फ्यूजन फैलाने के लिए अब हमारे बीच आर्टीफीशियल इंटेलिजेंस नामक जिन्न आ चुका है।

Yogesh Mishra
Written By Yogesh Mishra
Published on: 5 March 2024 6:57 PM IST
Technology Alert Fake News Chatbot AI Deepfake App Scams
X

Technology Alert Fake News Chatbot AI Deepfake App Scams

Technology Alert India: नई खबर, नई जानकारी भला किसको नहीं चाहिए? सच ही है कि सब कुछ जानकारी पर ही टिका है। जिसे आज ज्ञान व सूचना में बाँट दिया गया है। अनंत काल से जानकारी ही चीजों को आगे बढ़ाती रही है। जानकारी ही जीवन है, ऐसा कहा जा सकता है। आप नहीं चाहेंगे तब भी यह मिलती रहेगी।

जानकारी, खबर या सूचना कुछ भी कह लें, हमारे पास सोर्स सिर्फ मीडिया ही तो है।अखबार, टीवी, इंटरनेट, रेडियो। इन दिनों सोशल मीडिया भी। जिसने जो परोस दिया वही ग्रहण कर लिए। अब चाहे वह नकली हो या असली। सो, सूचनाओं के इस समंदर में सच्चाई ढूंढ सको तो ढूंढो। सच्चाई भी 24 कैरट वाली।

इसमें एक पेंच है। समय और काल बदलने के साथ साथ जानकारी का अस्तित्व भी मेकओवर में चला गया है। अब जो जानकारी आपको मिल रही है, वह सच्ची है कि नहीं, कितनी सच्ची है, कितनी घुमाई गई है, इसकी गारंटी कोई नहीं ले सकता। इस ज़माने का सूचना मंत्र है - सब कुछ मायावी है, सब माया है। टीवी पर आप जो देख सुन रहे हैं, वो सब आंखों कानों का धोखा हो सकता है। लेकिन इसे पकड़ेगा कौन?

हाल ही में भारत के समाचार प्रसारण और डिजिटल मानक प्राधिकरण (एनबीडीएसए) ने तीन तीन नामचीन टीवी चैनलों के खिलाफ कार्रवाई की है, जुर्माना ठोंका है। अपराध यह था कि ये चैनल गुमराह करने वाली, झूठी और गढ़ी हुई कहानियां पेश कर रहे थे। किसी जागरूक ने शिकायत की, जांच हुई और सज़ा हुई।


लेकिन ये तो मात्र एक कार्रवाई है, यहां तो रोज़ का यही ढर्रा है। टीवी का क्या कहना, समूचा सोशल मीडिया, वेबसाइट्स, वीडियो, अखबार सब में कोई अछूता नहीं है। कहने को एक्सक्लूसिव और ब्रेकिंग न्यूज़ परोसी जा रही हैं लेकिन न कुछ इनमें ब्रेकिंग होता है न एक्सक्लूसिव। लिखने, बोलने या ब्रॉडकास्ट करने वाले को खुद कुछ सच्चाई नहीं पता होती।

दरअसल, ये सब बिजनेस का हिस्सा हैं। और जैसा पहले कपड़े की दुकानों में लिख कर टंगा रहता था कि 'फ़ैशन के इस दौर में गारंटी की उम्मीद न करें' ठीक यही बात संपूर्ण सूचना तंत्र पर आज लागू होती है। यह स्थिति तो अभी और परवान चढ़ेगी। क्योंकि जबर्दस्त कन्फ्यूजन फैलाने के लिए अब हमारे बीच आर्टीफीशियल इंटेलिजेंस नामक जिन्न आ चुका है। अब क्या फेक और क्या डीपफेक और क्या असली, अच्छे अच्छे नहीं पहचान सकते। जब आपकी आवाज मशीन से निकाल ली जाए, जब साक्षात आपको कहीं भी किसी भी स्थिति में दिखा दिया जाए तो उसे क्या ही कहेंगे?


ये खेल गंभीर स्थितियों में अत्यंत गंभीर नतीजा पैदा कर सकते हैं। समुदायों के बीच वैमनस्यता, ठगी, धोखाधड़ी - कुछ भी किया जा सकता है। सबसे बड़ा खतरा तो ये है कि चुनाव जैसी महत्वपूर्ण प्रक्रिया में बड़ा खेल हो सकता है। मतदाताओं को भ्रमित करने के लिये नकली वीडियो, ऑडियो या इमेज किसी भी चीज का इस्तेमाल मुमकिन है। ये कोई अनुमान या अटकलबाजी नहीं है, ये सब हो चुका है, हो रहा है।

दुनिया में हाल के चुनाव अभियानों से इस बात की झलक मिलती है कि कैसे एआई चुनाव लड़ने के तरीके को बदल रही है। उम्मीदवारों के जेनेरिक एआई कार्टून अवतारों से लेकर स्वर्ग के पार से जारी किए गए राजनीतिक समर्थन तक, इमोशन-ट्रैकिंग चैटबॉट्स द्वारा लुभावने भाषण लिखने तक, पार्टियां नई तकनीक को उन तरीकों से इस्तेमाल में ला रही हैं, जिनकी इसके आविष्कारकों ने कल्पना भी नहीं की होगी।

अब मतदाता के विचारों, उसके समर्थन, उसके वोट की दिशा बदलने के लिए किसी प्रत्याशी या पार्टी की भौतिक उपस्थिति जरूरी नहीं रही है। एक एक मतदाता, एक एक बूथ और बीते ट्रेंड्स के बारे में पूरी जानकारी एआई पेश कर देता है। जो काम बड़ी एजेंसियां और कंसल्टेंट करते थे, वो अब एआई टूल्स कर रहे हैं। मज़े की बात ये कि ये सब अब सभी की पहुंच के दायरे में है। अब पैसा कोई फैक्टर नहीं रहा। बस, दिमाग लगाना है।

एआई ने हाल के पाकिस्तानी चुनावों में भी महत्वपूर्ण भूमिका निभाई, जिससे पूर्व प्रधानमंत्री इमरान खान जेल के भीतर से प्रचार करते दिखाई पड़े। इन वीडियो ने मतदाताओं पर बड़ा प्रभाव डाला। अमेरिकी कंपनी इलेवनलैब्स की तकनीक का उपयोग करके बनाए गए वीडियो इतने असली जैसे थे मानो इमरान खान जेल से भाषण दे रहे हैं।


पार्टियों द्वारा अपने फायदे के लिए एआई डीपफेक को इस्तेमाल करने का एक उदाहरण भारत में भी नज़र आया जहाँ मृत राजनेताओं से भाषण दिला दिया गया। बात तमिलनाडु की है जहां के दिग्गज नेता दिवंगत एम करुणानिधि के वीडियो पिछले कई महीनों से मीडिया कार्यक्रमों और पुस्तक लॉन्च पर दिखाई दे रहे हैं। जिसमें वह अपने बेटे, तमिलनाडु के मुख्यमंत्री एमके स्टालिन के नेतृत्व की प्रशंसा करते नजर आते हैं। ये वीडियो भारत की ही एक कंपनी ने बनाया है। कंपनी ने लोकसभा चुनावों से पहले ही महात्मा गांधी सहित 45 वर्तमान और पूर्व नेताओं की आवाज़ों की क्लोनिंग कर ली है।

अमेरिका में भी इसी साल राष्ट्रपति चुनाव होने हैं। वहां तो बहुत चिंता है कि आर्टिफीशियल इंटेलिजेंस से वोटिंग ही पलट दी जा सकती है। चिंता इतनी ज्यादा है कि माइक्रोसॉफ्ट, फेसबुक वाली मेटा, गूगल, अमेज़ॅन, आईबीएम, एक्स, एडोब, ओपनएआई और टिकटॉक जैसी दिग्गज टेक कंपनियों ने दुनिया भर में लोकतांत्रिक चुनावों को बाधित करने, वोटरों को धोखा देने के उद्देश्य लिए एआई टूल्स के इस्तेमाल को रोकने की ठानी है और एक समझौता कर डाला है।

कहा जाता है कि खुराफाती दिमाग, सीधे सच्चे दिमाग से दो कदम आगे चलता है। मतलब ये कि गलत काम करने वाले हर चीज की काट निकाल लेते हैं। टेक्नोलॉजी में तो ये बहुत हावी है। ऐसे में टेक दिग्गज कितना कामयाब हो पाएंगे, कहना कठिन है।

फिर उसी बात पर लौटते हैं - टीवी चैनलों की कारस्तानियों पर। जान लीजिये कि फेक न्यूज़ शब्द कुछ ही साल पहले ही अस्तित्व में आया है। लेकिन आज ये बोलचाल की भाषा में घुल मिल चुका है। यह इसकी व्यापकता को दर्शाता है। भले ही "फेक" को आप नज़रंदाज़ कर देते हों लेकिन हर कोई ऐसा नहीं करता। ज्यादातर लोग उसे सच और तथ्य मान लेते हैं।

समस्या बड़ी है जिसका कोई आसान जवाब तो दूर, कोई ठोस समाधान है ही नहीं। सिर्फ एक तोड़ है - इंसान के अपने दिमाग, अपने तर्क, अपने निर्णय का इस्तेमाल। दुर्भाग्य से यही सबसे बड़ी कमी भी है। जब तक अपने विवेक का इस्तेमाल नहीं करेंगे, फेक में उलझते जाएंगे। जिम्मेदारी आपकी है, कोई और समझाने आने वाला नहीं है। खुद समझिए और फेक-डीपफेक-क्लोन के चंगुल से बचिए। जान लीजिए कि अभी तो सिर्फ शुरुआत है। अभी तो न जाने क्या क्या आना बाकी है।

( लेखक पत्रकार हैं ।)



\
Admin 2

Admin 2

Next Story