hacklink al
jojobet girişjojobetjojobetjojobet girişjojobetjojobet girişjojobet girişjojobet girişjojobetjojobet girişjojobetjojobet girişjojobetjojobet girişjojobetjojobet girişjojobetjojobet girişjojobetjojobet girişjojobetjojobet girişholiganbetjojobetjojobet girişjojobetjojobet girişjojobetjojobetjojobet girişjojobetjojobet girişholiganbetholiganbet girişpadişahbetpaşacasinograndpashabetjojobetjojobet girişcasibom girişcasibom girişcasibom girişcasibom girişkralbetkingroyalmatbetmatbet girişmatbet güncel girişmatbetmatbet girişmatbet güncel girişholiganbetholiganbet girişholiganbet güncel girişholiganbetholiganbet girişholiganbet güncel girişholiganbet girişnakitbahisnakitbahis girişnakitbahisnakitbahis girişnakitbahisnakitbahis girişmatbetmatbet girişcasibomcasibom girişkavbetkavbet girişkavbet güncel girişholiganbetholiganbet girişholiganbet güncel giriş

आवाजों की नकल करके एआई फोन धोखेबाजी एक बड़ी समस्या

इसका मतलब है कि लोगों को और अधिक सतर्क रहने की जरूरत होगी।
आपके जानने वाले लोगों की आवाज़ों की नकल करने के लिए एआई का उपयोग करके स्कैम कॉल का उपयोग लोगों को परेशान करने के लिए किया जा रहा है। ये कॉल जेनरेटिव एआई के रूप में जाने जाते हैं, जो उपयोगकर्ता के संकेतों के आधार पर टेक्स्ट, इमेज या वीडियो जैसे किसी अन्य मीडिया को बनाने में सक्षम सिस्टम को संदर्भित करता है। डीपफेक ने पिछले कुछ वर्षों में कई हाई-प्रोफाइल घटनाओं के साथ कुख्याति प्राप्त की है, जैसे कि फेसबुक और इंस्टाग्राम पर दिखाई देने वाले विचारोत्तेजक विज्ञापनों की एक श्रृंखला में अभिनेत्री एम्मा वॉटसन की छवि का उपयोग किया जा रहा है। 2022 का व्यापक रूप से साझा किया गया और तोड़-मरोड़कर दिखाया गया वीडियो भी था जिसमें यूक्रेनी राष्ट्रपति वलोडिमिर ज़ेलेंस्की यूक्रेनवासियों को हथियार डालने के लिए कहते दिखाई दिए। अब, किसी व्यक्ति की आवाज की यथार्थवादी प्रतिलिपि, ऑडियो डीपफेक बनाने की तकनीक तेजी से आम होती जा रही है।

किसी की आवाज़ की यथार्थवादी प्रतिलिपि बनाने के लिए आपको एल्गोरिदम को प्रशिक्षित करने के लिए डेटा की आवश्यकता होती है। इसका मतलब है कि आपके इच्छित लक्ष्य की आवाज़ की बहुत सारी ऑडियो रिकॉर्डिंग होना। व्यक्ति की आवाज़ के जितने अधिक उदाहरण आप एल्गोरिदम में डाल सकते हैं, अंतिम प्रतिलिपि उतनी ही बेहतर और अधिक विश्वसनीय होगी। हम में से कई लोग पहले से ही अपने दैनिक जीवन का विवरण इंटरनेट पर साझा करते हैं। इसका मतलब यह है कि किसी आवाज़ की यथार्थवादी प्रतिलिपि बनाने के लिए आवश्यक ऑडियो डेटा सोशल मीडिया पर आसानी से उपलब्ध हो सकता है। लेकिन एक बार कॉपी बाहर आ जाने पर क्या होता है? सबसे बुरा क्या हो सकता है? एक डीपफेक एल्गोरिदम डेटा रखने वाले किसी भी व्यक्ति को आप से जो चाहे कहलवाने में सक्षम कर सकता है। व्यवहार में, यह उतना ही सरल हो सकता है जितना कि कुछ लिखना और कंप्यूटर से उसे आपकी आवाज़ के अनुरूप ज़ोर से बोलना।

बड़ी चुनौतियां यह क्षमता ऑडियो गलत सूचना और दुष्प्रचार के प्रसार को बढ़ाने का जोखिम अपने साथ लाती है। इसका उपयोग अंतरराष्ट्रीय या राष्ट्रीय जनमत को प्रभावित करने की कोशिश के लिए किया जा सकता है, जैसा कि ज़ेलेंस्की के वीडियो के साथ देखा गया है। लेकिन इन तकनीकों की सर्वव्यापकता और उपलब्धता स्थानीय स्तर पर भी महत्वपूर्ण चुनौतियाँ पैदा करती है – विशेष रूप से एआई स्कैम कॉल्स की बढ़ती प्रवृत्ति में। कई लोगों को एक झूठी कॉल प्राप्त हुई होगी जो हमें बताती है, उदाहरण के लिए, कि हमारे कंप्यूटर से छेड़छाड़ की गई है और हमें तुरंत लॉग इन करना चाहिए, जिससे संभावित रूप से कॉल करने वाले को हमारे डेटा तक पहुंच मिल जाएगी। अक्सर यह पता लगाना बहुत आसान होता है कि यह एक धोखा है, खासकर तब जब कॉल करने वाला ऐसा अनुरोध कर रहा हो जो किसी वैध संगठन का कोई व्यक्ति नहीं कर रहा हो। हालाँकि, अब कल्पना करें कि फोन के दूसरी तरफ की आवाज़ सिर्फ किसी अजनबी की नहीं है, बल्कि बिल्कुल किसी दोस्त या प्रियजन की तरह लगती है। यह बदकिस्मत प्राप्तकर्ता के लिए जटिलता और घबराहट का एक बिल्कुल नया स्तर पेश करता है।

सीएनएन द्वारा रिपोर्ट की गई एक हालिया कहानी में एक घटना पर प्रकाश डाला गया है जहां एक मां को एक अज्ञात नंबर से कॉल आया। जब उसने फोन उठाया तो वह उसकी बेटी थी। कथित तौर पर बेटी का अपहरण कर लिया गया था और वह फिरौती की मांग के लिए अपनी मां को फोन कर रही थी। दरअसल, लड़की सुरक्षित और स्वस्थ थी। घोटालेबाजों ने उसकी आवाज का डीपफेक बनाया था। यह कोई अकेली घटना नहीं है, जिसमें कथित कार दुर्घटना सहित झूठी कहानियों की विविधताएं हैं, जहां दुर्घटना के बाद पीड़ित मदद के लिए अपने परिवार को पैसे के लिए बुलाता है। नई तकनीक का उपयोग कर पुरानी चाल यह अपने आप में कोई नया घोटाला नहीं है, आभासी अपहरण घोटाला शब्द कई वर्षों से प्रचलित है। इसके कई रूप हो सकते हैं लेकिन एक आम तरीका यह है कि पीड़ितों को अपने किसी प्रियजन को छुड़ाने के लिए फिरौती देने के लिए बरगलाया जाए, उन्हें लगता है कि उन्हें धमकी दी जा रही है। धोखाधड़ी का पता चलने से पहले पीड़ित को त्वरित फिरौती का भुगतान करने के लिए घोटालेबाज निर्विवाद अनुपालन स्थापित करने का प्रयास करता है।

हालाँकि, शक्तिशाली और उपलब्ध एआई प्रौद्योगिकियों के आगमन ने काफी हद तक वृद्धि कर दी है – और चीजों को और अधिक व्यक्तिगत बना दिया है। किसी गुमनाम कॉल करने वाले का फोन काट देना एक बात है, लेकिन आपके बच्चे या साथी की तरह लगने वाले किसी व्यक्ति के कॉल का जवाब देने के लिए आपके निर्णय पर वास्तविक विश्वास की आवश्यकता होती है। एक सॉफ्टवेयर है जिसका उपयोग डीपफेक की पहचान करने के लिए किया जा सकता है, और यह ऑडियो का एक दृश्य प्रतिनिधित्व तैयार करेगा जिसे स्पेक्ट्रोग्राम कहा जाता है। जब आप कॉल सुन रहे हों तो इसे वास्तविक व्यक्ति से अलग बताना असंभव लग सकता है, लेकिन जब स्पेक्ट्रोग्राम का साथ-साथ विश्लेषण किया जाता है तो आवाज़ों को अलग किया जा सकता है। कम से कम एक समूह ने डाउनलोड के लिए डिटेक्शन सॉफ़्टवेयर की पेशकश की है, हालांकि ऐसे समाधानों का उपयोग करने के लिए अभी भी कुछ तकनीकी ज्ञान की आवश्यकता हो सकती है।

अधिकांश लोग स्पेक्ट्रोग्राम इस्तेमाल करने में सक्षम नहीं होंगे, इसलिए जब आप निश्चित नहीं हैं कि आप जो सुन रहे हैं वह वास्तविक चीज़ है तो आप क्या कर सकते हैं? मीडिया के किसी भी अन्य रूप की तरह आप भी इससे दो चार हो सकते हैं: संशयवादी बनें। यदि आपको अचानक किसी प्रियजन का फोन आता है और वे आपसे पैसे मांगते हैं या ऐसे अनुरोध करते हैं जो आपको उनकी प्रवृत्ति के अनुकूल नहीं लगता है, तो उन्हें वापस कॉल करें या उन्हें एक टेक्स्ट भेजें यह पुष्टि करने के लिए कि आप वास्तव में उनसे बात कर रहे हैं। जैसे-जैसे एआई की क्षमताओं का विस्तार होगा, वास्तविकता और कल्पना के बीच की रेखाएं तेजी से धुंधली होती जाएंगी। और इसकी संभावना नहीं है कि हम प्रौद्योगिकी को वापस डिब्बे में डाल सकेंगे। इसका मतलब है कि लोगों को और अधिक सतर्क रहने की जरूरत होगी।

Leave a Reply