लोकप्रिय पोस्ट

संपादक की पसंद - 2024

किसी पर विश्वास न करें: तंत्रिका नेटवर्क को क्या खतरा है, पोर्नो बनाने से

दिमित्री कुर्किन

नकली अश्लील वीडियोजिसमें फिल्म "वंडर वुमन" गैल गैडोट के स्टार ने कथित तौर पर अपने सौतेले भाई के साथ सेक्स किया, जो इस सप्ताह वेब पर दिखाई दिया, न केवल एक नकली, बल्कि कृत्रिम बुद्धिमत्ता से उत्पन्न एक नकली है।

वीडियो के लेखक, उपनाम के साथ Reddit के एक अनाम उपयोगकर्ता, ने वाइस के साथ एक साक्षात्कार में पुष्टि की कि उसने पोर्न अभिनेत्री के शरीर के लिए गैडोट के चेहरे की "फोटो लेने" के लिए तंत्रिका नेटवर्क का उपयोग किया था। नकली, सामान्य रूप से, ध्यान देने योग्य है, और डीपफेक ने इस पर कोई पैसा बनाने की योजना नहीं बनाई है - उन्होंने कहा, वह सिर्फ यह जांचना चाहता था कि एआई का उपयोग करके इसे बनाना कितना आसान होगा। और वह हमारे लिए बुरी खबर है: घर पर नकली पोर्न बनाना बहुत आसान था।

समस्या, सामान्य तौर पर, पोर्नोफ़िक्स में खुद नहीं है: चित्रों और वीडियो की मांग, जहां मशहूर हस्तियों जैसे अभिनेता और अभिनेत्री सेक्स कर रहे हैं, वह है और वह बुतपरस्ती और सनसनीखेज प्रेमियों के साथ होगा। पोर्न उद्योग में सितारों के साथ बाहरी समानता पर, पूरे करियर को बनाया जा रहा है - इस घटना ने पीले प्रेस की एक उत्कृष्ट हेडलाइन को भी जन्म दिया: "गॉर्डन रामसे बौना-पोर्न बौना एक बेजर होल में मृत खोजा गया"।

लेकिन अगर उत्पादन से पहले समय, संसाधनों और किसी प्रकार के कौशल की जरूरत होती है, तो एक तंत्रिका नेटवर्क, जो एक छवि के लिए चेहरे को वेल्ड करने के लिए प्रशिक्षित होता है, कार्य को बहुत सरल करता है। रोबोट एक आदमी नहीं है, और रोबोट समय-समय पर होशियार हो जाते हैं, जिसका अर्थ है कि नकली अधिक से अधिक विश्वसनीय लगेंगे। डीपकाक्स उपयोगकर्ता ने स्पष्ट किया कि उसने अपने एआई सॉफ़्टवेयर को खुले स्रोत पुस्तकालयों में पाए जाने वाले स्क्रैप तत्वों से एकत्र किया, और सार्वजनिक नालियों और YouTube जैसे होस्टिंग में फ़ोटो और वीडियो ले गए। सीधे शब्दों में कहें, तो पोर्नोफिकोव पैदा करने के सभी उपकरण न केवल उसके साथ, बल्कि दुनिया भर के लाखों लोगों के बीच उसकी नाक के नीचे स्थित हैं।

और यह, सख्ती से बोलना, समाचार भी नहीं। 2003 में वापस, ओरेगन विश्वविद्यालय के स्वास्थ्य और विज्ञान के विशेषज्ञों ने चेतावनी दी कि ऑडियो धोखाधड़ी "बनाने में आसान और निर्धारित करना मुश्किल है।" 2017 तक, पूर्वानुमान सच हो गया, और तंत्रिका नेटवर्क द्वारा उत्पन्न नकली आवाज रिकॉर्डिंग थे जो वास्तविक लोगों से अलग करना बहुत मुश्किल है। ऑडियो के बाद, वीडियो को खींच लिया गया। वाशिंगटन विश्वविद्यालय के कर्मचारियों का विकास किसी व्यक्ति के चेहरे के भावों को उनके भाषण के साथ सिंक्रनाइज़ करता है: बराक ओबामा के साथ वीडियो क्लिप में उदाहरण के लिए, केवल ऑडियो मौजूद है, चित्र कार्यक्रम द्वारा उत्पन्न किया गया है। एक को दूसरे के साथ जोड़ो - और अब तैयार नकली वीडियो हैं जिसमें, कहते हैं, एक प्रसिद्ध उदारवादी राजनेता हिटलर के लिए अपनी सहानुभूति का "कबूल" करता है।

यह कल्पना करना काफी मुश्किल है कि इस तरह की कृत्रिम बुद्धि का दुरुपयोग कैसे हो सकता है - माइक्रोसॉफ्ट के चैटबॉट, जो ट्विटर ट्रोल एक दिन से भी कम समय में नस्लवादी में बदल गए हैं, उनके खिलाफ एक सुंदर शरारत की तरह प्रतीत होगा। और निश्चित रूप से, पोर्नोफेड की तकनीक को मुख्य रूप से गैल गैडोट, टेलर स्विफ्ट या जेनिफर लॉरेंस द्वारा खतरा नहीं है। वे पर्याप्त रूप से आईटी विशेषज्ञों की एक सेना को किराए पर लेने के लिए सुरक्षित हैं, जो एक नकली को पहचानते हैं, और वकीलों का एक बेड़ा है जो किसी पर मुकदमा करेंगे जो व्यक्तिगत लाभ के लिए इन फेक का उपयोग करने की कोशिश करता है।

नहीं, सरल नश्वर नए हानिरहित एल्गोरिदम के शिकार बन जाएंगे। डिजिटल फेक का उपयोग पोर्नोग्राफी, साइबर-स्टैकिंग, नेटवर्क उत्पीड़न, ब्लैकमेल और हेरफेर के लिए किया जा सकता है जो लोग आसानी से सुझाए जा सकते हैं और विशेष रूप से उन्नत प्रौद्योगिकियों के क्षेत्र से समाचारों का पालन नहीं करते हैं ("आपकी बेटी की वीडियो टेप की गई थी, तुरंत धन हस्तांतरण, अन्यथा हर बार देखा जाएगा")। और हम आवश्यक रूप से पोर्न के बारे में बात नहीं कर रहे हैं: राजनीतिक प्रचार और नफरत के लिए उकसाने के लिए नेटवर्क में फेक भी लॉन्च किया जा सकता है।

"लेकिन यह राक्षसी है!" हां, यह राक्षसी है, और डीपफेक कोडर इसके लिए दोषी नहीं है। जैसा कि हैकर्स कभी-कभी पैसे चुराने के लिए बैंकिंग सिस्टम में नहीं घुसते हैं, लेकिन साइबर रक्षा विभाग को सुरक्षा छिद्रों में इंगित करने के लिए, इसलिए इसका आविष्कार गुमनाम AI प्रोग्रामर ने किया, जो हमें केवल एक तथ्य के सामने रखता है: डिजिटल नकली का युग एक यूटोपियन हॉरर स्टोरी नहीं है "ब्लैक मिरर", और आने वाली वास्तविकता। यह अभी तक आधुनिक नैतिकता द्वारा समझ में नहीं आया है (क्या पोर्नोफाइल्स को अन्य लोगों की गोपनीयता का आक्रमण माना जा सकता है?), न ही कानून द्वारा लागू किया जा सकता है। लेकिन यह उसके अंदर है कि हमें किसी तरह आने वाले वर्षों में रहना है। तो, इस तरह के भराई के खिलाफ एक मारक विकसित करना आवश्यक है।

कोलिन्स डिक्शनरी क्यूरेटर्स ने 2017 की "फर्जी खबर" शब्द को अभिव्यक्ति कहा, इस बात पर जोर देते हुए कि औसत उपयोगकर्ता को जानकारी की प्रामाणिकता को सत्यापित करने के लिए समय बर्बाद किए बिना सनसनीखेज सुर्खियों में क्लिक करने और पुन: उत्पन्न करने की लत है। इस बीच, नकली समाचार चुनाव और जनमत संग्रह के परिणामों को प्रभावित कर सकते हैं। और यह उस नई वास्तविकता का भी हिस्सा है जिसमें हम पहले से मौजूद हैं और जिसमें हमें यह जानने की आवश्यकता होगी कि कैसे कम तुच्छ होना चाहिए।

सामाजिक नेटवर्क ने पहले ही इंटरनेट को एक कांच की दीवार वाला घर बना दिया है जहां लाखों लोग हर दिन आपके जीवन को देख सकते हैं - तब भी जब आप यह नहीं चाहते। अब यह स्पष्ट है कि इस घर में कोई दरवाजा भी नहीं है: कोई भी आपके व्यक्तिगत स्थान पर आक्रमण करने की कोशिश कर सकता है, एआई का उपयोग करके पोर्नोरोल या फिल्म "द लॉर्ड ऑफ द रिंग्स" पर अपना चेहरा पेंच कर सकता है। गोपनीयता मृत है, लेकिन विशेष सेवाओं और वैश्विक निगमों के रूप में न केवल बिग ब्रदर इसके लिए दोषी है, बल्कि स्वयं भी।

डिजिटल फेक की दुनिया आ रही है, लेकिन यह आतंक, व्यामोह, इंटरनेट का उपयोग करने से इनकार करने या तंत्रिका नेटवर्क पर प्रतिबंध लगाने की आवश्यकताओं का कारण नहीं है। यह नेटवर्क स्वच्छता और नई नैतिकता के बारे में सोचने का एक कारण है, जो एक बार और सभी के लिए ठीक हो जाएगा कि डिजिटल नकली बनाने के लिए किसी और की छवि का उपयोग करना वीभत्स और अवैध है। ऐसे समय जब लोग बिना शर्त सब कुछ मानते हैं जो वे टीवी पर कहते हैं (भले ही वे कहते हैं कि "लेनिन एक मशरूम था") दूर हो रहे हैं। उसी तरह, हम धीरे-धीरे अपने आप को इंटरनेट पर लिखी गई हर चीज पर अविश्वास करने का आदी बनाते हैं।

कवर:ताना रिकॉर्ड

अपनी टिप्पणी छोड़ दो