10.1 C
ब्रसेल्स
बुधवार फ़रवरी 21, 2024
संस्थानचुनाव आयोग ने आर्टिफिशियल इंटेलिजेंस का इस्तेमाल करते समय टेक्स्ट और इमेज को लेबल करने के लिए कहा

चुनाव आयोग ने आर्टिफिशियल इंटेलिजेंस का इस्तेमाल करते समय टेक्स्ट और इमेज को लेबल करने के लिए कहा

अस्वीकरण: लेखों में पुन: प्रस्तुत की गई जानकारी और राय उन्हें बताने वालों की है और यह उनकी अपनी जिम्मेदारी है। में प्रकाशन The European Times स्वतः ही इसका मतलब विचार का समर्थन नहीं है, बल्कि इसे व्यक्त करने का अधिकार है।

अस्वीकरण अनुवाद: इस साइट के सभी लेख अंग्रेजी में प्रकाशित होते हैं। अनुवादित संस्करण एक स्वचालित प्रक्रिया के माध्यम से किया जाता है जिसे तंत्रिका अनुवाद कहा जाता है। यदि संदेह हो, तो हमेशा मूल लेख देखें। समझने के लिए धन्यवाद।

गैस्टन डी पर्सिग्नी
गैस्टन डी पर्सिग्नी
Gaston de Persigny - रिपोर्टर पर The European Times समाचार

यूरोपीय आयोग ने पहली बार इस महीने कंपनियों से गलत सूचना से लड़ने के लिए आर्टिफिशियल इंटेलिजेंस द्वारा उत्पन्न टेक्स्ट और छवियों की पहचान करने के लिए एक लेबल की पेशकश करने के लिए कहा है।

यूरोपीय आयोग के उपाध्यक्ष, वेरा जुरोवा ने आज प्रस्ताव दिया कि कंपनियां स्वेच्छा से अपने आचार संहिता में चेतावनी देने के लिए एक नियम अपनाती हैं जब वे पाठ, फोटो या वीडियो उत्पन्न करने के लिए कृत्रिम बुद्धि का उपयोग करते हैं। उनके अनुसार, सामाजिक नेटवर्क के लिए यह आवश्यक है कि कृत्रिम बुद्धिमत्ता द्वारा बनाई गई जानकारी को तुरंत लेबल करना शुरू कर दिया जाए। युरोवा ने समझाया, यह खुफिया जानकारी समाजों को नए खतरों के लिए उजागर कर सकती है, विशेष रूप से विघटन के निर्माण और प्रसार के साथ। उन्होंने कहा कि मशीनों को बोलने की आजादी नहीं है।

वेरा जुरोवा, जो ईसी में मूल्यों और पारदर्शिता के लिए जिम्मेदार हैं, और थिएरी ब्रेटन, आंतरिक बाजार के आयुक्त, ने लगभग 40 संगठनों के प्रतिनिधियों से मुलाकात की, जिन्होंने इस पर हस्ताक्षर किए हैं। EU दुष्प्रचार के खिलाफ आचार संहिता। इनमें माइक्रोसॉफ्ट, गूगल, मेटा, टिकटॉक, ट्विच और छोटी कंपनियां शामिल हैं- लेकिन नहीं ट्विटर, जिसने कोडेक्स को छोड़ दिया है।

युरोवा ने कहा, "मैं हस्ताक्षरकर्ताओं से कोड के भीतर एक विशेष और अलग विषय बनाने के लिए कहूंगी", आर्टिफिशियल इंटेलिजेंस द्वारा उत्पन्न कीटाणुशोधन से निपटने के लिए। "उन्हें सामग्री-जनरेटिंग आर्टिफिशियल इंटेलिजेंस द्वारा उत्पन्न कीटाणुशोधन के विशिष्ट जोखिमों की पहचान करनी चाहिए और उन्हें संबोधित करने के लिए उचित उपाय करने चाहिए।"

युरोवा ने बताया कि हस्ताक्षरकर्ता देश जो जेनेरेटिव एआई को अपनी सेवाओं में एकीकृत करते हैं, जैसे कि माइक्रोसॉफ्ट के लिए बिंगचैट, गूगल के लिए बार्ड, को आवश्यक सुरक्षा उपायों का निर्माण करना चाहिए ताकि इन सेवाओं का उपयोग दुर्भावनापूर्ण अभिनेताओं द्वारा गलत सूचना उत्पन्न करने के लिए नहीं किया जा सके। "हस्ताक्षरकर्ता देश जिनके पास एआई-जनित विघटन फैलाने की क्षमता वाली सेवाएं हैं, उन्हें ऐसी सामग्री को पहचानने और उपयोगकर्ताओं को चेतावनी देने के लिए स्पष्ट लेबल लगाने के लिए प्रौद्योगिकी का परिचय देना चाहिए।"

लेबल को सभी एआई-जनित सामग्री पर लागू किया जाना चाहिए जिसका उपयोग गलत सूचना बनाने के लिए किया जा सकता है, जिसमें पाठ, चित्र, ऑडियो और वीडियो शामिल हैं।

अभी के लिए, वे अनिवार्य नहीं होंगे क्योंकि वे अभ्यास के स्वैच्छिक कोड का हिस्सा होंगे। हालांकि, आयोग इसे डिजिटल सर्विसेज एक्ट (डीएसए) में शामिल करने पर विचार कर रहा है। यूरोपीय संघ के देशों, यूरोपीय संसद और यूरोपीय आयोग के बीच बातचीत के दौरान AI सामग्री को लेबल करने की बाध्यताओं को AI अधिनियम में भी शामिल किया जा सकता है।

कॉटनब्रो स्टूडियो द्वारा उदाहरणात्मक फोटो: https://www.pexels.com/photo/a-woman-looking-afar-5473955/

- विज्ञापन -

लेखक से अधिक

- विशिष्ट सामग्री -स्पॉट_आईएमजी
- विज्ञापन -
- विज्ञापन -
- विज्ञापन -स्पॉट_आईएमजी
- विज्ञापन -

जरूर पढ़े

ताज़ा लेख

- विज्ञापन -