15.8 C
ब्रसेल्स
बुधवार, मई 15, 2024
यूरोपईयू एआई अधिनियम: कृत्रिम बुद्धि पर पहला विनियमन

ईयू एआई अधिनियम: कृत्रिम बुद्धि पर पहला विनियमन

अस्वीकरण: लेखों में पुन: प्रस्तुत की गई जानकारी और राय उन्हें बताने वालों की है और यह उनकी अपनी जिम्मेदारी है। में प्रकाशन The European Times स्वतः ही इसका मतलब विचार का समर्थन नहीं है, बल्कि इसे व्यक्त करने का अधिकार है।

अस्वीकरण अनुवाद: इस साइट के सभी लेख अंग्रेजी में प्रकाशित होते हैं। अनुवादित संस्करण एक स्वचालित प्रक्रिया के माध्यम से किया जाता है जिसे तंत्रिका अनुवाद कहा जाता है। यदि संदेह हो, तो हमेशा मूल लेख देखें। समझने के लिए धन्यवाद।

यूरोपीय संघ में कृत्रिम बुद्धिमत्ता का उपयोग एआई अधिनियम द्वारा नियंत्रित किया जाएगा, जो दुनिया का पहला व्यापक एआई कानून है। पता करें कि यह आपकी रक्षा कैसे करेगा।

के हिस्से के रूप में अपनी डिजिटल रणनीति, यूरोपीय संघ इस नवीन प्रौद्योगिकी के विकास और उपयोग के लिए बेहतर स्थिति सुनिश्चित करने के लिए कृत्रिम बुद्धिमत्ता (एआई) को विनियमित करना चाहता है। एआई कई लाभ पैदा कर सकता है, जैसे बेहतर स्वास्थ्य सेवा; सुरक्षित और स्वच्छ परिवहन; अधिक कुशल निर्माण; और सस्ती और अधिक टिकाऊ ऊर्जा।

अप्रैल 2021 में, यूरोपीय आयोग ने पहला प्रस्ताव दिया EU एआई के लिए नियामक ढांचा। इसमें कहा गया है कि विभिन्न अनुप्रयोगों में उपयोग किए जा सकने वाले एआई सिस्टम का विश्लेषण किया जाता है और उपयोगकर्ताओं को होने वाले जोखिम के अनुसार वर्गीकृत किया जाता है। विभिन्न जोखिम स्तरों का अर्थ होगा कम या ज्यादा विनियमन। एक बार मंजूरी मिल जाने के बाद, ये AI पर दुनिया के पहले नियम होंगे।

एआई कानून में संसद क्या चाहती है

संसद की प्राथमिकता यह सुनिश्चित करना है कि यूरोपीय संघ में उपयोग किए जाने वाले एआई सिस्टम सुरक्षित, पारदर्शी, पता लगाने योग्य, गैर-भेदभावपूर्ण और पर्यावरण के अनुकूल हैं। हानिकारक परिणामों को रोकने के लिए एआई सिस्टम को ऑटोमेशन के बजाय लोगों द्वारा देखा जाना चाहिए।

संसद एआई के लिए एक प्रौद्योगिकी-तटस्थ, एकसमान परिभाषा भी स्थापित करना चाहती है जिसे भविष्य की एआई प्रणालियों पर लागू किया जा सके।

इस बारे में अधिक जानें एआई पर संसद का काम और उसका एआई के भविष्य के लिए दृष्टि

एआई अधिनियम: विभिन्न जोखिम स्तरों के लिए अलग-अलग नियम

नए नियम कृत्रिम बुद्धिमत्ता से जोखिम के स्तर के आधार पर प्रदाताओं और उपयोगकर्ताओं के लिए दायित्व स्थापित करते हैं। जबकि कई एआई सिस्टम न्यूनतम जोखिम पैदा करते हैं, उनका आकलन करने की आवश्यकता होती है।


अस्वीकार्य जोखिम

अस्वीकार्य जोखिम एआई सिस्टम ऐसे सिस्टम हैं जिन्हें लोगों के लिए खतरा माना जाता है और उन पर प्रतिबंध लगा दिया जाएगा। वे सम्मिलित करते हैं:

  • लोगों या विशिष्ट कमजोर समूहों के संज्ञानात्मक व्यवहार में हेरफेर: उदाहरण के लिए आवाज-सक्रिय खिलौने जो बच्चों में खतरनाक व्यवहार को प्रोत्साहित करते हैं
  • सामाजिक स्कोरिंग: व्यवहार, सामाजिक-आर्थिक स्थिति या व्यक्तिगत विशेषताओं के आधार पर लोगों को वर्गीकृत करना
  • वास्तविक समय और दूरस्थ बायोमेट्रिक पहचान प्रणाली, जैसे चेहरे की पहचान


कुछ अपवादों की अनुमति दी जा सकती है: उदाहरण के लिए, "पोस्ट" दूरस्थ बायोमेट्रिक पहचान प्रणाली जहां पहचान एक महत्वपूर्ण देरी के बाद होती है, को गंभीर अपराधों पर मुकदमा चलाने की अनुमति दी जाएगी, लेकिन अदालत की मंजूरी के बाद ही।

भारी जोखिम

एआई सिस्टम जो सुरक्षा या मौलिक अधिकारों को नकारात्मक रूप से प्रभावित करते हैं, उन्हें उच्च जोखिम माना जाएगा और उन्हें दो श्रेणियों में विभाजित किया जाएगा:

1) एआई सिस्टम जिनका उपयोग उत्पादों के अंतर्गत आने वाले उत्पादों में किया जाता है यूरोपीय संघ के उत्पाद सुरक्षा कानून. इसमें खिलौने, विमानन, कार, चिकित्सा उपकरण और लिफ्ट शामिल हैं।

2) एआई सिस्टम आठ विशिष्ट क्षेत्रों में आते हैं जिन्हें एक में पंजीकृत करना होगा EU डेटाबेस:

  • बायोमेट्रिक पहचान और प्राकृतिक व्यक्तियों का वर्गीकरण
  • महत्वपूर्ण बुनियादी ढांचे का प्रबंधन और संचालन
  • शिक्षा और व्यावसायिक प्रशिक्षण
  • रोजगार, कर्मचारी प्रबंधन और स्वरोजगार तक पहुंच
  • आवश्यक निजी सेवाओं और सार्वजनिक सेवाओं और लाभों तक पहुंच और उनका आनंद
  • कानून प्रवर्तन
  • प्रवासन, शरण और सीमा नियंत्रण प्रबंधन
  • कानूनी व्याख्या और कानून के आवेदन में सहायता।



सभी उच्च-जोखिम वाले एआई सिस्टम्स को बाजार में उतारने से पहले और उनके पूरे जीवनचक्र के दौरान मूल्यांकन किया जाएगा।

जनरेटिव एआई


जेनेरेटिव एआई, जैसे चैटजीपीटी, को पारदर्शिता आवश्यकताओं का पालन करना होगा:

  • खुलासा करते हुए कि सामग्री एआई द्वारा उत्पन्न की गई थी
  • इसे अवैध सामग्री उत्पन्न करने से रोकने के लिए मॉडल को डिजाइन करना
  • प्रशिक्षण के लिए उपयोग किए गए कॉपीराइट डेटा का सारांश प्रकाशित करना

सीमित जोखिम

सीमित जोखिम वाले एआई सिस्टम को न्यूनतम पारदर्शिता आवश्यकताओं का पालन करना चाहिए जो उपयोगकर्ताओं को सूचित निर्णय लेने की अनुमति देगा। अनुप्रयोगों के साथ बातचीत करने के बाद, उपयोगकर्ता यह तय कर सकता है कि क्या वे इसका उपयोग जारी रखना चाहते हैं। उपयोगकर्ताओं को एआई के साथ बातचीत करते समय जागरूक किया जाना चाहिए। इसमें एआई सिस्टम शामिल हैं जो छवि, ऑडियो या वीडियो सामग्री उत्पन्न या हेरफेर करते हैं, उदाहरण के लिए डीपफेक।

अगले चरण

संसद जून 2023 में अपनी बातचीत की स्थिति पर सहमत होने के लिए तैयार है, जिसके बाद कानून के अंतिम रूप पर परिषद में यूरोपीय संघ के देशों के साथ बातचीत शुरू होगी।

इस साल के अंत तक एक समझौते पर पहुंचने का लक्ष्य है।

    - विज्ञापन -

    लेखक से अधिक

    - विशिष्ट सामग्री -स्पॉट_आईएमजी
    - विज्ञापन -
    - विज्ञापन -
    - विज्ञापन -स्पॉट_आईएमजी
    - विज्ञापन -

    जरूर पढ़े

    ताज़ा लेख

    - विज्ञापन -