15.8 C
Brussels
Tuesday, May 14, 2024
EropahTindakan AI EU: peraturan pertama mengenai kecerdasan buatan

Tindakan AI EU: peraturan pertama mengenai kecerdasan buatan

PENAFIAN: Maklumat dan pendapat yang diterbitkan semula dalam artikel adalah mereka yang menyatakannya dan ia adalah tanggungjawab mereka sendiri. Penerbitan dalam The European Times tidak secara automatik bermaksud pengesahan pandangan, tetapi hak untuk menyatakannya.

PENAFIAN TERJEMAHAN: Semua artikel dalam laman web ini diterbitkan dalam bahasa Inggeris. Versi terjemahan dilakukan melalui proses automatik yang dikenali sebagai terjemahan saraf. Jika ragu-ragu, sentiasa rujuk artikel asal. Terima kasih kerana memahami.

Penggunaan kecerdasan buatan di EU akan dikawal oleh Akta AI, undang-undang AI komprehensif pertama di dunia. Ketahui bagaimana ia akan melindungi anda.

Sebagai sebahagian daripada strategi digital, EU mahu mengawal selia kecerdasan buatan (AI) untuk memastikan keadaan yang lebih baik untuk pembangunan dan penggunaan teknologi inovatif ini. AI boleh mencipta banyak faedah, seperti penjagaan kesihatan yang lebih baik; pengangkutan yang lebih selamat dan bersih; pembuatan yang lebih cekap; dan tenaga yang lebih murah dan lebih mampan.

Pada April 2021, Suruhanjaya Eropah mencadangkan yang pertama EU rangka kerja kawal selia untuk AI. Ia mengatakan bahawa sistem AI yang boleh digunakan dalam aplikasi yang berbeza dianalisis dan dikelaskan mengikut risiko yang ditimbulkannya kepada pengguna. Tahap risiko yang berbeza bermakna lebih kurang peraturan. Setelah diluluskan, ini akan menjadi peraturan pertama di dunia tentang AI.

Perkara yang dikehendaki oleh Parlimen dalam perundangan AI

Keutamaan Parlimen adalah untuk memastikan sistem AI yang digunakan di EU adalah selamat, telus, boleh dikesan, tidak mendiskriminasi dan mesra alam. Sistem AI harus diawasi oleh orang, bukannya oleh automasi, untuk mengelakkan hasil yang berbahaya.

Parlimen juga mahu mewujudkan takrifan seragam teknologi neutral untuk AI yang boleh digunakan pada sistem AI masa hadapan.

Ketahui lebih lanjut mengenai Kerja Parlimen tentang AI dan yang wawasan untuk masa depan AI

Akta AI: peraturan yang berbeza untuk tahap risiko yang berbeza

Peraturan baharu menetapkan kewajipan untuk pembekal dan pengguna bergantung pada tahap risiko daripada kecerdasan buatan. Walaupun banyak sistem AI menimbulkan risiko minimum, mereka perlu dinilai.


Risiko yang tidak boleh diterima

Sistem AI risiko yang tidak boleh diterima ialah sistem yang dianggap sebagai ancaman kepada orang ramai dan akan diharamkan. Mereka termasuk:

  • Manipulasi tingkah laku kognitif orang atau kumpulan terdedah tertentu: contohnya mainan yang diaktifkan suara yang menggalakkan tingkah laku berbahaya pada kanak-kanak
  • Pemarkahan sosial: mengklasifikasikan orang berdasarkan tingkah laku, status sosio-ekonomi atau ciri peribadi
  • Sistem pengenalan biometrik masa nyata dan jauh, seperti pengecaman muka


Beberapa pengecualian mungkin dibenarkan: Sebagai contoh, sistem pengenalan biometrik jauh "pos" di mana pengenalan berlaku selepas kelewatan yang ketara akan dibenarkan untuk mendakwa jenayah berat tetapi hanya selepas kelulusan mahkamah.

Berisiko tinggi

Sistem AI yang menjejaskan keselamatan atau hak asasi secara negatif akan dianggap berisiko tinggi dan akan dibahagikan kepada dua kategori:

1) Sistem AI yang digunakan dalam produk yang berada di bawah perundangan keselamatan produk EU. Ini termasuk mainan, penerbangan, kereta, peranti perubatan dan lif.

2) Sistem AI terbahagi kepada lapan kawasan khusus yang perlu didaftarkan dalam EU pangkalan data:

  • Pengenalpastian biometrik dan pengkategorian orang asli
  • Pengurusan dan pengendalian infrastruktur kritikal
  • Pendidikan dan latihan vokasional
  • Pekerjaan, pengurusan pekerja dan akses kepada pekerjaan sendiri
  • Akses kepada dan menikmati perkhidmatan swasta yang penting serta perkhidmatan dan faedah awam
  • Penguatkuasaan undang-undang
  • Pengurusan migrasi, suaka dan kawalan sempadan
  • Bantuan dalam tafsiran undang-undang dan penggunaan undang-undang.



Semua sistem AI berisiko tinggi akan dinilai sebelum diletakkan di pasaran dan juga sepanjang kitaran hayatnya.

AI Generatif


AI Generatif, seperti ChatGPT, perlu mematuhi keperluan ketelusan:

  • Mendedahkan bahawa kandungan itu dihasilkan oleh AI
  • Mereka bentuk model untuk menghalangnya daripada menjana kandungan haram
  • Menerbitkan ringkasan data berhak cipta yang digunakan untuk latihan

Risiko terhad

Sistem AI berisiko terhad harus mematuhi keperluan ketelusan minimum yang membolehkan pengguna membuat keputusan termaklum. Selepas berinteraksi dengan aplikasi, pengguna kemudiannya boleh memutuskan sama ada mereka mahu terus menggunakannya. Pengguna harus dimaklumkan apabila mereka berinteraksi dengan AI. Ini termasuk sistem AI yang menjana atau memanipulasi kandungan imej, audio atau video, contohnya deepfakes.

Langkah seterusnya

Parlimen bersedia untuk bersetuju dengan kedudukan rundingannya pada Jun 2023, selepas itu perbincangan akan dimulakan dengan negara-negara EU dalam Majlis mengenai bentuk akhir undang-undang.

Matlamatnya adalah untuk mencapai persetujuan pada akhir tahun ini.

    - Iklan -

    Lagi dari penulis

    - KANDUNGAN EKSKLUSIF -spot_img
    - Iklan -
    - Iklan -
    - Iklan -spot_img
    - Iklan -

    Mesti baca

    Artikel terbaru

    - Iklan -