23.7 C
Brussels
Sabtu, Mei 11, 2024
EropaTindakan AI UE: peraturan pertama tentang kecerdasan buatan

Tindakan AI UE: peraturan pertama tentang kecerdasan buatan

PENAFIAN: Informasi dan pendapat yang direproduksi dalam artikel adalah milik mereka yang menyatakannya dan itu adalah tanggung jawab mereka sendiri. Publikasi di The European Times tidak secara otomatis berarti pengesahan pandangan, tetapi hak untuk mengungkapkannya.

TERJEMAHAN DISCLAIMER: Semua artikel di situs ini diterbitkan dalam bahasa Inggris. Versi terjemahan dilakukan melalui proses otomatis yang dikenal sebagai terjemahan saraf. Jika ragu, selalu mengacu pada artikel aslinya. Terima kasih atas pengertian.

Penggunaan kecerdasan buatan di UE akan diatur oleh AI Act, hukum AI komprehensif pertama di dunia. Cari tahu bagaimana itu akan melindungi Anda.

Sebagai bagian dari strategi digital, UE ingin mengatur kecerdasan buatan (AI) untuk memastikan kondisi yang lebih baik untuk pengembangan dan penggunaan teknologi inovatif ini. AI dapat menciptakan banyak manfaat, seperti layanan kesehatan yang lebih baik; transportasi yang lebih aman dan bersih; manufaktur yang lebih efisien; dan energi yang lebih murah dan lebih berkelanjutan.

Pada April 2021, Komisi Eropa mengusulkan yang pertama EU kerangka peraturan untuk AI. Dikatakan bahwa sistem AI yang dapat digunakan dalam berbagai aplikasi dianalisis dan diklasifikasikan menurut risiko yang ditimbulkannya bagi pengguna. Tingkat risiko yang berbeda akan berarti lebih banyak atau lebih sedikit regulasi. Setelah disetujui, ini akan menjadi peraturan AI pertama di dunia.

Apa yang diinginkan Parlemen dalam undang-undang AI

prioritas DPR adalah untuk memastikan bahwa sistem AI yang digunakan di UE aman, transparan, dapat dilacak, tidak diskriminatif, dan ramah lingkungan. Sistem AI harus diawasi oleh manusia, bukan oleh otomatisasi, untuk mencegah hasil yang berbahaya.

Parlemen juga ingin menetapkan definisi AI yang netral teknologi dan seragam yang dapat diterapkan pada sistem AI di masa mendatang.

Pelajari lebih lanjut tentang Pekerjaan parlemen tentang AI dan perusahaan visi untuk masa depan AI

AI Act: aturan yang berbeda untuk tingkat risiko yang berbeda

Aturan baru menetapkan kewajiban bagi penyedia dan pengguna tergantung pada tingkat risiko dari kecerdasan buatan. Sementara banyak sistem AI menimbulkan risiko minimal, mereka perlu dinilai.


Risiko yang tidak dapat diterima

Sistem AI risiko yang tidak dapat diterima adalah sistem yang dianggap sebagai ancaman bagi manusia dan akan dilarang. Mereka termasuk:

  • Manipulasi perilaku kognitif orang atau kelompok rentan tertentu: misalnya mainan yang diaktifkan dengan suara yang mendorong perilaku berbahaya pada anak-anak
  • Skor sosial: mengklasifikasikan orang berdasarkan perilaku, status sosial ekonomi atau karakteristik pribadi
  • Sistem identifikasi biometrik real-time dan jarak jauh, seperti pengenalan wajah


Beberapa pengecualian mungkin diperbolehkan: Misalnya, sistem identifikasi biometrik jarak jauh "pasca" di mana identifikasi terjadi setelah penundaan yang signifikan akan diizinkan untuk menuntut kejahatan serius tetapi hanya setelah persetujuan pengadilan.

Berisiko tinggi

Sistem AI yang berdampak negatif terhadap keselamatan atau hak dasar akan dianggap berisiko tinggi dan akan dibagi menjadi dua kategori:

1) Sistem AI yang digunakan pada produk yang termasuk dalam kategori ini undang-undang keamanan produk Uni Eropa. Ini termasuk mainan, penerbangan, mobil, peralatan medis, dan lift.

2) Sistem AI yang termasuk dalam delapan area spesifik yang harus didaftarkan dalam EU basis data:

  • Identifikasi biometrik dan kategorisasi orang alami
  • Pengelolaan dan pengoperasian infrastruktur penting
  • Pendidikan dan pelatihan kejuruan
  • Ketenagakerjaan, manajemen pekerja dan akses ke wirausaha
  • Akses ke dan penikmatan layanan swasta yang esensial dan layanan serta manfaat publik
  • Pelaksanaan hukum
  • Migrasi, suaka dan manajemen kontrol perbatasan
  • Bantuan dalam penafsiran hukum dan penerapan hukum.



Semua sistem AI berisiko tinggi akan dinilai sebelum dipasarkan dan juga sepanjang siklus hidupnya.

AI generatif


AI generatif, seperti ChatGPT, harus mematuhi persyaratan transparansi:

  • Mengungkapkan bahwa konten dihasilkan oleh AI
  • Merancang model untuk mencegahnya menghasilkan konten ilegal
  • Menerbitkan ringkasan data berhak cipta yang digunakan untuk pelatihan

Risiko terbatas

Sistem AI risiko terbatas harus mematuhi persyaratan transparansi minimal yang akan memungkinkan pengguna membuat keputusan berdasarkan informasi. Setelah berinteraksi dengan aplikasi, pengguna kemudian dapat memutuskan apakah mereka ingin terus menggunakannya. Pengguna harus diberi tahu saat mereka berinteraksi dengan AI. Ini termasuk sistem AI yang menghasilkan atau memanipulasi konten gambar, audio, atau video, misalnya deepfake.

Langkah berikutnya

Parlemen akan menyetujui posisi negosiasinya pada Juni 2023, setelah itu pembicaraan akan dimulai dengan negara-negara UE di Dewan tentang bentuk akhir undang-undang tersebut.

Tujuannya adalah untuk mencapai kesepakatan pada akhir tahun ini.

    - Iklan -

    Lebih dari penulis

    - ISI EKSKLUSIF -tempat_img
    - Iklan -
    - Iklan -
    - Iklan -tempat_img
    - Iklan -

    Harus baca

    Artikel Terbaru

    - Iklan -