17.6 C
Brussels
Thứ năm, tháng 9, 2024
Châu ÂuĐạo luật AI của EU: quy định đầu tiên về trí tuệ nhân tạo

Đạo luật AI của EU: quy định đầu tiên về trí tuệ nhân tạo

TUYÊN BỐ MIỄN TRỪ TRÁCH NHIỆM: Thông tin và ý kiến ​​​​được sao chép trong các bài báo là của những người nêu chúng và đó là trách nhiệm của chính họ. xuất bản trong The European Times không tự động có nghĩa là xác nhận quan điểm, mà là quyền thể hiện quan điểm đó.

TUYÊN BỐ MIỄN TRỪ TRÁCH NHIỆM BẢN DỊCH: Tất cả các bài viết trong trang web này được xuất bản bằng tiếng Anh. Các bản dịch được thực hiện thông qua một quy trình tự động được gọi là bản dịch thần kinh. Nếu nghi ngờ, hãy luôn tham khảo bài viết gốc. Cảm ơn bạn đa hiểu.

Việc sử dụng trí tuệ nhân tạo ở EU sẽ được điều chỉnh bởi Đạo luật AI, luật AI toàn diện đầu tiên trên thế giới. Tìm hiểu làm thế nào nó sẽ bảo vệ bạn.

Là một phần của nó chiến lược kỹ thuật số, EU muốn điều chỉnh trí tuệ nhân tạo (AI) để đảm bảo điều kiện tốt hơn cho việc phát triển và sử dụng công nghệ tiên tiến này. AI có thể tạo ra nhiều lợi ích, chẳng hạn như chăm sóc sức khỏe tốt hơn; giao thông an toàn hơn và sạch hơn; sản xuất hiệu quả hơn; và năng lượng rẻ hơn và bền vững hơn.

Vào tháng 2021 năm XNUMX, Ủy ban Châu Âu lần đầu tiên đề xuất EU khung pháp lý cho AI. Nó nói rằng các hệ thống AI có thể được sử dụng trong các ứng dụng khác nhau được phân tích và phân loại theo rủi ro mà chúng gây ra cho người dùng. Các mức độ rủi ro khác nhau sẽ có nghĩa là quy định nhiều hơn hoặc ít hơn. Sau khi được phê duyệt, đây sẽ là những quy tắc đầu tiên trên thế giới về AI.

Quốc hội muốn gì trong luật AI

ưu tiên của Quốc hội là đảm bảo rằng các hệ thống AI được sử dụng ở EU là an toàn, minh bạch, có thể theo dõi, không phân biệt đối xử và thân thiện với môi trường. Các hệ thống AI nên được giám sát bởi con người, thay vì tự động hóa, để ngăn chặn các hậu quả có hại.

Nghị viện cũng muốn thiết lập một định nghĩa thống nhất, trung lập về công nghệ cho AI có thể được áp dụng cho các hệ thống AI trong tương lai.

Tìm hiểu thêm về Nghị viện làm việc về AI và của mình tầm nhìn cho tương lai của AI

Đạo luật AI: các quy tắc khác nhau cho các mức độ rủi ro khác nhau

Các quy tắc mới thiết lập nghĩa vụ cho nhà cung cấp và người dùng tùy thuộc vào mức độ rủi ro từ trí tuệ nhân tạo. Mặc dù nhiều hệ thống AI gây ra rủi ro tối thiểu, nhưng chúng cần được đánh giá.


rủi ro không thể chấp nhận được

Rủi ro không thể chấp nhận Hệ thống AI là hệ thống được coi là mối đe dọa đối với con người và sẽ bị cấm. Chúng bao gồm:

  • Thao túng hành vi nhận thức của con người hoặc các nhóm dễ bị tổn thương cụ thể: ví dụ như đồ chơi kích hoạt bằng giọng nói khuyến khích hành vi nguy hiểm ở trẻ em
  • Tính điểm xã hội: phân loại con người dựa trên hành vi, tình trạng kinh tế xã hội hoặc đặc điểm cá nhân
  • Hệ thống nhận dạng sinh trắc học từ xa và thời gian thực, chẳng hạn như nhận dạng khuôn mặt


Một số trường hợp ngoại lệ có thể được cho phép: Ví dụ: các hệ thống nhận dạng sinh trắc học từ xa “đăng tải” trong đó việc nhận dạng diễn ra sau một thời gian trì hoãn đáng kể sẽ được phép truy tố các tội phạm nghiêm trọng nhưng chỉ sau khi có sự chấp thuận của tòa án.

Rủi ro cao

Các hệ thống AI ảnh hưởng tiêu cực đến an toàn hoặc các quyền cơ bản sẽ được coi là rủi ro cao và sẽ được chia thành hai loại:

1) Các hệ thống AI được sử dụng trong các sản phẩm thuộc luật an toàn sản phẩm của EU. Điều này bao gồm đồ chơi, hàng không, ô tô, thiết bị y tế và thang máy.

2) Các hệ thống AI rơi vào tám lĩnh vực cụ thể sẽ phải đăng ký trong một EU cơ sở dữ liệu:

  • Nhận dạng sinh trắc học và phân loại thể nhân
  • Quản lý và vận hành cơ sở hạ tầng quan trọng
  • Giáo dục và dạy nghề
  • Việc làm, quản lý người lao động và khả năng tự tạo việc làm
  • Tiếp cận và thụ hưởng các dịch vụ tư nhân thiết yếu và các dịch vụ và lợi ích công cộng
  • Thực thi pháp luật
  • Quản lý di cư, tị nạn và kiểm soát biên giới
  • Hỗ trợ giải thích pháp luật và áp dụng pháp luật.



Tất cả các hệ thống AI có rủi ro cao sẽ được đánh giá trước khi đưa ra thị trường và trong suốt vòng đời của chúng.

Trí tuệ nhân tạo


AI sáng tạo, như ChatGPT, sẽ phải tuân thủ các yêu cầu về tính minh bạch:

  • Tiết lộ rằng nội dung được tạo bởi AI
  • Thiết kế mô hình để ngăn nó tạo ra nội dung bất hợp pháp
  • Xuất bản tóm tắt dữ liệu có bản quyền được sử dụng cho đào tạo

Rủi ro hạn chế

Các hệ thống AI có rủi ro hạn chế phải tuân thủ các yêu cầu tối thiểu về tính minh bạch để cho phép người dùng đưa ra quyết định sáng suốt. Sau khi tương tác với các ứng dụng, người dùng có thể quyết định xem họ có muốn tiếp tục sử dụng hay không. Người dùng nên được biết khi họ đang tương tác với AI. Điều này bao gồm các hệ thống AI tạo hoặc thao tác nội dung hình ảnh, âm thanh hoặc video, chẳng hạn như deepfakes.

Các bước tiếp theo

Nghị viện sẽ thống nhất vị trí đàm phán của mình vào tháng 2023 năm XNUMX, sau đó các cuộc đàm phán sẽ bắt đầu với các nước EU trong Hội đồng về hình thức cuối cùng của luật.

Mục tiêu là đạt được thỏa thuận vào cuối năm nay.

    - Quảng cáo -

    Thêm từ tác giả

    - NỘI DUNG ĐỘC QUYỀN -tại chỗ_img
    - Quảng cáo -
    - Quảng cáo -
    - Quảng cáo -tại chỗ_img
    - Quảng cáo -

    Phải đọc

    Bài viết mới nhất

    - Quảng cáo -