Ngày nay, Đạo luật trí tuệ nhân tạo châu Âu (Đạo luật AI), quy định toàn diện đầu tiên trên thế giới về trí tuệ nhân tạo, có hiệu lực. Đạo luật AI được thiết kế để đảm bảo rằng AI được phát triển và sử dụng ở EU là đáng tin cậy, với các biện pháp bảo vệ các quyền cơ bản của người dân. Quy định này nhằm mục đích thiết lập một thị trường nội bộ hài hòa cho AI ở EU, khuyến khích việc tiếp thu công nghệ này và tạo ra một môi trường hỗ trợ cho sự đổi mới và đầu tư.
Đạo luật AI đưa ra một định nghĩa hướng tới tương lai về AI, dựa trên cách tiếp cận dựa trên rủi ro và an toàn sản phẩm ở EU:
- Rủi ro tối thiểu: Hầu hết các hệ thống AI, chẳng hạn như hệ thống đề xuất hỗ trợ AI và bộ lọc thư rác, đều thuộc loại này. Các hệ thống này không phải chịu bất kỳ nghĩa vụ nào theo Đạo luật AI do rủi ro tối thiểu đối với người dân. quyền và an toàn. Các công ty có thể tự nguyện áp dụng các quy tắc ứng xử bổ sung.
- Rủi ro minh bạch cụ thể: Hệ thống AI như chatbot phải thông báo rõ ràng cho người dùng rằng họ đang tương tác với máy. Một số nội dung do AI tạo ra, bao gồm cả nội dung giả mạo sâu, phải được gắn nhãn như vậy và người dùng cần được thông báo khi hệ thống phân loại sinh trắc học hoặc nhận dạng cảm xúc đang được sử dụng. Ngoài ra, các nhà cung cấp sẽ phải thiết kế hệ thống sao cho nội dung âm thanh, video, văn bản và hình ảnh tổng hợp được đánh dấu ở định dạng mà máy có thể đọc được và có thể phát hiện được là được tạo hoặc thao tác giả tạo.
- Rủi ro cao: Các hệ thống AI được xác định là có rủi ro cao sẽ phải tuân thủ yêu cầu nghiêm ngặt, bao gồm các hệ thống giảm thiểu rủi ro, bộ dữ liệu chất lượng cao, ghi nhật ký hoạt động, tài liệu chi tiết, thông tin người dùng rõ ràng, sự giám sát của con người và mức độ mạnh mẽ, chính xác và an ninh mạng cao. Hộp cát quy định sẽ tạo điều kiện thuận lợi cho sự đổi mới có trách nhiệm và phát triển các hệ thống AI tuân thủ. Các hệ thống AI có rủi ro cao như vậy bao gồm chẳng hạn như hệ thống AI được sử dụng để tuyển dụng hoặc để đánh giá xem ai đó có quyền vay vốn hay để chạy robot tự động hay không.
- Rủi ro không thể chấp nhận được: Các hệ thống AI được coi là mối đe dọa rõ ràng đối với các quyền cơ bản của con người sẽ cấm. Điều này bao gồm các hệ thống hoặc ứng dụng AI thao túng hành vi của con người nhằm phá hoại ý chí tự do của người dùng, chẳng hạn như đồ chơi sử dụng hỗ trợ giọng nói khuyến khích hành vi nguy hiểm của trẻ vị thành niên, các hệ thống cho phép chính phủ hoặc công ty 'chấm điểm xã hội' và một số ứng dụng nhất định của chính sách dự đoán. Ngoài ra, một số việc sử dụng hệ thống sinh trắc học sẽ bị cấm, ví dụ như hệ thống nhận dạng cảm xúc được sử dụng tại nơi làm việc và một số hệ thống phân loại con người hoặc nhận dạng sinh trắc học từ xa theo thời gian thực cho mục đích thực thi pháp luật trong không gian có thể truy cập công cộng (với các trường hợp ngoại lệ hẹp).
Để bổ sung cho hệ thống này, Đạo luật AI cũng đưa ra các quy tắc cho cái gọi là mô hình AI đa năng, là những mô hình AI có khả năng cao được thiết kế để thực hiện nhiều nhiệm vụ khác nhau như tạo văn bản giống con người. Các mô hình AI có mục đích chung ngày càng được sử dụng như các thành phần của ứng dụng AI. Đạo luật AI sẽ đảm bảo tính minh bạch trong chuỗi giá trị và giải quyết các rủi ro hệ thống có thể xảy ra đối với các mô hình có năng lực nhất.
Áp dụng và thực thi các quy tắc AI
Các quốc gia thành viên có thời hạn đến ngày 2 tháng 2025 năm XNUMX để chỉ định các cơ quan có thẩm quyền quốc gia, những người sẽ giám sát việc áp dụng các quy tắc cho hệ thống AI và thực hiện các hoạt động giám sát thị trường. Của Ủy ban Văn phòng AI sẽ là cơ quan thực thi chính của Đạo luật AI ở cấp EU, đồng thời là cơ quan thực thi các quy tắc cho mục đích chung Mô hình AI.
Ba cơ quan tư vấn sẽ hỗ trợ việc thực hiện các quy định. Các Ban trí tuệ nhân tạo châu Âu sẽ đảm bảo áp dụng thống nhất Đạo luật AI trên toàn EU các nước thành viên và sẽ đóng vai trò là cơ quan chính cho sự hợp tác giữa Ủy ban và các nước thành viên. Hội đồng khoa học gồm các chuyên gia độc lập sẽ đưa ra lời khuyên kỹ thuật và đầu vào về việc thực thi. Đặc biệt, hội đồng này có thể đưa ra cảnh báo cho Văn phòng AI về các rủi ro liên quan đến các mô hình AI có mục đích chung. Văn phòng AI cũng có thể nhận được hướng dẫn từ diễn đàn tư vấn, bao gồm một tập hợp đa dạng các bên liên quan.
Các công ty không tuân thủ các quy định sẽ bị phạt. Tiền phạt có thể lên tới 7% doanh thu hàng năm trên toàn cầu đối với hành vi vi phạm các ứng dụng AI bị cấm, lên tới 3% đối với hành vi vi phạm các nghĩa vụ khác và lên tới 1.5% đối với việc cung cấp thông tin không chính xác.
Bước tiếp theo
Phần lớn các quy tắc của Đạo luật AI sẽ bắt đầu áp dụng vào ngày 2 tháng 2026 năm 12. Tuy nhiên, các lệnh cấm đối với các hệ thống AI được coi là có rủi ro không thể chấp nhận được sẽ được áp dụng sau sáu tháng, trong khi các quy tắc dành cho cái gọi là mô hình AI có Mục đích Chung sẽ được áp dụng sau đó. XNUMX tháng.
Để thu hẹp giai đoạn chuyển tiếp trước khi thực hiện đầy đủ, Ủy ban đã đưa ra Hiệp ước AI. Sáng kiến này mời các nhà phát triển AI tự nguyện áp dụng các nghĩa vụ chính của Đạo luật AI trước thời hạn pháp lý.
Ủy ban cũng đang phát triển các hướng dẫn để xác định và trình bày chi tiết cách thực hiện Đạo luật AI và tạo điều kiện cho các công cụ đồng quản lý như tiêu chuẩn và quy tắc thực hành. Ủy ban đã mở lời kêu gọi thể hiện sự quan tâm tham gia xây dựng Quy tắc thực hành AI có mục đích chung đầu tiên, cũng như tham vấn nhiều bên liên quan tạo cơ hội cho tất cả các bên liên quan có tiếng nói về Quy tắc thực hành đầu tiên theo Đạo luật AI.
Tiểu sử
Trên 9 tháng 12 2023, Ủy ban hoan nghênh thỏa thuận chính trị về Đạo luật AI. Vào ngày 24 tháng 2024 năm XNUMX Ủy ban đã đưa ra một gói biện pháp để hỗ trợ các công ty khởi nghiệp và doanh nghiệp vừa và nhỏ ở châu Âu trong việc phát triển AI đáng tin cậy. Vào ngày 29 tháng 2024 năm XNUMX Ủy ban ra mắt Văn phòng AI. Vào ngày 9 tháng 2024 năm XNUMX, Quy định EuroHPC JU sửa đổi có hiệu lực, do đó cho phép thiết lập các nhà máy AI. Điều này cho phép sử dụng các siêu máy tính AI chuyên dụng để đào tạo các mô hình AI Mục đích Chung (GPAI).
Tiếp tục nghiên cứu độc lập, dựa trên bằng chứng được thực hiện bởi Trung tâm nghiên cứu chung (JRC) là nền tảng trong việc định hình các chính sách AI của EU và đảm bảo việc thực hiện chúng một cách hiệu quả.