13.1 C
Bruselas
(Domingo, 12 de mayo de 2024
EuropaLa Comisión Europea revela reglas y acciones para la IA en la Unión Europea

La Comisión Europea revela reglas y acciones para la IA en la Unión Europea

EXENCIÓN DE RESPONSABILIDAD: Las informaciones y opiniones reproducidas en los artículos son propias de quienes las expresan y es de su exclusiva responsabilidad. Publicación en The European Times no significa automáticamente la aprobación de la opinión, sino el derecho a expresarla.

DESCARGO DE RESPONSABILIDAD TRADUCCIONES: Todos los artículos de este sitio se publican en inglés. Las versiones traducidas se realizan a través de un proceso automatizado conocido como traducción neuronal. En caso de duda, consulte siempre el artículo original. Gracias por entender.

Banderas de la UE en el edificio Berlaymont de la Comisión Europea guillaume perigois unsplash La Comisión Europea revela reglas y acciones para la IA en la Unión EuropeaHoy el Comisión Europea propuso nuevas reglas y acciones como parte de un esfuerzo por convertir a la Unión Europea en un centro global para la Inteligencia Artificial (IA).

El "primer marco legal" está diseñado para garantizar la confianza y la seguridad al mismo tiempo que se fomenta la innovación en IA.

En un discurso del vicepresidente ejecutivo de EC margarethe vestager, se describieron cinco obligaciones para la IA en Europa:

  • Los proveedores de inteligencia artificial deben alimentar sus sistemas con datos de alta calidad para asegurarse de que los resultados no salgan sesgados o discriminatorios;
  • También deben proporcionar documentación detallada sobre cómo funcionan sus sistemas de inteligencia artificial, para que las autoridades evalúen su cumplimiento;
  • Los proveedores deben compartir información sustancial con los usuarios para ayudarlos a comprender y utilizar correctamente los sistemas de IA;
  • deben garantizar un nivel adecuado de supervisión humana tanto en el diseño como en la implementación de la inteligencia artificial;
  • y finalmente, deben respetar los más altos estándares de ciberseguridad y precisión.

Vestager dijo que su estrategia para el futuro digital de Europa es crear, "un ecosistema de confianza va de la mano con un ecosistema de excelencia".

"Por Europa para convertirnos en un líder mundial en IA confiable, debemos brindarles a las empresas acceso a las mejores condiciones para construir sistemas avanzados de IA”, dijo Vestager. Esta es la idea detrás de nuestro plan coordinado revisado sobre Inteligencia Artificial. Coordina las inversiones entre los Estados miembros para garantizar que el dinero de los programas Europa Digital y Horizonte Europa se gaste donde más lo necesitamos. Por ejemplo, en computación de alto rendimiento o para crear instalaciones para probar y mejorar los sistemas de IA”.

En una declaración de la Comisión, se describieron los sistemas de IA de alto riesgo:

  • Infraestructuras críticas (por ejemplo, transporte), que podrían poner en riesgo la vida y la salud de los ciudadanos;
  • Formación educativa o vocacional, que puede determinar el acceso a la educación y el curso profesional de la vida de alguien (por ejemplo, calificación de exámenes);
  • Componentes de seguridad de los productos (por ejemplo, aplicación de IA en cirugía asistida por robot);
  • Empleo, gestión de trabajadores y acceso al trabajo por cuenta propia (por ejemplo, software de clasificación de CV para los procedimientos de contratación);
  • Servicios públicos y privados esenciales (por ejemplo, calificación crediticia que niega a los ciudadanos la oportunidad de obtener un préstamo);
  • Aplicación de la ley que pueda interferir con los derechos fundamentales de las personas (por ejemplo, evaluación de la confiabilidad de las pruebas);
  • Gestión de migración, asilo y control de fronteras (por ejemplo, verificación de la autenticidad de los documentos de viaje);
  • Administración de justicia y procesos democráticos (por ejemplo, aplicación de la ley a un conjunto concreto de hechos).
  • Los sistemas de IA de alto riesgo estarán sujetos a estrictas obligaciones antes de que puedan comercializarse:

Sistemas adecuados de evaluación y mitigación de riesgos;

  1. Alta calidad de los conjuntos de datos que alimentan el sistema para minimizar los riesgos y los resultados discriminatorios;
  2. Registro de actividad para garantizar la trazabilidad de los resultados;
  3. Documentación detallada que proporcione toda la información necesaria sobre el sistema y su propósito para que las autoridades evalúen su cumplimiento;
  4. Información clara y adecuada al usuario;
  5. Medidas apropiadas de supervisión humana para minimizar el riesgo;
  6. Alto nivel de robustez, seguridad y precisión.

En general, el objetivo es crear “condiciones propicias para que la IA crezca y se desarrolle. Los próximos pasos en la iniciativa política incluyen que el Parlamento Europeo y los Estados miembros adopten las propuestas de la Comisión sobre el enfoque para la IA, así como los productos de maquinaria, en el procedimiento legislativo. Una vez adoptados, los Reglamentos serán directamente aplicables en toda la UE.

Por supuesto, la IA ya es bastante prolífica en varias industrias, siendo los servicios financieros un benefactor clave de la tecnología.

La UE planea dedicar mil millones de euros al año en IA y atraer más de 1 mil millones de euros en inversión total en IA cada año.

Solo el tiempo dirá si este enfoque estructurado impulsará una mayor innovación y adopción o si una política más laissez-faire puede ser superior.

Las nuevas reglas así como las preguntas y respuestas, están disponibles aquí.

- Publicidad -

Más del autor

- CONTENIDO EXCLUSIVO -punto_img
- Publicidad -
- Publicidad -
- Publicidad -punto_img
- Publicidad -

Debe leer

Últimos artículos

- Publicidad -