14.2 C
Bruselas
Jueves, mayo 2, 2024
EuropaUE analiza prohibición de vigilancia masiva asistida por IA

UE analiza prohibición de vigilancia masiva asistida por IA

EXENCIÓN DE RESPONSABILIDAD: Las informaciones y opiniones reproducidas en los artículos son propias de quienes las expresan y es de su exclusiva responsabilidad. Publicación en The European Times no significa automáticamente la aprobación de la opinión, sino el derecho a expresarla.

DESCARGO DE RESPONSABILIDAD TRADUCCIONES: Todos los artículos de este sitio se publican en inglés. Las versiones traducidas se realizan a través de un proceso automatizado conocido como traducción neuronal. En caso de duda, consulte siempre el artículo original. Gracias por entender.

La inteligencia artificial, así como su subsección aún más común de aprendizaje automático, no ha estado exento de una buena cantidad de voces disidentes, con preocupaciones planteadas en torno a tres cuestiones éticas clave: las implicaciones sobre el sesgo y la discriminación, la vigilancia masiva y la privacidad de los ciudadanos, así como la cuestión algo más metafísica de simular la capacidad humana para juzgar una situación compleja y actuar en consecuencia.

A principios de esta semana, un informe del sitio de periodismo político Politico informó sobre una propuesta filtrada que sugiere que la Unión Europea está considerando la posible implementación de una legislación de amplio alcance que prohibiría efectivamente el uso de inteligencia artificial en ciertas aplicaciones y tipos de uso. .

Las áreas principales que la inteligencia artificial puede afectar incluyen el controvertido tema de los puntajes de crédito, así como la vigilancia masiva. Esto proporcionaría una diferenciación sustancial entre la Unión Europea y los Estados Unidos y China, donde tales aplicaciones de tecnología artificial están en desarrollo o ya están en uso.

El sistema de vigilancia masiva en China fue recientemente el centro de atención de activistas y analistas políticos debido a su aplicación en Xinjiang para el seguimiento de la población uigur. “Los uigures han estado durante mucho tiempo bajo vigilancia constante de alta tecnología que rastrea, analiza y registra cada uno de sus movimientos y examina sus comunicaciones personales en busca de evidencia de disidencia”, escribieron Michael Chertoff y N. MacDonnell Ulsch en un artículo del Washington Post a principios de este mes. “A esta cultura de vigilancia se suma la evolución de la inteligencia artificial desde una novedad diseñada para ganar partidas de ajedrez contra humanos a una ciencia que ahora es capaz de reconocimiento facial y perfiles individuales”, agrega el artículo.

En relación con la UE, la propuesta filtrada incluiría un mandato para que todos los estados miembros establezcan comités especializados para la valoración y evaluación específica de los sistemas de inteligencia artificial con un alto factor de riesgo (es decir, cuya aplicación sería en un sector empresarial o social sensible) .

Una copia preliminar de la propuesta, sobre la que han informado numerosas publicaciones de medios, dice que la legislación impediría explícitamente el uso de tecnología de inteligencia artificial para “vigilancia indiscriminada, que incluiría el seguimiento y seguimiento automático de personas; prohibir el uso de aplicaciones de inteligencia artificial cuyo objetivo sea crear puntajes de crédito social utilizando una serie de factores para determinar un nivel percibido de confianza y medios financieros; y requieren la autorización de un comité u otro organismo dedicado para usar sistemas de identificación biométrica remota, como el reconocimiento facial en lugares públicos.

La propuesta también implicaría la formulación de una agencia especial para tratar estos asuntos. La agencia se llama tentativamente Junta Europea de Inteligencia Artificial y estaría compuesta por agentes especiales que representan a cada estado miembro. Estos representantes también podrían ayudar a la Comisión Europea a decidir qué sistemas de inteligencia artificial deben designarse como de "alto riesgo" y también pueden facilitar ciertos cambios en las prohibiciones y limitaciones propuestas del uso de IA.

Las primeras reacciones de los analistas sugieren que aunque este es un paso en la dirección correcta para la protección de la privacidad y otros derechos humanos en la UE, el lenguaje actual utilizado en la versión filtrada del borrador es lo suficientemente vago e indeterminado como para permitir que las empresas y organizaciones lo eludan por completo o trabajen a través de él.

“En mi opinión, representa el enfoque típico de Bruselas para las nuevas tecnologías y la innovación. En caso de duda, regular. Completar con una nueva base de datos para el registro de sistemas de IA de alto riesgo (Título VIII). Todo un retroceso a los días del 95/46 DPD. Y un enfoque muy de la década de 1970 para la regulación tecnológica”, dijo Omer Tene, vicepresidente de la organización sin fines de lucro IAPP (La Asociación Internacional de Profesionales de la Privacidad).

“El Anexo II [del documento filtrado] define “sistemas de IA de alto riesgo”. Estos sistemas están sujetos a todo el empuje de la regulación. Es amplio, e incluye sistemas de IA utilizados para la aceptación en instituciones educativas y pruebas educativas, reclutamiento para trabajar, calificación crediticia, el sistema de justicia penal y más. La disposición clave del reglamento es el artículo 4, que define las “prácticas de IA prohibidas”. Causará una gran consternación porque es vago y potencialmente lo abarca todo”, agregó Tene.

- Publicidad -

Más del autor

- CONTENIDO EXCLUSIVO -punto_img
- Publicidad -
- Publicidad -
- Publicidad -punto_img
- Publicidad -

Debe leer

Últimos artículos

- Publicidad -