16.9 C
Bruselas
Jueves, mayo 2, 2024
InternacionalUna inteligencia artificial entrenada para reconocer la ironía y el sarcasmo

Una inteligencia artificial entrenada para reconocer la ironía y el sarcasmo

EXENCIÓN DE RESPONSABILIDAD: Las informaciones y opiniones reproducidas en los artículos son propias de quienes las expresan y es de su exclusiva responsabilidad. Publicación en The European Times no significa automáticamente la aprobación de la opinión, sino el derecho a expresarla.

DESCARGO DE RESPONSABILIDAD TRADUCCIONES: Todos los artículos de este sitio se publican en inglés. Las versiones traducidas se realizan a través de un proceso automatizado conocido como traducción neuronal. En caso de duda, consulte siempre el artículo original. Gracias por entender.

Expertos de la Universidad de Nueva York han entrenado una inteligencia artificial basada en grandes modelos lingüísticos para reconocer la ironía y el sarcasmo, informa la revista Computer Science.

En la actualidad, en la inteligencia artificial existen varios modelos de lenguaje que pueden analizar textos y adivinar su tono emocional, ya sea que estos textos expresen emociones positivas, negativas o neutrales. Hasta ahora, el sarcasmo y la ironía solían ser clasificados erróneamente como emociones “positivas”.

Los científicos han identificado características y componentes algorítmicos que ayudan a la inteligencia artificial a comprender mejor el verdadero significado de lo que se dice. Luego probaron su trabajo en los modelos RoBERTa y CASCADE LLM probándolos utilizando comentarios en el foro de Reddit. Resulta que las redes neuronales han aprendido a reconocer el sarcasmo casi tan bien como la persona promedio.

Por otro lado, el sitio Figaro informó que los propios artistas “infectan” sus obras para engañar a la inteligencia artificial (IA). El programa Glaze, desarrollado por la Universidad de Chicago, añade un margen a los trabajos que confunde a la IA. Ante la explotación de datos por parte de la IA, los artistas tienden una “trampa” en sus creaciones, dejándolas inutilizables.

Paloma McClain es una ilustradora estadounidense. La IA ahora puede crear imágenes a su estilo, aunque McClane nunca dio su consentimiento y no recibirá ningún pago. “Me confunde”, dice el artista, que vive en Houston, Texas. "No soy famoso, pero me siento mal por ese hecho".

Para evitar el uso de sus obras, utilizó el software Glaze. Glaze añade píxeles invisibles a sus ilustraciones. Esto confunde a la IA porque el funcionamiento del software hace que las imágenes sean borrosas.

“Estamos tratando de utilizar tecnológico capacidades para proteger las creaciones humanas de la IA”, explicó Ben Zhao de la Universidad de Chicago, cuyo equipo desarrolló el software Glaze en sólo cuatro meses.

Gran parte de los datos, imágenes, textos y sonidos utilizados para desarrollar modelos de IA no se proporcionan tras el consentimiento expreso.

Otra iniciativa es la de la startup Spawning, que ha desarrollado un software que detecta búsquedas en plataformas de imágenes y permite al artista bloquear el acceso a sus obras o enviar otra imagen en lugar de la buscada. Esto "envenena" el rendimiento de la IA, explica el cofundador de Spawning, Jordan Mayer. Más de mil sitios en Internet ya están integrados en la red de la startup Kudurru.

El objetivo es que las personas puedan proteger el contenido que crean, dijo Ben Zhao. En el caso de la startup Spawning, la idea no es sólo tener prohibiciones de uso de las obras, sino también posibilitar su venta, explicó Jordan Meyer. En su opinión, la mejor solución sería que todos los datos utilizados por la IA se proporcionaran con consentimiento y pagando una tarifa.

- Publicidad -

Más del autor

- CONTENIDO EXCLUSIVO -punto_img
- Publicidad -
- Publicidad -
- Publicidad -punto_img
- Publicidad -

Debe leer

Últimos artículos

- Publicidad -