17.6 C
Bruxelas
Thursday, May 9, 2024
InternacionaisUma inteligência artificial foi treinada para reconhecer ironia e sarcasmo

Uma inteligência artificial foi treinada para reconhecer ironia e sarcasmo

AVISO LEGAL: As informações e opiniões reproduzidas nos artigos são de responsabilidade de quem as expressa. Publicação em The European Times não significa automaticamente o endosso do ponto de vista, mas o direito de expressá-lo.

TRADUÇÕES DE ISENÇÃO DE RESPONSABILIDADE: Todos os artigos deste site são publicados em inglês. As versões traduzidas são feitas por meio de um processo automatizado conhecido como traduções neurais. Em caso de dúvida, consulte sempre o artigo original. Obrigado pela compreensão.

Especialistas da Universidade de Nova York treinaram uma inteligência artificial baseada em grandes modelos de linguagem para reconhecer ironia e sarcasmo, relata a revista “Computer Science”.

Na inteligência artificial de hoje, existem vários modelos de linguagem que podem analisar textos e adivinhar o seu tom emocional – se esses textos expressam emoções positivas, negativas ou neutras. Até agora, o sarcasmo e a ironia eram geralmente classificados erroneamente por eles como emoções “positivas”.

Os cientistas identificaram características e componentes algorítmicos que ajudam a inteligência artificial a compreender melhor o verdadeiro significado do que está sendo dito. Eles então testaram seu trabalho nos modelos RoBERTa e CASCADE LLM, testando-os usando comentários no fórum Reddit. Acontece que as redes neurais aprenderam a reconhecer o sarcasmo quase tão bem quanto a pessoa comum.

Por outro lado, o site Figaro informou que os próprios artistas “infectam” suas obras para enganar a inteligência artificial (IA). O programa Glaze, desenvolvido pela Universidade de Chicago, adiciona uma marcação aos trabalhos que confunde a IA. Diante da exploração de dados pela IA, os artistas armaram uma “armadilha” em suas criações, tornando-as inutilizáveis.

Paloma McClain é uma ilustradora americana. A IA agora pode criar imagens em seu estilo, embora McClane nunca tenha dado seu consentimento e não receba nenhum pagamento. “Isso me confunde”, diz a artista, que mora em Houston, Texas. “Não sou famoso, mas me sinto mal por isso.”

Para impedir o uso de suas obras, ela utilizou o software Glaze. Glaze adiciona pixels invisíveis às suas ilustrações. Isso confunde a IA porque a operação do software torna as imagens borradas.

“Estamos tentando usar tecnológica capacidades para proteger as criações humanas da IA”, explicou Ben Zhao, da Universidade de Chicago, cuja equipe desenvolveu o software Glaze em apenas quatro meses.

Muitos dos dados, imagens, textos e sons utilizados para desenvolver modelos de IA não são fornecidos após consentimento expresso.

Outra iniciativa é a da startup Spawning, que desenvolveu um software que detecta buscas em plataformas de imagens e permite ao artista bloquear o acesso às suas obras ou enviar outra imagem no lugar da buscada. Isso “envenena” o desempenho da IA, explica o cofundador da Spawning, Jordan Mayer. Mais de mil sites na Internet já estão integrados na rede da startup – Kudurru.

O objetivo é que as pessoas possam proteger o conteúdo que criam, disse Ben Zhao. No caso da startup Spawning, a ideia não é apenas ter proibições ao uso das obras, mas também viabilizar a sua venda, explicou Jordan Meyer. Na sua opinião, a melhor solução seria que todos os dados utilizados pela IA fossem fornecidos com consentimento e mediante pagamento de uma taxa.

- Propaganda -

Mais do autor

- CONTEÚDO EXCLUSIVO -local_img
- Propaganda -
- Propaganda -
- Propaganda -local_img
- Propaganda -

Deve ler

Artigos Mais Recentes

- Propaganda -