Os governos devem adotar legislação para que veículos de mídia sejam compensados pelo uso de seu conteúdo no treinamento de modelos de inteligência artificial. A recomendação vem do Fórum sobre Informação e Democracia, em relatório recém-lançado que traz orientações a formuladores de políticas e empresas de IA.
Leia mais:
Visando a segurança no segundo turno das eleições, Justiça Eleitoral lança operação em Londrina
Crianças Sem Terrinha lotam plenário da ALEP e apresentam pauta de reivindicações
João Esteves deixa a Secretaria de Governo e prefeito nomeia Ronaldo Siena para o cargo
Nunes tem 44% contra 35% de Boulos em SP, aponta pesquisa Quaest
Segundo a entidade, embora acordos voluntários de licenciamento de conteúdo entre companhias de inteligência artificial e organizações jornalísticas possam ser um primeiro passo, eles não garantem a sustentabilidade dos veículos e podem favorecer grandes grupos de mídia.
As recomendações constam do relatório intitulado "IA como um bem público: garantindo controle democrático da IA no espaço informacional".
A Associated Press e a Axel Springer (dona do Politico, Bild e Welt) fecharam contratos de licenciamento de conteúdo com a Open AI, criadora do ChatGPT, no ano passado. Já o jornal The New York Times está processando a companhia de tecnologia por violações de direitos autorais. No Brasil, a Folha e outros veículos bloquearam a mineração de dados em seus sites.
O Fórum reúne 11 organizações internacionais e realiza sua conferência em paralelo à Assembleia Geral da ONU. As recomendações foram divulgadas no momento em que a União Europeia se prepara para votar sua Lei de IA e após a Casa Branca baixar um decreto sobre o tema. O Senado brasileiro também levará a votação um projeto de lei sobre o tópico, de autoria do senador Rodrigo Pacheco (PSD-MG).
O relatório recomenda que os países estabeleçam direitos para as organizações de mídia e jornalistas em relação ao uso de conteúdo jornalístico para treinamento e "grounding" (contextualização, fundamentação e checagem) de IA. As organizações de mídia devem ter direito a transparência sobre o uso de seu conteúdo e a opção de não permitir a utilização.
O Fórum sugere modelos para compensação dos veículos de mídia pelo uso de seu conteúdo: por meio de imposto sobre a receita das empresas de IA ou de taxação global para apoiar a mídia. Esses recursos seriam distribuídos através de um fundo independente global.
O documento também aponta para a possibilidade de estabelecer os chamados códigos de barganha, como o implementado na Austrália em 2021, que permitem aos veículos negociação conjunta com as empresas, e arbitragem caso não se chegue a um acordo. Outra possibilidade aventada é implementar um sistema de royalties semelhante à compensação usada em plataformas como o Spotify.
Outra recomendação do Fórum é aumentar o peso da credibilidade e qualidade dos veículos de notícias e de suas reportagens nos algoritmos de classificação e recomendação, para aumentar a visibilidade de informação de qualidade, e não apenas de conteúdo que engaja.
O relatório alerta que acontecimentos recentes mostraram o poder destrutivo que a IA pode ter sobre os processos políticos.
"Deepfakes de políticos podem influenciar o comportamento de eleitores, os sistemas de IA podem amplificar conteúdos que acirram conflitos, chatbots já deram informações incorretas sobre eleições, e os sistemas de IA podem reproduzir desigualdades existentes e levar a discriminação e viés", diz o grupo. "No entanto, a IA também apresenta possibilidades inexploradas para fortalecer a produção de notícias, análise de dados e acesso à informação."
"Em um ano em que quase 3 bilhões de pessoas irão às urnas no mundo todo, esse tema não poderia ser mais importante", diz Laura Schertel Mendes, co-presidente do grupo de trabalho que elaborou o relatório e professora de Direito no IDP. "Regular a esfera pública digitalizada é pressuposto básico para qualquer democracia, para que as pessoas possam formar suas opiniões de forma livre e independente."
Entre as outras recomendações estão a adoção de padrões de autenticidade e procedência de conteúdo, rotulagem, "fair trade" e transparência dos sistemas de IA, além de processos participativos para definir regras e critérios para criar e testar inteligências artificiais.