Economia

1˚ Conacomp e o desafio da ética na Inteligência Artificial Generativa

16 out 2023 às 08:00

Inteligência Artificial (IA) está na moda. Fico sempre cauteloso quando trato de “modinhas”, já

que as pessoas costumam banalizar o assunto. Isto está acontecendo com os sistemas chamados

de Inteligência Artificial Generativa, cujo melhor exemplo é o famigerado ChatGPT.


Desde 2014 pesquiso e trabalho com essa temática. Publiquei em 2016, quando a grande

maioria sequer imaginava que podiam surgir tecnologias assim, artigo essencial no qual analisei

a possibilidade de uma máquina computacional apresentar um comportamento ético na

produção de conteúdo. É a minha publicação científica mais citada no mundo (44x até hoje)

https://tinyurl.com/32djykth


Falo isso porque é preciso muita prudência para tratar de um tema delicado como ética

computacional. Por mais banal que seja pedir uma receita de bolo ou dicas de como emagrecer

para o ChatGPT, a situação é diferente quando o que está em jogo é o Jornalismo, notadamente

o realizado por entidades públicas.


Fiquei muito honrado e lisonjeado quando comunicadores de todo o Ministério Público (MP)

brasileiro convidaram-me para realizar palestra no 1˚Conacomp, Congresso Nacional dos

Comunicadores do Ministério Público do Brasil, sobre inovação no campo da comunicação,

com destaque para tecnologias com IA. Foi um debate importante e necessário que todas as

instituições públicas brasileiras deveriam fazer, pois está em jogo aspectos imprescindíveis,

como o combate às notícias falsas e desinformação, a relevância do MP para a sociedade, assim

como a ética na informação de utilidade pública.


Um dos pontos que procurei destacar nas minhas ponderações e que gerou um intenso debate

foram os inúmeros erros que as máquinas cometem e a parcela de responsabilidade que cada um

de nós temos quando utilizamos esses sistemas. Mostrei em um simples diálogo com o

ChatGPT fornece informações erradas, ainda que o mesmo afirme taxativamente o contrário.


Como não tenho espaço hábil, não adentrarei a aspectos muito técnicos, como o tipo de

pergunta que fiz, porém posso assegurar que segui protocolos acadêmicos para testes.


Não vejo problema em constatar que a máquina erra. O maior complicador está na confiança

absoluta de que o sistema é infalível, o que é um grande engano. O sistema não só é passível de

erros, como o faz com maior frequência conforme a complexidade do assunto em questão. Por

exemplo, a probabilidade de a máquina errar ao ser questionada sobre métodos de

emagrecimento é infinitamente menor quando comparada com aspectos políticos, como

liberalismo e comunismo, ou ainda temas delicados como o aborto.


Se o usuário está ciente disso, podemos criar uma boa relação com o sistema e utilizá-lo de

forma profícua no dia a dia. Caso contrário, nos tornamos reféns de máquinas sem condições de

agir eticamente, assim como das empresas que criaram esses sistemas. Afinal, não nos

esqueçamos que existem interesses comerciais, políticos e ideológicos em cada uma dessas

tecnologias que usamos ;)


*Lucas V. de Araujo: PhD em Comunicação e Inovação (USP).

Jornalista Câmara de Mandaguari, Professor UEL, parecerista internacional e mentor de startups.

@professorlucasaraujo (Instagram) @professorlucas1 (Twitter)

Continue lendo