Inteligência Artificial (IA) está na moda. Fico sempre cauteloso quando trato de “modinhas”, já
que as pessoas costumam banalizar o assunto. Isto está acontecendo com os sistemas chamados
de Inteligência Artificial Generativa, cujo melhor exemplo é o famigerado ChatGPT.
Desde 2014 pesquiso e trabalho com essa temática. Publiquei em 2016, quando a grande
maioria sequer imaginava que podiam surgir tecnologias assim, artigo essencial no qual analisei
a possibilidade de uma máquina computacional apresentar um comportamento ético na
produção de conteúdo. É a minha publicação científica mais citada no mundo (44x até hoje)
Falo isso porque é preciso muita prudência para tratar de um tema delicado como ética
computacional. Por mais banal que seja pedir uma receita de bolo ou dicas de como emagrecer
para o ChatGPT, a situação é diferente quando o que está em jogo é o Jornalismo, notadamente
o realizado por entidades públicas.
Fiquei muito honrado e lisonjeado quando comunicadores de todo o Ministério Público (MP)
brasileiro convidaram-me para realizar palestra no 1˚Conacomp, Congresso Nacional dos
Comunicadores do Ministério Público do Brasil, sobre inovação no campo da comunicação,
com destaque para tecnologias com IA. Foi um debate importante e necessário que todas as
instituições públicas brasileiras deveriam fazer, pois está em jogo aspectos imprescindíveis,
como o combate às notícias falsas e desinformação, a relevância do MP para a sociedade, assim
como a ética na informação de utilidade pública.
Um dos pontos que procurei destacar nas minhas ponderações e que gerou um intenso debate
foram os inúmeros erros que as máquinas cometem e a parcela de responsabilidade que cada um
de nós temos quando utilizamos esses sistemas. Mostrei em um simples diálogo com o
ChatGPT fornece informações erradas, ainda que o mesmo afirme taxativamente o contrário.
Como não tenho espaço hábil, não adentrarei a aspectos muito técnicos, como o tipo de
pergunta que fiz, porém posso assegurar que segui protocolos acadêmicos para testes.
Não vejo problema em constatar que a máquina erra. O maior complicador está na confiança
absoluta de que o sistema é infalível, o que é um grande engano. O sistema não só é passível de
erros, como o faz com maior frequência conforme a complexidade do assunto em questão. Por
exemplo, a probabilidade de a máquina errar ao ser questionada sobre métodos de
emagrecimento é infinitamente menor quando comparada com aspectos políticos, como
liberalismo e comunismo, ou ainda temas delicados como o aborto.
Se o usuário está ciente disso, podemos criar uma boa relação com o sistema e utilizá-lo de
forma profícua no dia a dia. Caso contrário, nos tornamos reféns de máquinas sem condições de
agir eticamente, assim como das empresas que criaram esses sistemas. Afinal, não nos
esqueçamos que existem interesses comerciais, políticos e ideológicos em cada uma dessas
tecnologias que usamos ;)
*Lucas V. de Araujo: PhD em Comunicação e Inovação (USP).
Jornalista Câmara de Mandaguari, Professor UEL, parecerista internacional e mentor de startups.
@professorlucasaraujo (Instagram) @professorlucas1 (Twitter)