A Câmara dos Deputados promoveu nesta terça-feira, 10/12/2024, seminário para debater comunicação pública e inteligência artificial. O evento, que inaugura as comemorações pelos 25 anos da Agência Câmara, será realizado no auditório da TV Câmara. Durante o seminário, houve também o lançamento do Manual de Comunicação da Câmara dos Deputados.
O professor Márcio Carneiro, da Universidade Federal do Maranhão, está inovando muito no campo da inteligência artificial no Brasil. Existe uma grande desinformação ao redor desse tema.
Márcio Carneiro dos Santos, coordenador do GT de IA da SET - Sociedade Brasileira de Engenharia de Televisão e do NID - Núcleo de Inteligência de Dados da UFMA, onde atua com treinamento, consultoria, desenvolvimento e no combate à grande desinformação geral sobre o tema.(1)
IA é uma área de conhecimento com décadas de desenvolvimento, mas realmente uma sub-área mais recente. A inteligência artificial generativa (IAG) começa no final de 22 e vai tomando espaço e trazendo essa atenção toda. No entanto, ela não é boa recuperando dados, como explica o professor Márcio Carneiro:
“As pessoas pensam, por exemplo, que ela é um buscador. É bem comum vermos alguém dizer que o chat GPT errou. O chat GPT, para quem não conhece, é o produto mais famoso da IA generativa e que muita gente está usando. A generativa foi feita para ser criativa. Então, ela é boa para reconfigurar, sumarizar, dar novas versões das coisas. No caso do uso para o jornalismo, por exemplo, converter, de repente, um conteúdo que está no site. Para o mobile, para o celular. Ou para uma plataforma de mídias sociais. Ou converter isso para áudio. São muitas aplicações.”
Segundo o especialista em IA generativa, desde o início do digital, das redes, a gente percebe que o problema não é mais o problema do mundo analógico, de escassez de informação, a informação limitada às fontes tradicionais, às grandes redações. A gente tem uma explosão de informação. Então, o problema agora é de excesso. O jornalista, claro, ele tem que desenvolver habilidades. Não é a planilha pela planilha, mas é porque, provavelmente, muitos dados estão em portais de transparência, em portais públicos, e ele vai ter que lidar com esses dados, não porque ele tem que aprender a planilha, mas para ele entender as histórias que aqueles dados vão nos contar e que vão nos dar subsídio para o nosso trabalho, impondo novos desafios expostos pelo professor Márcio Carneiro:
“Em relação a IA, a regra básica é essa. E a IAG foi feita para ser criativa, não foi feita para ser precisada. Mas, entretanto, você pode usar, a gente tem várias aplicações de IAG para o ambiente jornalístico, nas redações. O que precisa ser feito é uma mudança na governança da redação ou no manual de redação, que é um documento para você ter treinamento e uso transparente, para você ter limites e saber quem é responsável por determinadas coisas. Porque nos estudos, a ideia de automatizar a narrativa sem IA é bem antiga.”
O professor Márcio Carneiro também fala da importância da transparência das redações de imprensa em admitirem o uso de modelos de geração de conteúdo por inteligência artificial:
“O leitor, o usuário do conteúdo jornalístico, ele precisa saber que ele está consumindo uma coisa que não é. A gente precisa ter transparência. Antigamente, algumas redações usavam algum tipo de automação, mas não externavam isso. Isso gerava um problema. Era melhor esconder. Como hoje está na moda, as redações estão externando. O uso profissional, o uso nas redações, ele precisa de limites. E a gente, claro, tem método para isso. A ideia é uma mudança na governança daquela redação, daquela organização jornalística, para que ela possa treinar, usar de forma ética, usar de forma transparente, porque, no geral, se você está numa área onde a qualidade da informação é crítica, você pode usar IAG? Pode, mas com muito cuidado e com treinamento para saber até onde você pode ir.”
Quanto à questão de estabelecer diretrizes para evitar riscos éticos no uso profissional dessa ferramenta, o professor afirma que o desafio é buscar uma regulamentação correta:
“Sim, essa pergunta é muito importante, porque essa questão da ética está empurrando uma busca também necessária por regulamentação. Mas é importante entender que IA é um campo enorme e ela já tem aplicações muito antigas. Você usa e, de repente, não é um cara muito tecnológico, mas você tem, provavelmente, uma conta de e-mail. Dentro dessa conta de e-mail, provavelmente, tem um detector de spam, uma pasta de spam. Ali tem um algoritmo de detecção, é inteligência artificial, machine learning, e está atrapalhando. Você usa isso há muito tempo e não sabe. Agora, a questão ética que a gente vê na IAG, nessa sub-área mais recente. A principal questão é que, para fazer esses produtos funcionarem, as big techs coletaram, sem autorização, tudo que elas puderam coletar na internet. Livros, material jornalístico.”
O New York Times está processando a OpenAI, que é a desenvolvedora do chat GPT, porque esse problema ético começa na forma como o modelo é treinado, porque eles pegaram tudo que puderam sem avisar. Allém disso, a mágica da IAG, ela não acontece na sua máquina, ela acontece num servidor, na nuvem, lá no computador do dono do negócio. Quando você está usando uma ferramenta dessa, eventualmente ela vai te dar uma resposta baseada em alguma coisa de um autor que está lá, que o material está lá coletado, foi usado. Enfim, para treinar o modelo. E ele está respondendo com base naquilo. Você está usando e não sabe o que es´ta sendo processado, destaca Márcio Carneiro.
Então, a questão ética é importante, mas eu acho que ela está motivando um debate por normatização. Que é necessário, mas um pouco desfocado. Acho que a normatização precisava ir, por exemplo, como no estado da Califórnia, onde a regulamentação de IA está indo justamente para proteger o direito do autor. Ou seja, o fotógrafo, o escritor, o roteirista. Isso vai estourar no judiciário, já está estourando e vai estourar mais. Mas a gente está num período de transição, então vamos ver o que acontece.
Por que ainda existe um profissional que é responsável pela “verdade”. Que responde por isso? E que tipo de ferramentas a gente tem que assegurar numa inteligência para que, apesar de serem desenvolvidas pelas big techs americanas, elas sejam acessíveis?
Márcio Carneiro acredita que as empresas norte americanas deveriam ser responsabilizadas pelo circula em suas redes, por meio da regulação.
“Aparentemente as big techs não estão ligando muito para a legislação. O Legislativo está fazendo a sua parte, o Judiciário. Vamos ver o que acontece. Em relação ao ao papel do jornalista, eu treino. O meu trabalho é de formar recursos humanos para a área de jornalismo, dou aula na graduação, na pós-graduação, nessa área. Então eu sempre digo que acho que esse momento em que a gente vive com excesso de informação, sem a condição de ver o que é mentira, a mentira chegando de todos os lados, até num WhatsApp de família, acho que, no meu entendimento, em nenhum outro momento da história, a atividade jornalística foi tão importante como a última, vamos dizer assim, a última fronteira para resguardar a sociedade e a democracia de valores que ela precisa preservar e que estão em ataque regularmente.
O que precisamos fortalecer é a atividade jornalística executada com ética, pela coisa mais básica, que é a checagem da informação. Então, o trabalho do jornalista é esse trabalho fundamental que vai ajudar a sociedade a processar e a entender esse volume enorme que chega para as pessoas. E acho que nunca foi tão necessário, apesar de ser muito, às vezes, desvalorizado esse trabalho, mas acho que nunca foi tão necessária a atividade jornalística na sociedade contemporânea.”
- https://sigaa.ufma.br/sigaa/public/docente/portal.jsf?lc=en_US&siape=1766795
Você ainda pode enviar a sua sugestão de tema, crítica ou sugestão para o WhatsApp da Rádio Câmara (61) 99978-9080 ou para o e-mail papodefuturo@camara.leg.br.
https://www.cnnbrasil.com.br/economia/macroeconomia/governo-dos-eua-procura-formas-de-regular-big-techs-veja-algumas-opcoes/
Comentário – Beth Veloso
Apresentação – Mauro Ceccherini