20 de março de 2025
A obra lançada com o selo Intercom “Diretrizes para o uso ético e responsável da Inteligência Artificial Generativa: um guia prático para pesquisadores”, é um livro imperdível para quem deseja debater os limites éticos do uso da IAG na comunicação.
Os autores, Rafael Cardoso Sampaio (UFPR), Marcelo Sabbatini (UFPE) e Ricardo Limongi (UFG) criaram um guia prático para discutir e promover seu uso ético e responsável, principalmente na pesquisa e no cotidiano de profissionais. O livro “Diretrizes para o uso ético e responsável da Inteligência Artificial Generativa: um guia prático para pesquisadores” está disponível para download gratuito neste link.
Para compreender mais sobre a obra e o uso ético da IAG na pesquisa, a Intercom conversou com o professor da Universidade Federal de Goiás, Ricardo Limongi, e também com o professor Marcelo Sabbatini, da Universidade Federal de Pernambuco. Ambos comentam mais sobre o lançamento da obra e os impactos da IAG na contemporaneidade.
Intercom (I): A IA Generativa tem sido utilizada cada vez mais no universo acadêmico. Como vocês, dentro do livro, apresentam a temática e refletem sobre os impactos e benefícios da utilização dela no dia a dia da pesquisa e da ciência?
Ricardo Limongi (RL): No livro, abordamos a IA Generativa (IAG) como uma ferramenta que pode trazer benefícios para a pesquisa científica, como a automação de tarefas repetitivas, a geração de ideias iniciais, a busca e síntese de literatura, e a análise de dados, porém evidenciamos que protagonismo é do pesquisador, e não da IAG. No entanto, também destacamos os desafios e riscos associados ao seu uso, como a possibilidade de vieses, alucinações (geração de informações incorretas), e questões éticas relacionadas à autoria, originalidade e privacidade. Refletimos sobre a necessidade de equilibrar o uso da IAG com a preservação da agência humana, garantindo que os pesquisadores mantenham o controle sobre o processo de pesquisa e que a tecnologia seja usada como uma ferramenta complementar, e não como substituta do pensamento crítico e criativo.
Marcelo Sabbatini (MS): Penso que o tom do guia é o de experimentação cuidadosa. O que estamos dizendo é, veja, existem muitas coisas que podem ser feitas com o auxílio da IA e que possivelmente vão melhorar a qualidade (e a quantidade) de seus trabalhos de pesquisa. Porém, para cada benefício tem uma série de cuidados a serem tomados, questões a serem consideradas e que chegam ao ponto do “não use para isto”.
I: Dentro das possibilidades da IA Generativa, há muito desconhecimento sobre a utilização. Por que é necessário refletir sobre a ética diante de um cenário ainda de aprendizagem?
MS: Porque a reflexão ética é primordial, inclusive diria que ela precisaria ser mais abordada, independentemente da tecnologia. Um dos retratos que se faz do ambiente acadêmico, neste momento, é do produtivismo e do aumento da competição por recursos, o que por si só nos leva tanto a comportamentos antiéticos – que comprometem a confiabilidade de uma pesquisa – como fraudulentos e que beneficiam de forma injusta aqueles que o praticam. Antes da IA, o plágio já era um problema que exigia muita atenção, principalmente com o modelo de trabalho de conclusão que a pós-graduação adota. Ao mesmo tempo, o sistema de publicação científica está saturado, incluindo o sistema de revisão por pares. A Inteligência Artificial se insere num cenário que já é problemático, demandando ainda mais este olhar ético.
RCS: A ética é um pilar importante no uso da IAG porque, embora essas ferramentas possam acelerar e facilitar as tarefas, também apresentam riscos significativos, como a geração de informações falsas, a perpetuação de vieses presentes nos dados de treinamento, e a possibilidade de violação de direitos autorais e privacidade. Além disso, o uso indiscriminado da IAG pode levar à dependência tecnológica, inibindo o desenvolvimento de habilidades críticas e criativas nos pesquisadores. Portanto, é essencial estabelecer diretrizes éticas claras para garantir que a IAG seja usada de forma responsável e transparente, preservando a integridade acadêmica e os valores científicos, e que seja uma discussão envolvendo alunos, professores e gestores.
I: Abordar esse tema é necessário, mas ao mesmo tempo também um desafio, pois está em constante evolução, como vocês citam durante a live de lançamento. Além disso, podemos já notar outros desafios para abordagem da temática nesse momento?
RCS: Um dos principais desafios é a rápida evolução das tecnologias de IAG, o que torna difícil acompanhar as mudanças e atualizar as diretrizes de forma consistente. Além disso, há uma falta de consenso sobre como essas ferramentas devem ser utilizadas no contexto acadêmico, o que gera incertezas e debates. Outro desafio é a necessidade de educar os pesquisadores, em seus diferentes momentos da carreira, sobre os limites e riscos da IA, bem como promover uma cultura de transparência e responsabilidade no uso dessas tecnologias. A falta de políticas claras por parte de instituições de fomento à pesquisa e universidades também é um obstáculo, pois muitos pesquisadores se sentem inseguros sobre como e quando usar a IA de forma ética.
MS: Um ponto chamativo é a acessibilidade, reconhecida pela Unesco como um dos entraves éticos, entendida aqui como o acesso à tecnologia. Neste momento, a OpenAI acena com uma assinatura de seu modelo mais avançado na faixa de 20 mil dólares, o que vai traçar uma linha entre quem terá ou não acesso a estas ferramentas. Ao mesmo tempo, também precisamos focar em questões de soberania tecnológica e de modelos de IA treinados com nossa literatura. Dito de outra forma, viés epistemológico, reprodutibilidade dos resultados e criações de desigualdade de acesso (incluindo cortes como gênero, raça e outros) precisam ser abordadas com maior ênfase, agora que já sabemos os principais usos e limitações da tecnologia.
I: Muito se diz sobre como a IA generativa poderá impactar na criatividade e no pensamento crítico, e isso inclusive está retratado na capa do livro. Como os pesquisadores atuais e também os novos podem se beneficiar da IA Generativa sem perder esse lado criativo, com compromisso ético?
RCS: A IAG pode ser uma ferramenta importante para auxiliar os pesquisadores, mas é fundamental que seja usada como um complemento, e não como substituta do pensamento crítico e criativo. Os pesquisadores devem utilizar a IAG para tarefas que demandam tempo e esforço, como fichamentos, a organização de dados ou a geração de ideias iniciais, mas sempre revisando e validando os resultados de forma independente. A criatividade e o pensamento crítico são habilidades humanas que não deveriam ser replicadas pela IA, e é essencial que os pesquisadores continuem a desenvolver essas competências, utilizando a tecnologia como um apoio, e não como uma muleta.
MS: A pergunta se relaciona com uma questão que tem me preocupado, o “paradoxo da competência”. Isto é, qualquer processo de aprendizagem precisa de “fricção” e isto muitas vezes se reflete numa prática, que precisa ser repetida inúmeras vezes e que nem sempre é prazerosa. Somente através da prática constante se alcança a competência. Porém no momento em que a IA automatiza as habilidades e competências cognitivas, deixa de haver esta fricção e a competência não se desenvolve. Vejo este problema na escrita acadêmica, por exemplo. Escrever com IA é um luxo, pois de fato ela é muito mais uma edição, algo que somente se consegue com experiência e prática. Por isso, e abordamos no guia, pesquisadores jovens, que ainda estão aprendendo, devem fazer um uso muito cauteloso, limitado ao planejamento de ideias e estruturação do texto, sob o risco de nunca se tornarem escritores autônomos. E esse paradoxo também pode se relacionar à criatividade, como colocado na pergunta. A IA apresenta um risco de dependência que pode atrofiar nossos processos criativos.
I: Outros manuais fora do Brasil já fazem reflexões sobre o tema, mas aqui ainda há uma carência de conteúdos como esse. Considera esse um dos principais pontos positivos do livro? É possível/necessário ainda refletir sobre o uso da IA generativa por aqui?
RCS: O livro serve como um guia prático para pesquisadores que desejam utilizar a IAG Generativa de forma ética e responsável, oferecendo princípios gerais e orientações específicas para diferentes etapas da pesquisa. Ele preenche uma lacuna importante, já que muitas instituições brasileiras ainda não possuem diretrizes claras sobre o uso da IAG. Além disso, o livro promove um debate necessário sobre os impactos da IAG na pesquisa científica, incentivando a reflexão crítica e a adoção de boas práticas. Ao fornecer exemplos concretos e recomendações, o livro ajuda a desmistificar a IAG e a mostrar como ela pode ser uma ferramenta útil, desde que usada com cautela e responsabilidade.
MS: Sim, a própria proposta nasce de uma ausência de orientações das instituições relacionadas com pesquisa e gestão da ciência no âmbito superior como Capes, CNPq, MEC. Mas ao mesmo tempo que seria interessante ter diretrizes amplas que reconheçam a existência e o impacto da IA, a regulação de seu uso será feito num âmbito mais próximo, até mesmo da disciplina de um professor. Então precisamos de flexibilidade nesse sentido, de adequar orientações mais gerais às mais específicas, do dia a dia e cada condição de uso. Em relação à segunda parte, com certeza. Como diz Ethan Mollic, acadêmico norte-americano e pioneiro no uso e experimentação, a IA que nós usamos é a pior IA possível; amanhã, literalmente, ela já estará superada. Dessa forma, a qualidade dos resultados e também os âmbitos de aplicação estão evoluindo rapidamente, o que exige uma reflexão constante, assim como um letramento/preparação para seu uso.
Você pode conferir a entrevista com o outro autor do livro, Rafael Cardoso Sampaio, neste link. Já a live de lançamento do livro, que aconteceu em 2024, está disponível no Youtube da Intercom.

