i

Convocatória RChD: Creación y Pensamiento | Vol. 10, Nº 18 | JUN 2025 | Dossier: O multiescalar | Entrega de artigos: 31 de dezembro de 2024. 

Diretrizes para o Uso de Inteligência Artificial (IA) em revistas da Faculdade de Arquitetura e Urbanismo da Universidade do Chile

Fundamentação

O uso massivo de ferramentas de Inteligência Artificial (IA) tem gerado novos desafios para a produção científica em escala global. Nesse contexto, propor diretrizes dentro de um marco de boas práticas torna-se fundamental para resguardar a integridade acadêmica e a transparência. Diante desse cenário, as revistas da Faculdade de Arquitetura e Urbanismo (Revistas FAU) estabelecem diretrizes destinadas a orientar autores, avaliadores e equipes editoriais para o uso responsável dessas tecnologias, prevenindo más práticas e assegurando padrões de qualidade. Ademais, essas diretrizes buscam promover uma adoção crítica da IA, alinhada a princípios de rigor acadêmico que favoreçam a produção e a circulação do conhecimento a partir de uma perspectiva justa e transparente.

Objetivo

Estabelecer princípios, diretrizes e boas práticas para o uso responsável da IA nas Revistas FAU, promovendo a transparência e a rastreabilidade no uso de ferramentas de IA para a elaboração de manuscritos originais.

Princípios

  1. Responsabilidade e verificação humana: as ferramentas de IA não substituem o pensamento crítico nem a avaliação humana; portanto, se utilizadas em alguma fase do processo editorial, devem sempre estar sob supervisão e controle humano.
  2. Autoria humana: os autores e coautores são responsáveis pelo conteúdo de seu trabalho. As ferramentas de IA não podem ser consideradas autoras, pois a autoria implica responsabilidades atribuíveis exclusivamente a seres humanos.
  3. Integridade, transparência e rastreabilidade: o uso de IA deve ser declarado com o objetivo de promover a integridade acadêmica, a transparência e a rastreabilidade, informando a ferramenta utilizada, o propósito de seu uso e o grau de supervisão humana.
  4. Proteção de dados pessoais e propriedade intelectual: em todas as fases do processo editorial, deve-se proteger a privacidade de dados pessoais, sensíveis ou confidenciais, e o uso de IA não pode infringir a propriedade intelectual.

Marco de referência

Como marco de referência, esta proposta baseia-se em diretrizes e políticas internacionais sobre o uso responsável de IA na comunicação científica. A posição do Committee on Publication Ethics (COPE, 2023) e o Guia SciELO (2023) estabelecem que a IA não pode figurar como autoria, uma vez que esta deve ser humana. O SciELO (2023) estabelece que o uso de IA deve ser declarado no resumo e na seção de metodologia, ou em seu equivalente, nos artigos. Além disso, alertam que ocultar seu uso constitui uma falta ética em relação à integridade científica.

A Declaração de Heredia (2024) reforça a necessidade de um uso transparente, rastreável e reprodutível, com verificação humana, respeito à propriedade intelectual e medidas para mitigar vieses. Por sua vez, as políticas editoriais da Elsevier (2025) aprofundam a exigência de declarar detalhadamente o uso de IA nos artigos, promovendo o respeito à confidencialidade; portanto, avaliadores e editores não devem submeter manuscritos a ferramentas de IA para avaliação. Também se restringe o uso de figuras geradas por IA, salvo quando fizerem parte da metodologia.

As boas práticas do Directory of Open Access Journals (DOAJ, 2025) destacam a importância de promover o uso adequado dessas ferramentas de IA assegurando supervisão humana permanente e atuando com cautela diante dos riscos associados, tais como vieses, imprecisões ou referências falsas.

De modo geral, essas diretrizes convergem em quatro princípios-chave: i) autoria exclusivamente humana; ii) transparência obrigatória na declaração de uso; iii) responsabilidade integral por parte dos autores; e iv) uso da IA como apoio, e não como substituto do julgamento especializado.

Com base no exposto, e conforme a discussão realizada pelas equipes editoriais das Revistas FAU, Biblioteca FAU e SISIB, estabelecem-se as seguintes diretrizes de uso de IA para autores, avaliadores e editores.

Diretrizes de uso de IA para autores

Usos permitidos

  • Correção gramatical e de estilo do manuscrito, com verificação humana.
  • Tradução de título, resumo e palavras-chave, com verificação humana.

Usos não permitidos

  • Incluir a IA como autora ou coautora.
  • Incorporar dados, citações ou referências fictícias geradas por IA.
  • Integrar figuras desenvolvidas ou alteradas por ferramentas de IA generativa,salvo quando fizerem parte do método.

Declaração de uso de IA
Como boa prática para promover a integridade acadêmica, a transparência e a rastreabilidade, os autores devem declarar o uso de ferramentas de IA. Na lista de verificação para submissão da revista, os autores deverão informar se seu artigo contempla o uso de IA em alguma seção, figura ou tabela. Em caso afirmativo, deverão incluir uma “Declaração de uso de IA” ao final do manuscrito submetido, indicando:

  • Ferramenta: identificação da ferramenta utilizada.
  • Propósito do uso de IA: explicitação da finalidade e da contribuição do uso de IA para o manuscrito.
  • Seção do manuscrito onde foi utilizada: detalhamento das seções em que a IA foi utilizada e do grau de supervisão humana.

Se o uso de IA fizer parte da metodologia do artigo, deverá ser descrito detalhadamente na seção de metodologia ou equivalente.

Se tiver sido utilizada apenas para correção ortográfica, gramatical ou de estilo, deve ser indicada na “Declaração de uso de IA” não sendo necessário incluí-la na metodologia.

Os autores assumem total responsabilidade pelo conteúdo e pela revisão integral do texto, quadros, figuras e referências bibliográficas dos artigos submetidos e publicados.

Diretrizes de uso de IA para avaliadores

Usos permitidos

  • Correção gramatical e de estilo na redação dos pareceres.

Usos não permitidos

  • Utilizar ferramentas de IA para carregar e revisar um manuscrito original, inédito e confidencial, seja integralmente ou em partes. A decisão de avaliação é uma tarefa exclusivamente humana.

Os avaliadores deverão reportar às equipes editoriais qualquer suspeita de referências fictícias, elaboração de dados falsos ou uso indevido de IA.

Diretrizes para a equipe editorial

  • Exigir dos autores a declaração de uso de IA no momento da submissão dos manuscritos e antes da aprovação da versão final.
  • Utilizar ferramentas de detecção de similaridade e de uso de IA (como Turnitin), interpretando os relatórios com cautela, uma vez que não constituem prova definitiva e requerem supervisão humana.
  • Após a publicação dos artigos, a equipe editorial poderá utilizar ferramentas de IA para fins de divulgação.

Revisão e atualização

As diretrizes estabelecidas neste documento serão revisadas periodicamente e atualizadas de acordo com os avanços tecnológicos, éticos e normativos na área.

Referências

Conselho COPE. (2024). Posição COPE – Autoria e IA. https://doi.org/10.24318/cCVRZBms

DOAJ Blog. (2025). Help or hindrance? Peer review in the age of AI. https://blog.doaj.org/es/2025/09/16/help-or-hindrance-peer-review-in-the-age-of-ai/

Elsevier. (2025). Generative AI policies for journals. https://www.elsevier.com/about/policies-and-standards/generative-ai-policies-for-journals

Penabad-Camacho, L., Penabad-Camacho, M. A., Mora-Campos, A., Cerdas-Vega, G., Morales-López, Y., Ulate-Segura, M., Méndez-Solano, A., Nova-Bustos, N., Vega-Solano, M. F., & Castro-Solano, M. M. (2024). Declaração de Heredia: Princípios sobre o uso de inteligência artificial na edição científica. Revista Electrónica Educare, (28), 1–10. https://doi.org/10.15359/ree.28-S.19967

SciELO. (2023). Guia de uso de ferramentas e recursos de Inteligência Artificial na comunicação de pesquisas na Rede SciELO. https://wp.scielo.org/wp-content/uploads/Guia-de-uso-de-herramentas-e-recursos-de-IA-20230914.pdf