Política de Uso de Inteligência Artificial

Última atualização: Abril de 2026 Versão: 1.0


1. Por que esta política existe

O Rendernet é um portal sobre inteligência artificial. Cobrir IA com seriedade exige usar IA com transparência. Esta política descreve com clareza incomum:

  • O que IA faz na nossa redação;
  • O que IA não faz;
  • Quais ferramentas usamos;
  • Como você identifica quando uma matéria foi assistida por IA;
  • Como mantemos qualidade e responsabilidade humana sobre tudo que publicamos.

Esta política complementa a Política Editorial e os Termos de Uso.


2. Princípio fundamental

Toda matéria publicada no Rendernet é responsabilidade humana, independentemente de IA ter sido usada na produção.

Isso significa que:

  • ✅ Um redator ou editor humano sempre revisa, valida e assina cada matéria;
  • ✅ Erros gerados por IA são erros do Rendernet — não escapamos pela alegação de “foi a IA”;
  • ✅ Decisões editoriais (o que cobrir, em que ângulo, com quais fontes) são sempre humanas;
  • ✅ Aplicamos a mesma Política de Correções a matérias com e sem auxílio de IA.

3. O que a IA pode fazer no Rendernet

✅ Pode fazerComo controlamos
Sugerir títulos, subtítulos e meta descriptionsEditor humano escolhe / reescreve
Resumir documentos longos para apuraçãoResumo é validado contra o original
Transcrever áudio e vídeo (entrevistas, lives)Transcrição é revisada por humano
Traduzir trechos do inglês ou outros idiomasTradução é validada por quem domina o idioma
Sugerir estruturas e roteiros de matériaEstrutura final é definida pelo redator
Ajudar com revisão gramatical e de estiloRevisão final é humana
Gerar variações de manchete para teste A/BManchetes são aprovadas antes de publicar
Ajudar a explicar conceitos técnicos para o leitorExplicações são checadas por especialista
Criar imagens conceituais ou ilustraçõesSempre creditadas como geradas por IA
Apoiar análise de dados (planilhas, gráficos)Resultados são verificados manualmente

4. O que a IA NÃO faz no Rendernet

❌ Não fazPor quê
Publicar matéria sem revisão humanaRisco de alucinações, erros factuais e plágio
Inventar fontes, declarações ou citaçõesViolação ética grave; sempre verificamos
Tomar decisões editoriais (o que vira pauta, ângulo, peso)Curadoria é função humana
Substituir apuração de campo, entrevistas e checagemApuração exige relação humana e julgamento
Cobrir temas sensíveis sem supervisão extraSaúde, finanças, política e jurídico exigem cuidado humano amplificado
Gerar imagens fotorrealistas de pessoas reaisRisco de deepfake e desinformação
Gerar imagens de eventos como se fossem registros reaisConfunde registro fotográfico com ilustração
Produzir conteúdo “fantasma” assinado por humanosCrédito sempre reflete a realidade da produção
Acessar dados pessoais de leitoresPrivacidade é tratada à parte (vide Política de Privacidade)

5. Como identificamos uso de IA nas matérias

A sinalização visual depende do grau de envolvimento da IA:

5.1 🟢 Uso editorial básico — sem sinalização específica

Quando IA é usada apenas para tarefas auxiliares de baixo impacto (revisão gramatical, sugestão de título, transcrição), tratamos como uso editorial padrão, equivalente a usar corretor ortográfico ou tradutor — sem sinalização específica em cada matéria.

A existência desse uso é divulgada nesta Política e no rodapé do portal.

5.2 🟡 Auxílio significativo — selo no rodapé da matéria

Quando IA contribuiu de forma relevante (resumo de pesquisa extensa, primeira versão de seção informativa, geração de comparativo), incluímos no rodapé da matéria:

🤖 Esta matéria foi produzida com auxílio de ferramentas de IA, sob supervisão e edição da equipe do Rendernet. Saiba mais em nossa Política de Uso de IA.

5.3 🟠 Conteúdo majoritariamente assistido — selo destacado no topo

Quando uma matéria é majoritariamente produzida com IA (ex.: agregadores automatizados de releases, resumos de papers científicos, listas geradas a partir de dados), incluímos um selo destacado no topo:

🤖 Conteúdo produzido com forte auxílio de IA, revisado e editado por [nome do editor].

5.4 🔴 Imagens e mídia gerada por IA

Imagens, áudios ou vídeos gerados por IA recebem crédito explícito sempre:

Imagem: gerada por [ferramenta] / Rendernet.

Não publicamos imagens fotorrealistas de pessoas reais geradas por IA, salvo quando a própria matéria é sobre essa imagem (ex.: caso de deepfake noticiado).


6. Ferramentas que utilizamos

A relação a seguir representa as ferramentas atualmente em uso no fluxo do Rendernet. Pode ser atualizada conforme evolução do mercado.

6.1 Modelos de linguagem

  • Claude (Anthropic) — apoio textual amplo;
  • ChatGPT / GPT (OpenAI) — apoio textual e conceitual;
  • Gemini (Google) — pesquisas e conexão com fontes web;
  • DeepSeek, Mistral, Llama, entre outros — uso pontual para comparação de saídas e cobertura específica.

6.2 Geração de imagens

  • Midjourney, DALL·E, Stable Diffusion, Imagen, Flux — geração de imagens conceituais e ilustrações.

6.3 Transcrição e áudio

  • Whisper (OpenAI) e similares para transcrever entrevistas e lives.

6.4 Apoio à pesquisa

  • Perplexity, Elicit, NotebookLM e similares para resumos de papers e organização de informação.

Esta lista é divulgada por transparência; o uso de cada ferramenta é decidido pela equipe conforme o trabalho a fazer.


7. Verificação de saídas de IA

Modelos de linguagem alucinam — produzem informação plausível, mas falsa. Conhecemos esse risco e por isso:

  • Toda citação sugerida por IA é verificada na fonte original;
  • Todo número sugerido por IA é checado em fonte primária;
  • Toda referência bibliográfica é confirmada (papers existem? autores existem?);
  • Todo link sugerido por IA é aberto e validado;
  • Datas, nomes, cargos, eventos são conferidos antes da publicação.

Quando uma alucinação passa pelo filtro humano e é publicada, aplicamos a Política de Correções — com prioridade alta, dado o tema do nosso portal.


8. Privacidade e dados em ferramentas de IA

Para proteger dados de fontes, leitores e parceiros:

  • Não submetemos dados pessoais identificáveis a ferramentas públicas de IA;
  • Não submetemos conteúdo confidencial de fontes sem anonimização;
  • Não submetemos comentários de leitores a serviços externos;
  • Quando usamos transcrição ou tradução de entrevistas, avisamos a fonte e usamos preferencialmente ferramentas que não treinem nos nossos dados.

Os modelos pelos quais o Rendernet pode pagar planos pagos, quando viável, são preferidos especialmente quando esses planos garantem não retenção ou não treinamento sobre o input.


9. Posição do Rendernet sobre treinamento de IA com nosso conteúdo

O Rendernet não autoriza o uso do seu conteúdo (textos, imagens, podcasts, vídeos) para treinamento, ajuste fino, avaliação ou validação de modelos de IA por terceiros, sem licenciamento prévio.

Esta posição é:

  • Contratual: vide cláusula 6 dos Termos de Uso;
  • Técnica: mantemos robots.txt bloqueando os principais crawlers de IA generativa;
  • Reservada por escrito: declaração expressa nesta Política e no rodapé do portal.

Empresas, pesquisadores ou desenvolvedores interessados em licenciar conteúdo do Rendernet para treinamento de IA podem entrar em contato via Fale Conosco com o assunto “Licenciamento de IA”.

A coerência aqui é deliberada: cobrimos um tema em que o conteúdo de jornalismo é tratado, em larga escala, como matéria-prima sem compensação. Não nos furtamos a participar do debate, e tampouco aceitamos ser apenas insumo.


10. Padrões de mercado que adotamos

Nosso uso de IA dialoga com referências internacionais reconhecidas:

  • Reuters Institute / RISJ — princípios de transparência sobre IA em redações;
  • AP Stylebook — diretrizes sobre uso de IA em jornalismo;
  • Wired — política pública de uso de IA;
  • The Guardian — diretrizes sobre IA generativa;
  • Partnership on AI — boas práticas para IA em mídia;
  • Iniciativa Brasileira de Confiança Jornalística — recomendações para o cenário nacional.

Não nos vinculamos a um framework único; consolidamos boas práticas adaptadas ao contexto brasileiro.


11. Compromissos com você, leitor

  • Transparência sobre uso: você sempre saberá, no nível adequado de detalhe, quando IA foi usada;
  • Responsabilidade humana: sempre haverá um nome humano por trás do que publicamos;
  • Qualidade igual: matérias com auxílio de IA passam pelo mesmo padrão editorial das demais;
  • Sem deepfakes: não usamos IA para criar imagens fotorrealistas que possam confundir registro com ilustração;
  • Privacidade preservada: seus dados não são submetidos a ferramentas externas;
  • Diálogo aberto: você pode questionar ou sugerir aprimoramentos via Fale Conosco.

12. Atualização desta Política

A IA evolui mais rápido que documentos como este. Comprometemo-nos a revisar esta Política pelo menos a cada seis meses — ou imediatamente, em caso de mudança relevante de ferramentas, fluxo ou padrões de mercado.

Quando a Política for atualizada, alterações materiais serão sinalizadas e a versão anterior ficará disponível para consulta.


13. Documentos relacionados


14. Histórico de versões

VersãoDataAlterações
1.0Abril/2026Publicação inicial

Em um cenário em que muitas redações ainda escondem o uso de IA, escolhemos o caminho oposto: dizer com clareza o que fazemos. É o tratamento que nós mesmos cobramos das empresas que cobrimos.