Contexto
A incorporação de ferramentas de Inteligência Artificial (IA) ao desenvolvimento de software tem ampliado a discussão sobre seus efeitos na eficiência das atividades de código. Os estudos reunidos neste trabalho mostram que a IA já vem sendo aplicada em tarefas como codificação, depuração, testes, documentação, revisão de código e operações de CI/CD (PINTO et al., 2024; PEREIRA et al., 2025). Em atividades mais estruturadas e repetitivas, como geração de código, testes simples e documentação, os ganhos de eficiência tendem a ser mais evidentes, principalmente pela redução do esforço manual, do tempo de busca por informação e da carga cognitiva do desenvolvedor (PANDEY et al., 2024; PINTO et al., 2024).
Por outro lado, os mesmos dados mostram que a IA também pode diminuir a eficiência em determinadas situações. Isso ocorre quando a ferramenta produz sugestões incompletas, genéricas ou incorretas, exige intensa revisão humana ou falha em captar o contexto do projeto (FORTES et al., 2025; WINCKLER et al., 2025). Essas limitações aparecem com mais força em tarefas complexas e contextuais, na depuração de defeitos difíceis e na validação do código gerado, casos em que parte do tempo economizado na geração inicial pode ser consumida pelo esforço de checagem, correção e adaptação das saídas produzidas pela ferramenta (STRAY et al., 2024; DAVILA et al., 2024).
Este evidence briefing sintetiza evidências recentes da literatura sobre três eixos: as atividades de código em que a IA é utilizada, as métricas empregadas para avaliar essa eficiência e as limitações relatadas, com foco em aplicações na Engenharia de Software e em sistemas corporativos.
Atividades de código e seus efeitos na eficiência
As atividades onde a IA é mais utilizada para ganho de eficiência são codificação, testes de software e depuração de código, com ganhos que envolvem geração de novo código, autocompletar, criação de boilerplate, elaboração de testes de unidade e apoio à correção de erros simples (PINTO et al., 2024; PEREIRA et al., 2025; PANDEY et al., 2024).
Os estudos também indicam ganhos em documentação, apoio ao conhecimento e compreensão de código, especialmente pela redução do tempo gasto com buscas por exemplos, APIs, sintaxe e trechos de código legado. Esse uso sugere que parte da eficiência promovida pela IA não está apenas na produção de código, mas também na redução de fricções cognitivas e informacionais no trabalho diário (FORTES et al., 2025; STRAY et al., 2024).
As perdas de eficiência aparecem com mais força em tarefas como mudanças distribuídas em múltiplos arquivos, atividades dependentes de regras de negócio específicas, depuração de defeitos difíceis e validação do código gerado (SHANUKA; WIJAYANAYAKE; VIDANAGE, 2025; PANDEY et al., 2024; SANTOS et al.). A Tabela 1 detalha esses efeitos por atividade.
Tabela 1 -- Atividades de código e efeitos da IA na eficiência
| Atividade de código | Aumenta a eficiência | Diminui a eficiência |
|---|---|---|
| Codificação / escrita de código | geração de código, autocompletar, boilerplate, snippets contextuais | sugestões incorretas, perda de contexto, revisão excessiva |
| Depuração e correção de código | sugestão de correções, apoio ao debugging, erros simples | loops de erro, correções superficiais, retrabalho |
| Testes de software | geração de testes, automação, regressão | testes superficiais, baixa aderência ao domínio, necessidade de reescrita |
| Documentação e apoio ao conhecimento | comentários, documentação técnica, acesso rápido a exemplos e APIs | respostas inconsistentes, documentação genérica, falta de contexto |
| Compreensão de código / código legado | explicação de código, apoio à leitura de código legado | explicações rasas, falha em captar contexto, necessidade de validação |
| Manutenção / modificação de código existente | ajustes pontuais, extensão de funcionalidades, mudanças simples | dificuldade com múltiplos arquivos, retrabalho de integração |
| Refatoração e otimização | reorganização de código, melhoria de legibilidade | perda de desempenho, baixa confiabilidade em cenários complexos |
| Revisão de código e garantia de qualidade | feedback inicial, detecção de problemas, apoio à revisão | comentários irrelevantes, sobrecarga de validação, atraso no PR |
| Entrega, CI/CD e operações | scripts de deployment, análise de logs, automação operacional | necessidade de validação humana, baixa autonomia, dependência de contexto |
Métricas utilizadas para avaliar a eficiência
A eficiência do uso de IA em atividades de código vem sendo avaliada por diferentes grupos de métricas que vão além da velocidade de execução. No material analisado, destacam-se as categorias tempo, produtividade / entrega, qualidade do código, qualidade dos testes, uso / aceitação da ferramenta, experiência do desenvolvedor e custo / precisão operacional.
As métricas de tempo e produtividade / entrega aparecem com maior frequência, com indicadores como cycle time, lead time, throughput, frequência de implantação e tarefas concluídas. Mas os estudos também recorrem a métricas de qualidade e experiência do desenvolvedor, como readability, maintainability, cobertura de testes, taxa de aceitação de sugestões, cognitive load e flow state. Esse conjunto mostra que a eficiência da IA é tratada como um conceito multidimensional, que envolve rapidez, qualidade das entregas e impacto no trabalho humano.
Tabela 2 -- Métricas utilizadas para medir a eficiência
| Métrica | Foco da avaliação | Exemplos de indicadores |
|---|---|---|
| Tempo | Mede se a IA acelera a execução das atividades de código | tempo para concluir tarefas, time to first test, tempo médio por caso de teste, cycle time, lead time, MTTR |
| Produtividade / entrega | Avalia se a IA amplia a capacidade de produção e entrega | task completion efficiency, task completion time, throughput, deployment frequency, tarefas concluídas, LOC/day, requisitos implementados |
| Qualidade do código | Verifica se o ganho de velocidade mantém ou melhora a qualidade técnica | readability, maintainability, code health, correctness, performance, defect density, change failure rate |
| Qualidade dos testes | Mede a efetividade da IA na geração e execução de testes | bug detection rate, false positive rate, test coverage, success rate, step accuracy, automated test coverage |
| Uso / aceitação da ferramenta | Observa o quanto as sugestões da IA são realmente aproveitadas | number of prompts, number of suggestions, acceptance rate, line-level acceptance rate, percentual de comentários aceitos |
| Experiência do desenvolvedor | Analisa o impacto da IA no fluxo e na carga cognitiva do trabalho | feedback loops, cognitive load, flow state, dimensões do framework SPACE |
| Custo / precisão operacional | Avalia custo de uso e precisão em testes e operações | custo por caso de teste, proporção entre tokens gerados e tokens inseridos, precision, alert precision, false positive rate |
Limitações do uso de IA nas atividades de código
Embora a IA possa acelerar parte do trabalho, os estudos relatam limitações recorrentes que reduzem ou anulam os ganhos de eficiência. Essas limitações não se restringem à geração de código em si -- muitas delas estão na interação com a ferramenta, como a dependência de prompts bem elaborados, a configuração adequada e a integração com o ambiente de desenvolvimento (SALEM et al., 2024; WINCKLER et al., 2025; PANGAVHANE et al., 2025; FORTES et al., 2025; PINTO et al., 2024; SHANUKA; WIJAYANAYAKE; VIDANAGE, 2025; HOUCK et al., 2025).
Tabela 3 -- Limitações com a utilização da IA
| Limitação relatada | Exemplo |
|---|---|
| Baixa qualidade e inconsistência das sugestões | A IA pode gerar respostas imprecisas, incompletas, redundantes ou inconsistentes, reduzindo a confiabilidade do uso. |
| Dependência de prompts bem elaborados | Os ganhos de eficiência dependem da capacidade do usuário de formular prompts e configurar corretamente a ferramenta. |
| Perda ou insuficiência de contexto | A IA ainda apresenta dificuldades para recuperar e manter o contexto específico do projeto, do código e da organização. |
| Baixa efetividade em tarefas complexas | O desempenho da IA tende a cair em atividades que envolvem múltiplos arquivos, arquitetura, segurança ou regras de negócio específicas. |
| Problemas de integração e suporte técnico | São relatados desafios de instalação, configuração, estabilidade, compatibilidade com IDEs e adaptação ao ambiente de desenvolvimento. |
| Necessidade contínua de supervisão humana | Mesmo quando acelera tarefas, a IA ainda exige revisão, validação e controle constantes por parte do desenvolvedor. |
| Riscos de segurança e confiabilidade | O uso da IA pode introduzir vulnerabilidades, respostas pouco confiáveis e problemas éticos ou de precisão. |
| Sobrecarga cognitiva | A interação com a ferramenta pode aumentar o esforço mental, interromper o fluxo de trabalho e gerar custo adicional de validação. |
Interpretação das evidências
A presença de métricas de qualidade e experiência do desenvolvedor ao lado das métricas de tempo e produtividade mostra que produzir mais rápido não é suficiente se houver perda de qualidade (PEREIRA et al., 2025; WANG et al., 2024; SHANUKA; WIJAYANAYAKE; VIDANAGE, 2025). Métricas como acceptance rate, cognitive load e flow state indicam que a IA pode tanto apoiar o trabalho quanto gerar novos custos de revisão, validação e esforço cognitivo (FORTES et al., 2025; WINCKLER et al., 2025).
As limitações reforçam esse ponto: parte do esforço economizado na geração é deslocada para supervisão, validação e correção. Problemas como dependência de prompts bem elaborados, integração incompleta com o ambiente de desenvolvimento e revisão constante das saídas são recorrentes em diferentes estudos.
No conjunto, as evidências mostram que o impacto da IA na eficiência varia conforme o tipo de tarefa, o nível de complexidade, a qualidade da ferramenta e o quanto de supervisão humana é necessário.
Conclusão
A IA tem potencial para aumentar a eficiência em atividades de programação, mas seus benefícios não são uniformes. A eficiência resultante não depende apenas da velocidade de execução -- ela combina rapidez, qualidade, custo de uso e impacto no trabalho humano.
Em vez de substituir o desenvolvedor, a IA muda o seu papel, deslocando parte do trabalho para supervisão e controle do que é gerado. O uso mais eficaz depende da qualidade da ferramenta, do contexto em que ela é aplicada e da presença constante do julgamento humano ao longo do desenvolvimento.
Referências
DAVILA, Nicole et al. An Industry Case Study on Adoption of AI-based Programming Assistants. 2024.
FORTES, Luciane et al. The Productivity Paradox of AI-Powered Development. 2025.
HOUCK, Brian et al. The SPACE of AI: Real-World Lessons on AI's Impact on Developers. 2025.
KARUPPUCHAMY, Sureshkumar. AI-Augmented Software Engineering for Rapid Feature Delivery and Operations Automation. 2025.
PANDEY, Ruchika; SINGH, Prabhat; WEI, Raymond; SHANKAR, Shaila. Transforming Software Development: Evaluating the Efficiency and Challenges of GitHub Copilot in Real-World Projects. 2024.
PANGAVHANE, Shreyas et al. AI-Augmented Software Development: Boosting Efficiency and Quality. 2025.
PEREIRA, Guilherme Vaz et al. Exploring GenAI in Software Development: Insights from a Case Study in a Large Brazilian Company. 2025.
PINTO, Gustavo et al. Developer Experiences with a Contextualized AI Coding Assistant: Usability, Expectations, and Outcomes. 2024.
SALEM, Dina Omar et al. AI-Driven Continuous Integration: Automating Code Review and Deployment with LLMs. 2024.
SANTOS, Robson; SANTOS, Italo; MAGALHAES, Cleyton; SANTOS, Ronnie de Souza. Are We Testing or Being Tested? Exploring the Practical Applications of Large Language Models in Software Testing. [s.d.].
SHANUKA, K. A. Ashen; WIJAYANAYAKE, Janaka; VIDANAGE, Kaneeka. Analyzing the impact of prompt engineering on efficiency, code quality, and security in CRUD application development. 2025.
STRAY, Viktoria; MOE, Nils Brede; GANESHAN, Nivethika; KOBBENES, Simon. Generative AI and Developer Workflows: How GitHub Copilot and ChatGPT Influence Solo and Pair Programming. 2024.
WANG, Xuan et al. From Redundancy to Efficiency: Exploiting Shared UI Interactions towards Efficient LLM-Based Testing. 2024.
WEBER, Thomas; BRANDMAIER, Maximilian; SCHMIDT, Albrecht; MAYER, Sven. Significant Productivity Gains through Programming with Large Language Models. 2024.
WINCKLER, Sabrina C. et al. AI-assisted Collaboration: Exploring Developer Experience with GitHub Copilot and Windsurf. 2025.
Top comments (0)