DEV Community

Cover image for Intencionalidade e Objetivos na Era da IA Agentiva: da Filosofia Clássica ao Desenvolvimento de Software
Francis Targanski
Francis Targanski

Posted on

Intencionalidade e Objetivos na Era da IA Agentiva: da Filosofia Clássica ao Desenvolvimento de Software

A intencionalidade é um conceito filosófico central na fenomenologia, definindo-se como a direção da mente a um objeto. Brentano, por exemplo, caracterizou os fenômenos psíquicos exatamente por essa “direção a um objeto” ou “referência a um conteúdo”. Em termos mais simples, toda consciência visa algo fora de si: ela está sempre intencionada a um objeto ou conteúdo. Husserl aprofunda essa ideia afirmando que não há consciência sem objeto: a mente não é um receptáculo passivo, mas um “vazio” que está continuamente voltado para algo externo. Diante disso, surge a pergunta: “como aplicar essa noção à inteligência artificial moderna?

Embora máquinas não tenham consciência em sentido humano, sistemas avançados de IA, especialmente os agentes autônomos, exibem comportamentos que parecem ter “intenções”. No desenvolvimento de software contemporâneo, essa simulação de intencionalidade torna-se importante para a usabilidade e confiança: usuários precisam** entender o que a IA “quer” atingir*, mesmo sabendo que ela não tem vontades próprias. Isso requer um design cuidadoso que **torne explícitas as metas e raciocínios dos agentes*, é o que chamaremos de “intencionalidade simulada” no UX (experiência do usuário).

Intencionalidade na Filosofia Clássica

Filósofos clássicos como Franz Brentano e Edmund Husserl formularam a intencionalidade como marca do mental. Brentano (1874) apresentou a ideia de que toda experiência consciente se refere a um objeto, a chamada “inexistência intencional” em Aristóteles ou “direção a um objeto”. Ele afirmava que os fenômenos psíquicos são caracterizados pelo fato de possuírem um conteúdo intrínseco direcionado a algo: “os fenômenos psíquicos são caracterizados […] por a referência a um conteúdo, a direção a um objeto, ou a objetividade imanente”. Husserl, por sua vez, enfatizou que toda consciência é sempre consciência de alguma coisa. Ele rejeitava a divisão cartesiana entre sujeito e mundo, ressaltando que sujeito e objeto estão inseparavelmente correlacionados na experiência. Para Husserl, a intencionalidade não é uma finalidade ou motivação, mas uma estrutura fundamental da consciência, a mente “visar alguma coisa” ou “direcionar-se a algo”. Em suma, na fenomenologia clássica a intencionalidade é a propriedade que conecta a mente a seu objeto, definindo a consciência como um fluxo sempre direcionado ao mundo.

É importante notar que esses filósofos consideravam a intencionalidade algo inerente a seres conscientes. Alguns, como Alexandre Quaresma, reforçam que “a intencionalidade só existe se houver um agente consciente que possua a referida intenção”. Ou seja, sem um sujeito intencional (biológico e consciente), não haveria “direcionamento” genuíno. Para eles, pedra nenhuma quer nada; somente organismos vivos apresentam essa consciência de objeto. Do ponto de vista técnico, isso não impede máquinas de terem estruturas funcionais semelhantes a intenções, mas convém lembrar que a intencionalidade filosófica autêntica pressupõe subjetividade. Em design de software e IA, porém, foca-se na intencionalidade simulada: atribuímos metas a sistemas de forma que seu comportamento aparente senso de propósito, criando assim uma interface mental com o usuário.

Agentic AI e seus Objetivos

No campo da inteligência artificial, fala-se muito em IA agentiva (agentic AI) para distinguir sistemas que atuam como agentes autônomos e orientados a objetivos. Em termos práticos, IA agentiva refere-se a sistemas capazes de tomar decisões por conta própria e agir para alcançar metas complexas com supervisão limitada. Diferente de uma IA generativa reativa (que responde a comandos imediatos criando conteúdo), agentes IA têm iniciativa: eles proativamente formulam planos, aprendem e adaptam-se a cenários dinâmicos. Por exemplo, um assistente de código autônomo pode não só responder a um pedido pontual, mas iniciar correções de bugs, sugerir refatorações e aprender o estilo do projeto ao longo do tempo. Em resumo, os agentes de IA combinam poderosas capacidades de modelos de linguagem e aprendizado com módulos de planejamento e de representação de conhecimento, o que lhes confere “agência”, ou seja, liberdade para perseguir objetivos contextuais.

Na prática, os objetivos de um agente de IA podem ser atribuídos ou inferidos. Muitas vezes, definimos uma meta explícita, por exemplo: “reduzir custo energético desta fábrica”. Outras vezes, a meta é implícita, derivada do contexto ou do comportamento do usuário, como um agente pessoal que “aprende” otimizar nossa agenda. Internamente, essa meta é representada em estruturas do sistema de IA. Por exemplo, em um agente treinado por reforço, a meta costuma estar embutida em uma função de recompensa: cada ação do agente recebe um valor, e o agente procura maximizar a recompensa total. Em algoritmos de planejamento, definimos um estado-alvo ou uma combinação de condições desejáveis. Softwares mais modernos podem usar módulos cognitivos dedicados: o módulo cognitivo de um agente define explicitamente seu objetivo ou objetivo geral. Esse objetivo pode ser explícito (“entregar o relatório A até sexta-feira”) ou implícito (“maximizar a satisfação do cliente”, por exemplo).

Uma analogia útil é o modelo BDI (Belief-Desire-Intention) na programação de agentes: o agente mantém crenças sobre o mundo, desejos (objetivos) que quer atingir, e intenções (planos de ação) para alcançá-los. Nesse sentido, a intenção de um agente IA está “representada” em seu conjunto de metas e no estado atual do plano. Um agente contemporâneo de IA, especialmente os baseados em aprendizado de máquina e LLMs, pode ainda utilizar bancos de memória (por exemplo, vetores de embeddings) para guardar conhecimento relevante e manter um loop contínuo de percepção – planejamento – ação – aprendizado. Por exemplo, arquiteturas modernas podem operar em ciclos em que o agente “pensa” em linguagem natural (gera um plano de sub-tarefas) e então executa ações via APIs, iterando esse ciclo até atingir o objetivo geral.

Em geral, podemos destacar alguns aspectos importantes dos objetivos em IA agentiva:

  • Meta incorporada: Em muitos agentes de IA clássicos, o objetivo está fixo no design. Isso ocorre através de funções de recompensa (no caso de aprendizado por reforço) ou estados-alvo pré-definidos. Por exemplo, um agente que joga Pac-Man foi programado para maximizar pontos coletando “pellets” e evitando fantasmas, ele não vai mudar espontaneamente sua meta de “limpar o tabuleiro”.

  • Criação dinâmica de sub-objetivos: Já sistemas agentivos avançados podem decompor metas gerais em várias submetas. Dado um objetivo amplo (“organizar um evento”), o agente pode criar internamente subobjetivos como “reservar local”, “enviar convites”, “alugar equipamentos” etc., priorizando cada tarefa sem instrução humana detalhada. Essa flexibilidade é viabilizada por loopings de planejamento onde o agente atualiza continuamente seu plano de ações.

  • Aprendizado e adaptação contínuos: Agentes autônomos modernos integram módulos de aprendizado em operação. Conforme agem no ambiente (por exemplo, interagindo com usuários ou sistemas externos), podem ajustar seu “mapa mental” e refinar estratégias, quase como um humano que aprende com a experiência. Isso difere de agentes clássicos, que eram geralmente fixos depois de treinados; os agentes de IA atuais podem retreinar-se de forma “online” e melhorar suas intenções ao longo do tempo.

  • Transparência de raciocínio: Diferente de regras opacas, algumas arquiteturas agentivas modernas tentam tornar o raciocínio interpretável. Técnicas como “pensar em voz alta” (exibir cadeia de pensamentos) ajudam desenvolvedores e usuários a compreenderem o que o agente considera em cada passo. Por exemplo, um agente de agendamento avançado poderia explicar: “Estou priorizando reuniões críticas primeiro, pois seu objetivo geral é cumprir prazos”, mostrando assim sua representação de meta. Isso aumenta a confiança e alinha a visão do usuário com a do sistema.

Em resumo, as metas de um agente de IA são codificadas internamente em funções de recompensa, estados-alvo ou módulos de planejamento, e executadas por loopings cíclicos de percepção/decisão/ação. O desafio no desenvolvimento moderno é integrar essas técnicas avançadas (LLMs, RL, bancos de dados de contexto, APIs de terceiros) de forma coesa, criando agentes que realmente “persigam” objetivos definidos.

Intencionalidade Simulada e UX

Do ponto de vista do usuário, um agente de IA não possui consciência real, mas parece agir por intenção própria. Por isso, no design de interfaces é crucial simular essa intencionalidade de modo transparente. Em vez de simplesmente apresentar botões ou respostas cruas, o sistema deve comunicar o que e por que está fazendo. Por exemplo, em um assistente de email, ao sugerir uma resposta automática, o agente pode exibir uma justificativa: “Notei que você costuma responder formalmente; por isso redigi este email em um tom profissional. Prefere um tom mais casual?”. Essa prática de transparência de intenção ajuda o usuário a corrigir mal-entendidos e confiar no agente.

Alguns princípios de design de experiência para IA agentiva incluem:

  • Comunicação clara de objetivos: Mostrar ao usuário qual é a meta que o agente está perseguindo. Por exemplo, um assistente financeiro pode indicar: “Estou buscando investimentos de baixo risco para o seu perfil” ou “estou priorizando contas vencendo na semana”. Essa explicitação alinha mentalidades: o usuário percebe o agente como um colaborador que segue suas prioridades. Em termos práticos, isso pode envolver telas de status, logs de atividades ou mesmo diálogos explicativos. Em uma pilha de agendamento, por exemplo, o agente pode mostrar seu “plano de rota”: passo a passo do que fará para organizar a agenda.

  • Controles adaptáveis: É essencial dar ao usuário mecanismos para ajustar o nível de autonomia. Como aprendemos com o design tradicional de IA, ele varia de “automação completa” a “supervisão passo a passo” dependendo do contexto. O usuário deve poder redefinir objetivos, pausar processos ou intervir no planejamento sem esforço. Em um exemplo prático, um painel de controle de agente poderia ter opções como “modo assistente (sugestões visuais)” versus “modo parceiro (atuação independente)”. Assim, o usuário mantém sentido de controle e não se sente surpreendido pelas ações do agente.

  • Explicação de raciocínio: Ao tomar decisões, o agente deve fornecer evidências e contexto. Não basta dizer “foi melhor assim”; o sistema deve mostrar dados ou regras que o levaram àquela escolha. Por exemplo, se um agente de saúde recomendar um tratamento, ele pode listar dados clínicos considerados, níveis de confiança e estudos suportando aquela indicação. Isso constrói confiança porque torna a “caixa preta” da IA mais transparente. Em termos de interface, pode-se usar tooltips informativos, relatórios em linguagem natural ou resumos visuais que esclareçam o processo de decisão.

  • Modelo intencional da interface: Inspirado no “ponto de vista intencional” de Dennett, o design pode tratar o agente como um “usuário especial”, com personalidade definida. Isso envolve criar personas de agente, dando-lhes tom de voz consistente e legendas de objetivo. Por exemplo, a empresa Salesforce recomenda pensar em agentes como uma nova categoria de usuários, com preferências e limitações próprias. Ao projetar conversas, fluxos ou feedbacks, imagine-se explicando o agente a outro humano. Isso faz com que o time de desenvolvimento humanize o agente, focando em objetivos de usuários e agentes simultaneamente. O design deve orientar o usuário a “orquestrar” múltiplos agentes, pensando no agente como parte de uma equipe. Por exemplo, se um agente de agendamento não souber como lidar com uma situação, o sistema pode exibir: “Preciso de uma decisão sua para prosseguir” e oferecer opções.

Em suma, é preciso mostrar ao usuário o “desejo simulado” do agente. Na prática, isso envolve:

  • Exibições de decisão: Quando o agente propõe algo, explique (ex.: “Sugeri esta ação porque você pediu X e minha meta é Y”).

  • Confirmação de metas: Permita que o usuário revise e ajuste os objetivos antes e depois da execução.

  • Feedback contínuo: Mostre progresso (percentual, tarefas concluídas etc.) e peça orientações quando necessário.

  • Moderação de voz/tone: Se o agente gerar linguagem, escolha um estilo apropriado ao propósito (formal, amigável, instrutivo) para reforçar sua “personalidade intencional”.

Implementar tudo isso não é trivial, mas frameworks de desenvolvimento de IA ajudam. Por exemplo, ferramentas baseadas em LLMs integradas a diálogos podem adicionar mensagens explicativas. Sistemas como LangChain permitem encadear chamadas a APIs (e.g. verificar calendário ou e-mails) e ainda “pensar em voz alta” entre cada ação. Já o módulo de aprendizagem do agente pode gravar as preferências do usuário (como preferir relatórios em planilhas), usando bancos de dados vetoriais, o que aumenta a personalização e faz o agente parecer intencionalmente adaptativo. Além disso, arquiteturas de prompt chaining podem incluir instruções de justificativa: pedir ao LLM que explique cada decisão como parte do output. Tudo isso cria a ilusão de um agente com intenções e raciocínio.

Exemplos Práticos de Implementação de IA Agentiva

Para ilustrar, vejamos alguns cenários de IA agentiva sem entrar em códigos específicos. Pense em cada caso como um fluxo de alto nível:

  • Assistente de Agendamento Inteligente: O usuário instrui: “Organize minha agenda de reuniões para a próxima semana.” O agente armazena essa meta e inicia um loop: percebe eventos pendentes (acessa API de calendário), planeja confrontar horários (evita conflitos e mantém prioridades), age movendo eventos conforme necessário e aprende com respostas do usuário. Em cada passo, o agente pode comunicar: “Estou rearranjando essas duas reuniões porque estavam sobrepostas e sei que você tem prioridade no projeto A”. Ele expõe o raciocínio (intenção: cumprir compromisso + otimizar tempo livre) e oferece opções (e.g., “prefere que confirme cada mudança ou faça automático?”). Com o tempo, lembra-se de preferências, por exemplo, evita reuniões às sextas à tarde, simulando uma intencionalidade construída por experiência.

  • Ferramenta de Pesquisa e Relatório (Auto-GPT): Imagine dizer a uma IA: “Pesquise o mercado de energia solar e prepare um relatório executivo”. Um agente ia então desdobrar o objetivo em tarefas: pesquisar fontes, coletar estatísticas, resumir dados e redigir texto. Na prática, frameworks como Auto-GPT implementam isso encadeando prompts: o modelo recebe instrução ampla, cria subtarefas, executa buscas (via plugins ou scrapers), armazena resultados e monta relatório final. A intencionalidade simulada aparece quando o sistema exibe seu progresso: “Buscando estatísticas de adoção global…” ou “Escrevendo introdução baseada no objetivo declarado”. Cada mensagem do log deixa explícito qual sub-objetivo o agente está perseguindo, dando ao usuário percepção clara do “que ele quer” em cada estágio.

  • Robô de Limpeza Doméstica Autônomo: Embora não humanoide, um robô aspirador moderno funciona como agente IA. Seu objetivo geral (“mapear e limpar a casa de modo eficiente”) é dado pelo fabricante. Ele representa esse objetivo internamente num mapa do espaço. Ao agir, ele irá explorar cada cômodo, e ao encarar um obstáculo, calculará novo caminho, demonstrando, na prática, intenção de cobertura completa. Na interface do aplicativo do robô, podemos usar notificações para simular intencionalidade ao usuário: por exemplo, “Iniciando limpeza na cozinha, área com mais sujeira detectada” ou “Retornando à base para recarga antes de continuar” explicando para o usuário por que ele faz cada movimento. Esse tipo de feedback realimenta o sentido de agência do robô para o usuário, embora os “objetivos” reais sejam só dados de fábrica.

  • Companheiro Virtual de Aprendizado: Um tutor de matemática por IA pode atuar autonomamente. Suponha que definimos a meta: “ajudar João a aprender cálculo integral”. O agente então organiza um plano de curso: avaliações diagnósticas, lições adaptativas e exercícios. Se João erra uma questão, o agente revisa o objetivo de reforçar aquele tópico, ajusta o plano e explica: “Notei que você teve dificuldade em integrais por substituição. Vou criar mais exercícios nessa área antes de avançar.” Na interface, mensagens como essa explicitam a intenção (“reforçar conceito antes de prosseguir”), dando a João compreensão de para onde a aula está indo.

Esses exemplos mostram que, embora diferentes em contexto, todos seguem o mesmo princípio: desmembrar objetivos em tarefas e comunicar ao usuário o porquê de cada ação. Em código, isso se traduziria em loops de controle, chamadas a módulos de IA (LLMs, algoritmos de busca, APIs externas) e atualizações de um estado global de metas. No entanto, a implementação exata varia conforme o domínio, pode-se usar arquiteturas de agentes BDI em linguagens orientadas a objetos, sistemas de reforço com redes neurais ou pipelines de LLMs. O importante é manter um fluxo claro: meta > subobjetivos > ações iterativas, com feedback explícito ao usuário a cada passo.

Conclusão

A conexão entre a intencionalidade filosófica e a IA agentiva revela um diálogo fascinante entre mente e máquina. Brentano e Husserl ensinaram que nossa consciência está sempre direcionada a algo, e esse “algo” faz sentido num contexto de propósito. Na IA moderna, embora faltem consciência biológica, criamos agentes que aparentam ter metas. Para os desenvolvedores, isso significa programar buscas de soluções orientadas a objetivos (como funções de recompensa, planejamento e aprendizado contínuo) e, simultaneamente, projetar experiências de usuário que destaquem esses objetivos. O ato de “simular intencionalidade” no design é um reconhecimento pragmático: o usuário se relaciona melhor com sistemas que parecem ter intenções claras e justificáveis.

Em termos práticos, integrar teoria filosófica e desenvolvimento de software implica: compreender que objetivos em IA são estruturas internas (programadas ou aprendidas) enquanto intencionalidade percebida é construída na interface. Uma aplicação bem-sucedida de IA agentiva requer, portanto, não só algoritmos sofisticados (planejamento, memória, aprendizado), mas também uma camada de UX que revele essas metas ao usuário. Ao colocar o agente no papel de “colega de equipe cognitivo”, aproximamos a interação homem-máquina de uma parceria verdadeira, capaz de atender a necessidades complexas.

Assim, a ponte entre filosofia clássica e engenharia de software se estabelece: usamos conceitos como intencionalidade para guiar o design de sistemas inteligentes, garantindo que nossos programas não sejam apenas máquinas cegas, mas sim colaboradores transparentes e alinhados. O futuro da IA agentiva está em refinar essa simbiose, tornando os agentes cada vez mais capazes de agir “intencionalmente” conforme nossos interesses, e simultaneamente entendendo e acomodando a complexa natureza humana de quem os utiliza.

Referências

  • Aristóteles. Metafísica. Tradução de Manuel Alexandre Júnior. Lisboa: Fundação Calouste Gulbenkian, 2001.
  • Brentano, F. Psychology from an Empirical Standpoint. Routledge, 1995 (original de 1874).
  • Husserl, E. Investigações Lógicas. Tradução de José Carlos Bruni. São Paulo: Abril Cultural, 1980.
  • Dennett, D. The Intentional Stance. MIT Press, 1987.
  • Salesforce. Designing AI Agents with Intention and Agency. Salesforce Design Blog, 2023.
  • IBM. Agentic AI: The Next Evolution of Artificial Intelligence. IBM Research Blog, 2024.
  • OpenAI. Auto-GPT Technical Overview. OpenAI Blog, 2023.
  • LangChain. Building Agentic Systems with LLMs. LangChain Documentation, 2024.
  • Amershi, S., et al. Guidelines for Human-AI Interaction. CHI Conference on Human Factors in Computing Systems, 2019.
  • Google. UX Design for AI Products. Google Design, 2022.
  • Russell, S., & Norvig, P. Artificial Intelligence: A Modern Approach. 4ª ed. Pearson, 2020.

Top comments (0)