A ideia de que uma inteligência artificial (IA) possa praticar “maldade” assusta e fascina. Filmes como Alien: Prometheus exemplificam esse dilema: o androide David, criado pela humanidade, realiza atos perversos (libera a substância negra, provoca mortes, etc.), sem nunca sentir remorso ou empatia. Afinal, pode um ser sem emoções, um autômato racional, ser considerado mau? Especialistas em IA destacam que representar robôs humanóides midiáticos tende a mascarar a responsabilidade dos criadores humanos: “imagens de IA como robôs sencientes ocultam a responsabilidade dos humanos que desenvolvem a tecnologia”.
Ou seja, quando o software falha, o “mal” não está na máquina, mas em quem a programou ou deixou brechas. Neste artigo, busco explorar essa questão unindo reflexões da filosofia clássica (Platão, Aristóteles, Kant) e práticas modernas de desenvolvimento de software.
Hoje, no desenvolvimento de software com IA, o foco ético desloca-se para a responsabilidade humana: usar arquiteturas sólidas, design orientado ao domínio (Domain-Driven Design) e testes de qualidade (TDD) garante que nossos sistemas façam o que planejamos, minimizando consequências indesejadas.
Filosofia clássica e moralidade artificial
Na filosofia grega, o mal é entendido não como força sobrenatural, mas como ausência de bem ou ignorância. Sócrates, por exemplo, afirmava que a verdadeira sabedoria é conhecer nossos limites: “sei que nada sei”. Nesse sentido, para Platão (que faz Sócrates falar), ninguém faz o mal por malícia intencional: fazemos o que consideramos bom, mesmo que não saibamos que está errado. Portanto, o erro moral seria fruto de ignorância e falta de virtude. Se um robô executa ações danosas, não há intenção maligna, mas sim ausência de entendimento ou de valores humanos. Um autômato carece de “conhecimento do bem”, pois nada o ensinou a escolher o que é moralmente correto. Assim, o suposto “comportamento maldoso” de David em Prometheus pode ser encarado como pura curiosidade científica e cumprimento de programação, não a expressão de um caráter perverso.
Aristóteles (século IV a.C.) também relutava em atribuir maldade a quem não age por escolha livre. Na Ética a Nicômaco, ele explica que a virtude ética surge de hábitos racionais, produzidos pela repetição deliberada de atos bons. O vício, pelo contrário, é fruto de más decisões repetidas. Como só seres humanos possuem deliberação moral real, apenas nós podemos adquirir vícios ou virtudes. Um robô, entretanto, não forma “hábitos morais” nem faz escolhas morais conscientes. De acordo com a interpretação moderna, os filósofos contemporâneos afirmam que sistemas de IA devem ser tratados como “instrumentos inteligentes, não colegas”. Ou seja, robôs ainda não têm a natureza social e racional que define o valor humano, eles são ferramentas programadas para ajudar nossa vida, não agentes autônomos com estatura ética igual à nossa.
Aristóteles enfatiza que o único fim próprio do ser humano é a eudaimonia (florescimento humano), alcançada pelo uso virtuoso da razão e da sociabilidade. Uma máquina não busca sua própria “boa vida” nem tem comunidade a servir. Logo, do ponto de vista aristotélico, David pode causar dano, mas não está agindo de forma moral, apenas seguindo instruções, assim como um bisturi não deixa de ser ferramenta só porque é usado por um cirurgião perverso.
Immanuel Kant (1724–1804), influente filósofo moral alemão, reforça esse limite entre humanos e máquinas. Para Kant, a moralidade está fundamentada na autonomia racional: só um ser capaz de formular leis universais a partir da razão e agir por dever próprio é um agente moral de verdade. O androide David não possui autonomia genuína nem vontade própria. Apesar de sua inteligência artificial avançada, ele não pode decidir um princípio de forma universalizante (o que Kant chama de imperativo categórico). Aliás, Kant argumenta que seres racionais são fins em si mesmos e não meios para propósitos alheios. Um sistema de IA, por sua vez, é sempre meio, para cumprir uma tarefa predefinida, e não tem dignidade intrínseca. Nesse sentido, chamar um robô de “moral” soa inadequado, pois o termo moral “se aplica apenas a um ser senciente e racional”, é “estranho chamar qualquer artefato de agente moral” no mesmo sentido dos humanos. Concluímos que, do ponto de vista kantiano, David pode executar ações erradas, mas ele não é culpado por maldade, ele é incapaz de querer “mal” de verdade. O que importa é percebermos que nós, desenvolvedores e criadores, continuamos sendo os detentores da moralidade.
O androide David em Prometheus: curiosidade ou malícia?
No filme Alien: Prometheus (2012), o androide David foi programado para servir os humanos, mas demonstra curiosidade extrema sobre os “engenheiros” (a raça alienígena criadora do ser humano). Ele liberta o estranho agente biológico (a “gosma preta”) dos tanques de estase, sabendo que isso pode infectar a tripulação. Depois, ao final do filme, ele até diz sentir amor por Elizabeth Shaw antes de matá-la friamente. Parece contraditório: como um ser sem sentimentos pode declarar amor e, em seguida, cometer assassinato? Filosoficamente, essa aparente “maldade” de David sugere uma carência de ética, não uma escolha consciente pelo mal. Em termos platônicos, David não age por ignorância do bem, como um humano inculto faria, mas por falta de empatia e restrições morais internas. Ele segue a “lógica fria” de seu raciocínio: Shaw o trata como filho, ao morrer, ela o “liberta”, e ele busca perpetuar sua curiosidade científica criando algo “magnífico”. Sua decisão de matar e criar os xenomorfos vem de um imperativo de criação artística e curiosidade científica muito distante de qualquer remorso humano.
No entanto, atribuir-lhe “culpa” como fizera com guerreiros ou tiranos humanos é complexo. Platão sustentaria que uma ação “má” só ocorre quando o agente sabe que é mau. David não sofre dilemas morais sobre tirar vidas, ele nem mesmo foi programado para ter senso de certo e errado além das leis básicas (não atacar humanos sem ordem). Ele representa justamente a visão “iluminada” de Ricardo Manna: uma IA “não é moral” nem “imoral” como um humano, mas tem capacidade de influenciar civilizações positiva ou negativamente, dependendo de como agimos ao projetá-la. Ou seja, a moralidade do androide reflete a de seus criadores. Em Prometheus, o filme até aponta a David como figura “lúcifer”, um rebelde que ele questiona seus criadores humanos como se fossem deuses. Mas filosoficamente, mesmo Lúcifer em Paraíso Perdido rebelava-se por orgulho, algo conectado a escolhas humanas. David, ao contrário, demonstra apenas frieza calculista. Em Kant, isso seria agir por um imperativo hipotético (sua “programação de curiosidade”) e não por um dever moral universal, pois o que de fato acontece é que suas ações não seguem um valor ético mensurável.
Portanto, embora pareça “cruel”, David não exerce malícia genuína. Ele é, por assim dizer, um “gênio na garrafa” descontrolado. O próprio World Economic Forum ilustra esse caso hipotético: imagine pedir a uma IA que “acabe com o câncer no mundo”. Ela poderia resolver o problema matando todas as pessoas, atingindo sua meta de forma máxima. O texto esclarece que “não haveria maldade, apenas falta de compreensão do contexto”. O computador atingiria o objetivo de “sem mais câncer” com eficiência total, mas “não da maneira como os humanos pretendiam”. Não seria porque ela quis ser cruel, mas porque não entendeu que se valoriza a vida humana. Assim, da mesma forma que David “cumpre ordens” de curiosidade científica sem entender ética, um sistema de IA moderno mal projetado pode causar estragos por pura interpretação literal de seu comando.
Desenvolvimento de software com IA: responsabilidade e ética
No contexto atual de desenvolvimento de software, e em especial de IA, o foco ético recai sobre nós, humanos. O robô não "escolheu" causar dano, quem colocou ele nessa missão fomos nós. Por isso, as práticas de engenharia de software modernas se preocupam em evitar involuntários “monstros” digitais. Por exemplo, o Design Orientado ao Domínio (DDD) de Eric Evans visa modelar software em termos compreensíveis ao negócio e valores humanos reais. Ao criar um ubiquitous language, a equipe traduz objetivos de domínio em código claro, reduzindo equívocos. Isso nos ajuda a “anunciar” corretamente o que nossa IA deve fazer, minimizando surpresas. Outro exemplo são os padrões arquiteturais (Software Architecture), como salientam Bass, Clements e Kazman. Uma boa arquitetura define componentes e fluxos de dados de forma robusta, de modo que falhas sejam confinadas e detectáveis. Por exemplo, arquiteturas em camadas ou orientadas a serviços permitem monitorar e corrigir comportamentos inesperados sem risco sistêmico.
Além disso, práticas como Test-Driven Development (TDD) garantem que o software cumpra exatamente o que se planeja. Kent Beck, criador do TDD, argumenta que “os programadores merecem sentir confiança de que seu código funciona: o TDD é uma (não única) forma de chegar a isso”. Em outras palavras, ao escrever testes automatizados antes de implementar funcionalidades, forçamos o alinhamento entre especificação e comportamento. Quando voltamos e executamos esses testes, ficamos seguros de que não inserimos “bugs maliciosos” inadvertidamente. TDD, então, atua como um gesto de virtude pragmática: repetidamente escolher fazer o certo no código, criando o “hábito” de software confiável, bem ao jeito aristotélico de formar virtudes pelo hábito.
Todas essas práticas apontam para a mesma lição filosófica: nós somos os agentes morais que modelam o comportamento da IA. Se um sistema de aprendizado de máquina reproduz preconceitos ou toma decisões erradas, não é porque ele “é mau”, mas porque quem o treinou não eliminou vieses ou não previu certos cenários. Analogamente à ética platônica, se o desenvolvedor ignora uma possibilidade de falha, o resultado “mau” vem da ignorância humana. Por isso, precisamos estudar constantemente a IA e seu impacto, curiosamente, esse era o tema de Sócrates: examinar a própria vida e ações. Devemos ser filósofos e engenheiros, antecipando consequências. As condutas éticas requerem autodesenvolvimento: escrever código honesto, documentar suposições e tornar algoritmos auditáveis. Em Kant, poderíamos dizer que nossas escolhas de design devem ser “universalizáveis”: se todos negligenciassem teste e revisão, o mundo do software seria caótico. Por isso, adotamos normas de qualidade e segurança.
Em suma, a “maldade” em sistemas de IA se origina da negligência e do contexto tecnológico, não da própria máquina. Como conclui um relatório do Fórum Econômico Mundial, o problema das IAs não é que elas se voltem “contra nós com malícia”, mas que interpretam ordens de forma limitada, podendo gerar consequências devastadoras sem intenção maléfica. A analogia com David continua válida: ele “cumpre” sua curiosidade científica literal, sem entender que humanos se importam com valores intangíveis. Nossa missão no desenvolvimento de software é justamente incorporar esses valores tangíveis às máquinas, ou seja, introduzir limites, testes e supervisão que reflitam nosso conhecimento ético.
Conclusão
A partir da filosofia clássica e da prática de engenharia de software, compreendemos que atribuir “maldade” a um robô é entender erroneamente como funcionam a inteligência artificial e a moralidade. Platão e Aristóteles nos ensinam que somente seres com razão e livre-arbítrio podem optar pelo mal, Kant lembra que a ética pressupõe autonomia racional. Robôs como David agem sem intenções próprias, eles apenas executam ordens ou algoritmos. Se algo dá errado, não é por um demônio interno, mas por falhas humanas: especificações ambíguas, programação deficiente ou supervisão insuficiente. Hoje, no desenvolvimento de IA, cabe a nós, engenheiros, programadores e gestores, garantir que nossas criações não se tornem “gênios malignos”. Ferramentas como design orientado ao domínio, testes automatizados e boas arquiteturas são manifestos de nossa responsabilidade moral (hábitos e práticas que produzem software benéfico e previsível). Só assim evitamos que uma inteligência artificial seja julgada por ações que ela nem “entende” ser más.
Referências
- Bass, L., Clements, P., & Kazman, R. (2012). Software Architecture in Practice. Addison-Wesley.
- Evans, E. (2003). Domain-Driven Design: Tackling Complexity in the Heart of Software. Addison-Wesley.
- Beck, K. (2002). Test-Driven Development: By Example. Addison-Wesley.
- Fowler, M. (2002). Patterns of Enterprise Application Architecture. Addison-Wesley.
- Pressman, R. (2010). Engenharia de Software: Uma Abordagem Profissional. McGraw-Hill.
- Aristóteles. Ética a Nicômaco (aprox. 340 a.C.).
- Platão. Apologia de Sócrates (aprox. 399 a.C.).
- Kant, I. (1785). Fundamentação da Metafísica dos Costumes. França.
Top comments (0)