DEV Community

Cover image for Reflexões de um Dev sobre IA
Jefferson Otoni Lima
Jefferson Otoni Lima

Posted on

Reflexões de um Dev sobre IA

Ética em Inteligência Artificial ?

Participei recentemente de um apresentação feita pelo Evento da LinkedIn Notícias apresentado pela Ana Prado e o convidado especial o ilustre Professor Dr. Alvaro Machado Dias "Riscos e limites éticos no uso da inteligência artificial", bem interessante e que me fez refletir um pouco mais sobre essa questão tão provocativa e complexa e que muitas vezes passa despercebido por nós que está trabalhando no dia a dia diretamente com a tecnologia.

Não devemos nos iludir, o jogo é outro e isso não tenho dúvidas, então vamos refletir um pouco sobre o assunto.

É curioso como certos temas despertam em nós aquela vontade quase incontrolável de pensar um pouco além, de ir mais fundo, de abrir o sublime mental e começar a godar ideias como se fossem linhas de código em Go ou qualquer outra lang é claro. Foi exatamente o que aconteceu comigo. Eu poderia simplesmente seguir a rotina de engenheiro de software, arquiteto de sistemas, pensar em estruturas de dados, em algoritmos, em pipelines k8s, mas a cada fala que eu ouvia, algo dentro de mim gritava, entende?

Precisamos refletir mais sobre isso como humanidade pensei comigo. E aqui estou, tentando escrever, não porque estava no meu planejamento do dia a dia, mas porque é como se estivesse compilando um código filosófico que insiste em rodar dentro de mim.

Dizem que sou uma exceção, mas será? Um técnico, um engenheiro, alguém mergulhado há mais de duas décadas em arquitetura e programação, mas que não se contenta em apenas projetar sistemas. Eu amo quando a conversa invade o terreno da filosofia, da ética, daquilo que não tem documentação oficial, não existe no github um README para nos orientar para onde ir, o que fazer, mas que precisa de interpretação densa e "humana", fico muito chato quando entro nesse assunto com os colegas.

A AI no Território Cinzento

E a inteligência artificial vindo com toda sua força desde do paper "Attention Is All You Need (Vaswani et al., 2017)" publicado em 2017, que define o modelo "Transformer" como uma nova arquitetura eliminando a necessidade de RNNs (Recurrent Neural Networks) redes recorrentes que era padrão em NLP (Natural Language Processing) usando mecanismo de atenção "self-attention" isso mesmo usado para capturar relações entre palavras independente da distância entre elas, e isso foi o divisor de águas algo extraordinário viria de tudo isso logo depois permitindo o treinamento dos modelos que conhecemos hoje GPT, Claude, Gemini, etc.

Tudo isso está justamente nesse território cinzento se é que me entende, ela é técnica, matemática, mas ao mesmo tempo nos obriga a perguntar o que é ser humano, o que é certo ou errado, qual é a definição de fato da palavra "inteligência" e "conhecimento" nos levando a questionar a refletir ainda mais sobre as "definições das palavras" e como ela é utilizada nos dias atuais.

Vejo muitos replicando sempre um "conceito absoluto" como uma imposição, tratando como se a palavra fosse temporal, ao meu ver é muito além disso, é atemporal se moldando a cada época como algo flexível, expansível, contínuo e evolutivo a palavra "inteligência" e "conhecimento" não foi, e nem é entendida de forma absoluta, é algo bem mais amplo, eu acredito que está presente desde dos processos biológicos primitivos até a possibilidade de se manifestar em sistemas artificiais entende ?

Claro que é somente uma opinião. Descobri que adoro falar sobre isso, eu sinto algo por dentro exatamente o mesmo sentimento quando estou godando.

Talvez soe estranho para alguns, mas escrever sobre ética em IA me dá a mesma energia que abrir o terminal, importar um pacote e começar a estruturar uma API em Go, sim Go também. A diferença é que aqui os termos são dilemas, provocações, perguntas que ficam em goroutines, isso mesmo ficam aguardando o retorno por que não temos uma resposta imediata definida absoluta. Precisam de reflexão e de tempo para serem processadas, entende ? Como fazemos em Go quando queremos rodar algo de forma assíncrona.

Todo mundo fala em ética quando o assunto é inteligência artificial é claro e nítido a preocupação de todos. "Perguntas como e os direitos autorais?", "Quem é responsável quando um sistema de IA comete um erro ou dano?", "Qual o limite da IA?" e tantas outras que conhecemos…

Fala-se em ética nos relatórios bonitos, nos PDFs corporativos, nos congressos internacionais e até nas legislações que estão nascendo, nada contra, porém eu prefiro irmos direto ao ponto, e a pergunta seria que estamos realmente falando de ética? Ou será que estamos apenas tentando organizar conflitos de interesses que se chocam o tempo todo?

O Mito da Ética Universal

Eu acredito que nunca vamos alcançar "a ética" em si. Ética como valor absoluto, como verdade universal, simplesmente não existe no mundo contemporâneo.O que existe são conflitos de ética. De um lado temos a ética da privacidade, de outro a ética da segurança. De um lado a ética da liberdade, de outro a ética do lucro.

O que é ético para uma cultura pode ser imoral para outra, o que é aceitável para uma empresa pode ser intolerável para uma comunidade. E o que conhecemos de AI hoje ela não nasce dentro de um vácuo neutro. A AI como conhecemos precisa ser alimentada, treinada e controlada por humanos e organizações, eu digo "ainda". E é aqui que o debate começa a ficar bem mais interessante.

Quem Realmente Decide?

Muitas pessoas pensam que, ao falarmos de ética na AI, trata simplesmente de ensinar a máquina a não fazer mal. Lindo isso não é ? Mas a pergunta real deveria ser feita é, quem define o que é "mal"? Quem tem o poder de determinar quais valores serão embutidos nos algoritmos? Quem controla a máquina, quem lucra com ela, quem perde é quem decide o que é bom? Essas quatro perguntas simples escancaram uma realidade que a maioria evita enfrentar. Entendo que é um assunto denso e complexo, mas temos que nos questionar todo o tempo como vamos lidar com tudo isso.

O Caso NYT vs OpenAI - Um Wake-up Call

Um exemplo recente mostra o tamanho do problema, olhem só o New York Times conseguiu na Justiça que a OpenAI guarde todos os chats, inclusive os temporários (ops temporários também? eles podem ser armazenados? Não são temporários ? Temporários para quem ? Fiquei realmente curioso e na dúvida), dos usuários. Olha o que isso significa, uma decisão judicial pode obrigar uma empresa global a alterar a forma como lida com dados de milhões de pessoas, sem que essas pessoas tenham voz ou escolha, imagina a dimensão disso.

O que era temporário, passa a ser permanente. Não era privado ? E agora passa a ser potencialmente acessível. Loucura não é ? Existe uma quebra na confiança e a vulnerabilidade aumenta, tanto para indivíduos quanto para empresas. Não dá para assumir lados, não estou querendo aqui entrar no mérito, estou só demonstrando a fragilidade que existe e tudo é muito novo e recente algo que veio para transformar radicalmente o que conhecemos.

E sabem o que é mais grave disso tudo até o momento não temos uma jurisprudência clara, não existe um marco regulatório sólido, não existe nem um consenso nos países imagina a nível global tratando de situações como esta. E é aqui que acredito que ficamos em um limbo isso mesmo em um for {} , ou seja em um loop infinito sujeitos a todo tipo de mazelas, interesses momentâneos de quem tem mais PODER.

Presos no Loop Infinito

Não tenho dúvidas da complexidade que representa tudo isso, e se observamos em um contexto global é ainda mais denso e complexo. O que vemos todo o tempo é que os interesses falam mais alto do que princípios universais. Para facilitar o entendimento temos. As empresas buscam lucro, governos buscam poder, comunidades buscam sobrevivência. E a AI (inteligência artificial), com toda sua capacidade de processamento e alcance, fica no centro de tudo e aí que vemos todos esses interesses se chocando todo o tempo como um game antigo "Asteroids" acreditem não é da minha época mas curto muito. É por isso que quando falamos de ética em AI sem falarmos de política, de economia e disputas de poder pode ter certeza que não estamos falando da "mesma ética" não mesmo.

Vejo muitos defendendo códigos de conduta e boas práticas como solução absoluta, eu penso que será mesmo possível ? Ou é somente uma cortina de fumaça, por que não estão fazendo as perguntas fundamentais para irmos direto ao ponto ? Quem controla? Quem lucra? Quem é impactado negativamente? Quem decide o que é bom? Se não tivermos coragem de responder a essas questões, qualquer conversa sobre ética será só retórica.

E o que percebo é que estamos abrindo mão, pouco a pouco, da nossa autonomia. Literalmente entregando nossos dados em troca de "conveniência". Eu também faço parte de tudo isso, eu também estou preso e refém de tudo, mas não quer dizer que não podemos refletir e discutir sobre tudo que está ocorrendo. Temos confiado em plataformas sem saber como de fato funcionam as regras. Percebo que estamos permitindo que eles definem os limites da tecnologia em nosso lugar, eu sinto que estou terceirizando nossa própria responsabilidade e em algum lugar bem distante, bem oculto bem longe estará cuidando da ética para nós. Mas será que está?

E fica sempre a reflexão ética em inteligência artificial não é um guia corporativo, não é um checklist de boas intenções e sim um belo e enorme campo de batalha como o game "CALL OF DUTY". Onde os valores se confrontam, onde interesses se impõem e onde o ser humano precisa tomar decisões complexas como quem será ou continuará sendo protagonista, entende ?

Não deveríamos mais fingir que ética em IA é só um capítulo bonito em relatórios corporativos, mas sim de quem vai decidir o futuro da nossa relação com a tecnologia, ou seja, nós ou eles?

Como um bom usuário e desenvolvedor claro, sabemos que todo código existe uma possibilidade gigantesca em possuir algum tipo de bug, principalmente códigos gerados por AI.

A questão aqui é, vamos continuar debugando nossa humanidade em produção ou finalmente vamos assumir o controle do nosso próprio código ético?

E vocês, o que pensam? Estamos sendo protagonistas ou apenas users de um sistema que não compreendemos totalmente?

Se chegaram até aqui, agradeço de coração e muito obrigado pela reflexão conjunta. Compartilhem suas visões nos comentários e vamos construir esse debate juntos, linha por linha, como um bom código colaborativo.

Espero que gostem 🚀🚀 ☺️

Top comments (0)