E aí, cês tão bem?
Hoje, quero trocar uma ideia sobre o tal do neurônio artificial, mostrar como ele pensa, erra, aprende e, no fim, toma decisões sozinho.
Mas o que é um perceptron?
Um perceptron é o modelo mais simples de uma rede neural. Ele é tipo um neurônio artificial que já consegue tomar decisões do tipo:
- sim ou não
- 1 ou 0
- curte ou não curte
A ideia é: ele recebe algumas informações (as chamadas entradas), faz uma conta e toma uma decisão. Mas, assim como a gente, ele só consegue decidir bem depois de aprender ou seja, errando, ajustando, errando de novo… até acertar.
Entradas e decisões
Essas entradas podem ser qualquer coisa: quantas curtidas um post teve, se a pessoa gosta de dançar, se ela vai em baile... o que for.
- Entrada: gosta de dançar? → x1
- Entrada: vai em baile? → x2
Exemplo prático: quem curte funk?
Imagina que a gente quer ensinar um perceptron a dizer se a pessoa curte funk com base em duas perguntas:
- Gosta de dançar? (x1)
- Vai em baile? (x2)
Se a resposta for sim, a entrada é 1. Se for não, é 0.
A matemática por trás da decisão
A conta que o perceptron faz é essa aqui:
resultado = (x1 * w1) + (x2 * w2) + b
Onde:
-
x1
,x2
são as entradas (ex: gosta de dançar, vai em baile) -
w1
,w2
são os pesos, que mostram o quanto cada entrada é importante -
b
é o bias (viés), um ajuste fino pra linha de decisão
Depois dessa conta, ele compara o resultado com um limiar (threshold):
- Se o valor for maior que o limiar, ele diz: curte funk (1)
- Se for menor ou igual, ele diz: não curte (0)
Mas o que são esses “pesos”?
No começo, eu buguei com esse negócio de peso. Mas depois entendi que o peso é só o quanto aquela informação influencia na decisão.
Tipo:
- Gosta de dançar? Legal, mas pode não significar muito.
- Vai em baile funk? Aí sim! Isso provavelmente pesa muito na decisão.
Então, o peso de “ir em baile” talvez seja maior que o peso de “gostar de dançar”.
E o tal do bias?
O bias é outro elemento importante.
Sem ele, a linha de decisão do perceptron sempre teria que passar pela origem (0,0), o que limita muito.
Com o bias, essa linha pode se mover pra cima ou pra baixo, ajudando a separar melhor os dados.
O bias é como empurrar a média final de um aluno pra cima ou pra baixo, pra ajustar essa nota mínima sem mudar a regra da escola.
Lembra do limiar, aquele ponto de corte que decide entre 0 e 1? Quando usamos o bias direto na conta, a gente já tá ajustando esse corte. Ou seja, o bias ajuda o modelo a “empurrar” essa linha de decisão pra cima ou pra baixo, sem precisar de um limiar separado.
Visualizando em um gráfico
Imagina que você tem um plano com dois eixos:
X (horizontal)
Y (vertical)
Cada ponto ali é um "exemplo" com duas características. Por exemplo:
Pessoa | Gosta de dançar (X) | Vai em baile (Y) | Curte Funk? |
---|---|---|---|
A | 0.9 | 0.8 | Sim (1) |
B | 0.2 | 0.1 | Não (0) |
C | 0.7 | 0.4 | Sim (1) |
D | 0.1 | 0.3 | Não (0) |
Quando você plota esses pontos no gráfico, quem curte funk tá mais pra cima e pra direita, e quem não curte tá mais pra baixo e esquerda.
Como o perceptron aprende com os erros?
Aí vem a parte mais massa: ele aprende com os próprios erros.
Pra ensinar o perceptron, a gente não dá só as entradas (x1, x2), mas também a resposta certa que em IA a gente chama de rótulo.
O rótulo é o que a gente espera que o modelo diga.
Por exemplo:
- x1 = 1 (gosta de dançar)
- x2 = 1 (vai em baile)
- rótulo = 1 (a pessoa curte funk)
O perceptron calcula o resultado com os pesos e o bias:
resultado = (x1 * w1) + (x2 * w2) + b
E compara com o rótulo:
- Se acertou → não muda nada
- Se errou → ele ajusta os pesos e o bias pra tentar melhorar
Esse processo se repete com vários exemplos. É isso que a gente chama de treinamento.
O que acontece depois de aprender?
Depois de muito treino, o perceptron encontra uma linha de decisão ideal aquela que separa direitinho quem curte funk (pontos rosa) de quem não curte (pontos roxos).
Mas isso depois de alguns ajustes, primeiro ele erra e acha uma linha sem muito sentido.
Ai depois de vários ajustes, ele acha a linha ideal que separa os dois grupos direitinho.
A linha pontilhada preta é a "linha de decisão" aprendida pelo modelo: ela separa os dois grupos, quem curte funk (pontos rosa) e quem não curte (pontos roxos). Depois de muitos ajustes, o perceptron encontra a linha ideal que separa os dois grupos.
Essa linha c*hamada linha de decisão* é onde o perceptron passa a dizer:
- Desse lado aqui → curte funk (1)
- Do outro lado → não curte (0)
É tipo o cérebro dele falando: “A partir daqui, eu sei o que responder.”
Resumão
- Perceptron = o neurônio mais básico de uma rede neural
- Recebe dados → soma ponderada com pesos e bias → toma uma decisão
- Aprende errando e ajustando os pesos
- Consegue traçar uma linha de separação entre grupos diferentes
- Funciona muito parecido com a forma que a gente aprende: tentando e melhorando com os erros
bjs bjs e até a próxima 💟
Top comments (0)