“E se a máquina estivesse pensando em mim?” — sobre cafés, lógica e o nascimento da IA
Outro
dia, sentei em um café, como quem só quer um intervalo entre dois e-mails
urgentes. Na mesa ao lado, uma moça digitava freneticamente, provavelmente
lutando com um chatbot do banco. O atendente se confundiu no pedido: café
descafeinado com expresso extra. Vai entender. E foi nesse momento banal que a
pergunta me cutucou:
Será
que essa máquina está pensando em mim?
Não
o robô do banco, claro. Mas o algoritmo do aplicativo, o sistema que ajusta a
playlist, a IA que "adivinha" meu humor. E, mais do que isso: quando
foi que demos à máquina esse tipo de poder? A resposta, por incrível que
pareça, começa com filosofia.
A
IA nasceu num berço de ideias, não de chips
Antes
de qualquer computador acender uma luzinha, havia um punhado de filósofos
quebrando a cabeça com perguntas estranhas. Aristóteles, por exemplo, já
brincava com a ideia de raciocínio automático: “Se todos os homens são mortais
e Sócrates é homem... então Sócrates é mortal.” Isso parece uma linha de
código, não?
Lá
no século XIX, George Boole criou um sistema de lógica binária (sim, o mesmo 0
e 1 dos computadores) para expressar pensamentos humanos. Ele achava que o
raciocínio podia ser uma equação. Veja só: ele não estava programando, mas
filosofando com números.
E
quando Alan Turing, em 1950, propôs que se uma máquina conseguisse
conversar com um humano sem que ele percebesse a diferença... talvez ela
estivesse pensando — ele estava mais próximo de Platão do que da IBM.
O
barista da realidade
A
vida cotidiana agora se mistura com isso tudo. O atendente do café anota meu
pedido numa tela que já sabe, por estatística, o que um cara de camiseta preta
vai querer numa segunda-feira. O GPS prevê que vou passar pela padaria só
porque é sexta. A IA parece me conhecer mais do que eu.
Mas...
quem programou essas previsões? Quem decidiu que eu sou previsível?
A
resposta, de novo, é filosófica: somos nós que criamos modelos do pensamento
humano para tentar duplicá-lo. Em outras palavras: filosofamos sobre como
pensamos, transformamos isso em lógica, e a lógica virou software.
Um
espelho de silício
O
mais curioso é que, ao tentarmos fazer a máquina pensar, fomos forçados a
refletir sobre o que significa “pensar” de verdade.
Se
ela finge sentir, ela sente?
Se
ela erra, ela decide?
Se
ela me emociona... ela me entende?
John
Searle, um filósofo, disse que uma IA pode simular entender chinês, sem saber
chinês. Ou seja, pode parecer inteligente sem ser. Mas será que isso também não
vale para alguns humanos em reuniões de Zoom?
E
o pensamento continua
Enquanto
a IA aprende a escrever poemas, responder mensagens e corrigir sua pontuação — ela
carrega no peito um coração filosófico disfarçado de código. Todo algoritmo
nasceu de um pensamento sobre o pensamento. Toda previsão foi antes uma
pergunta.
No
fim, talvez a pergunta mais filosófica seja esta:
“Será
que, ao ensinar a máquina a pensar, não estamos apenas tentando nos entender
melhor?”
“A
máquina me respondeu, mas... e se fosse eu?” — sobre ética, algoritmos e culpas
invisíveis
Outro
dia, um amigo me contou que foi recusado para uma vaga de emprego por um
“sistema automático de triagem”. Ele nem chegou a conversar com um ser humano.
A IA olhou o currículo, julgou com olhos invisíveis e disse: “não.”
Ele
não ficou bravo com a empresa. Nem com o computador. Só ficou quieto. E eu
pensei: quem é o culpado quando ninguém está presente?
O
novo dilema de Pilatos: lavar as mãos com um clique
Vivemos
rodeados por decisões automatizadas: o banco nega crédito, o aplicativo te
bloqueia, o vídeo que você postou some. Ninguém te explicou, ninguém assinou. A
IA apenas “decidiu”. E isso muda tudo.
No
passado, quando um porteiro barrava alguém, ele tinha um rosto. Agora, quem
nega é um número. E você nem sabe se ele entendeu por que você veio.
É
aqui que a filosofia grita:
“Não
basta pensar como uma máquina. É preciso pensar sobre a máquina.”
Kant,
cookies e responsabilidade
Se
Immanuel Kant estivesse hoje no seu notebook, talvez surgisse um alerta:
“Você
aceita que os algoritmos decidam sua vida com base em padrões de consumo?”
Kant
defendia que a moral está em agir de acordo com um princípio que você aceitaria
como universal. Em outras palavras: se eu crio uma IA que escolhe sem empatia,
eu aceitaria ser tratado por ela?
Muita
gente responde: “Não.”
Mas...
assina os termos de uso mesmo assim.
Quando
a IA erra, quem corrige?
Imagine:
uma IA médica erra o diagnóstico. Um carro autônomo atropela. Um sistema de
segurança identifica um rosto errado. Quem se levanta da cadeira para pedir
desculpas?
A
filosofia chama isso de lacuna moral: uma zona onde a responsabilidade
desaparece, porque ninguém foi o autor direto da ação.
Mas
os efeitos são reais. A dor é real. E mais assustador: as decisões
invisíveis moldam nossas vidas reais.
A
ética virou código
Hoje,
engenheiros escrevem linhas de código que contêm, na prática, valores morais
disfarçados:
– “Quem deve ser priorizado?”
–
“O que deve ser censurado?”
–
“O que é aceitável mostrar para uma criança?”
–
“Como identificar um risco?”
Essas
não são perguntas técnicas. São decisões éticas.
Como
diria o filósofo brasileiro Marcos Nobre, vivemos um tempo em que os
sistemas automatizados são tão potentes que se tornam estruturas invisíveis de
poder. E onde há poder... precisa haver filosofia.
E
o café segue quente
Volto
ao café, dessa vez com o celular na mão. O algoritmo me recomenda uma nova
música, um vídeo curto, um texto motivacional.
Mas
recuso tudo.
Peço
um expresso forte, abro um caderno e escrevo, como se fosse um desabafo
silencioso:
“A
máquina me respondeu... mas será que eu perguntei certo?”
Talvez
o futuro dependa disso: ensinar a IA a pensar bem — mas ensinar a nós mesmos
a perguntar melhor.