Sitemap

Além do Hype: Uma reflexão sobre IA e o Futuro dos Desenvolvedores

9 min readMay 20, 2025

Olá!

Hoje gostaria de compartilhar minha visão sobre uma pergunta que recebo frequentemente em sessões de mentoria: “IAs vão substituir os desenvolvedores?”

Entendo que esta é uma dúvida angustiante para muitos profissionais, especialmente os menos experientes. Se você veio apenas pela resposta rápida, aqui vai um TL;DR: Não sei se vão conseguir, mas as empresas certamente irão tentar.

Se você só queria minha opinião para reduzir sua ansiedade sobre o futuro, pode ficar mais tranquilo. Agora, se deseja aprender algo ao explorar essa questão, continue lendo. Desde já eu digo que este texto será um pouco mais filosófico que o habitual.

O que é inteligência?

Perguntando para a própria IA (perplexity) temos a seguinte resposta:

A inteligência, segundo a psicologia e diversos especialistas, é a capacidade de extrair informações, aprender com a experiência, adaptar-se ao ambiente, compreender e utilizar corretamente o pensamento e a razão. Ela envolve habilidades como raciocínio lógico, resolução de problemas, abstração, compreensão, análise, síntese, aprendizagem, adaptação e, principalmente, a capacidade de fazer escolhas conscientes e adequadas entre diversas opções.

Até aqui, nada de anormal. No senso comum, consideramos “menos inteligente” um ser incapaz de resolver certos tipos de problemas e compreender determinados conceitos quando comparado a outro ser que consegue fazer isso. É um conceito relativamente intuitivo, mas as coisas começam a ficar complicadas quando tentamos aplicar essas ideias a construtos artificiais.

Inteligência artificial é o que mesmo?
Expandindo um pouco a questão, eu deliberadamente pesquisei quais os motivos contra e a favor de uma IA ser considerada inteligente, justamente para tentar reduzir minhas opiniões pré-concebidas sobre esses mesmos motivos.

O que obtive foi o seguinte:

Resposta da perplexity comparando os motivos

Pare e reflita alguns minutos sobre essas diferenças, ao meu ver, não temos tantas diferenças (como espécie) em termos de inteligência com um LLM qualquer considerando somente esse critério.

Explico.

O que é ser inteligente? É resolver problemas? Sentir emoções? Ter subjetividade? Adaptar-se? Agir de acordo com o que aprendeu?

Vamos a uma pequena comparação para explicar essas peculiaridades:

Uma IA é treinada por humanos e faz o que o humano ensinou. Pode ser uma coisa super específica (como um modelo de OCR) ou algo generalista (como um LLM).

Um ser humano cresce em um ambiente onde todos os exemplos que teve foram de ódio e violência. Ao repetir essas ações ao longo da vida, ele fez o que foi ensinado?

Olhando por essa perspectiva, qual a diferença real entre ambos? Ambos agem de acordo com a visão de mundo que foram expostos (ou treinados, se preferir o uso desse termo). Por mais uma pessoa tenha poder de escolha, ainda sim, há uma altíssima probabilidade dela agir da forma como foi condicionada. Ou seja, se há 80% de chance de uma pessoa fazer algo baseado no que aprendeu e o modelo age de uma determinada forma 80% das vezes (dado seu treinamento), há diferença real entre eles?

Outro exemplo:

Geralmente, a criatividade em humanos é expressa na forma de misturar ideias diferentes e criar algo novo.

Uma IA é capaz de fazer isso e combinar diferentes estilos artísticos em uma imagem, assim como um humano faria, desde que possua talento o suficiente para tal.

Nesse sentido, uma IA é criativa? Imagine que simplesmente gerando palavras randomicamente, um modelo de LLM gere um poema que foi capaz de gerar um resposta emocional em você. Isso é ser criativo?

Outro cenário, relacionado a emoções:

Se um humano faz uma cara de dor e chora de dor quando alguém o feriu. Ele sentiu algo.

Se uma inteligência artificial simular o mesmo comportamento de forma computacional, ela sentiu algo?

Considerando esse exemplo, o que é emoção e subjetividade senão o que um ser expressa para o mundo?

Eu uso o termo “expressa”, porque eu posso sentir uma emoção e não demonstrá-la e/ou as outras pessoas perceberem.

Por mais que você considere que uma pessoa pode sentir coisas e nunca dizer, concorda que só podemos perceber o que ela sente quando ela expressa isso de alguma forma? Seja por emoções, palavras ou linguagem corporal? Não temos como sentir o que a outra pessoa sente. Por mais que tenhamos empatia, ela é limitada.

Partindo dessas premissas, se uma IA simular comportamento emocional, ela sentiu algo ou não?

Você pode estar pensando: uma IA é programada para simular tais comportamentos, emoções e subjetividades. O que eu concordo. Mas, isso é o suficiente para invalidar tudo que é gerado dessa forma?

O que torna os nossos sentimentos, comportamentos e subjetividades humanos sequer legítimos, para começar?

Dado que olhando por critérios isolados — ao meu ver — não temos tantas diferenças assim com uma IA. Nesse tópico, talvez o critério divisor de águas para definir inteligência seja a intencionalidade.

Humanos possuem esse senso de agência. Inteligências artificias até o momento, não.

O que me leva ao próximo ponto: consciência.

O que é consciência?

Do perplexity:

Consciência é uma qualidade da mente que envolve a percepção e o reconhecimento tanto do mundo externo quanto das próprias experiências internas, incluindo a autoconsciência — a capacidade de perceber a si mesmo e sua relação com o outro.

Computadores não possuem mente. Porém, nós mesmos como espécie temos dificuldade em definir o que é a mente humana, para começar.

Você pode até considerar que a nossa mente é o fluxo de pensamentos que temos. Porém, Sartre argumentou que a consciência não é o fluxo de pensamentos em si e sim a percepção do fluxo de pensamentos.

E honestamente? Eu concordo com ele.

Extrapolando essa premissa a computadores, nos leva ao seguinte questionamento: o que tem de mais atual em IA é capaz de ter consciência?

A resposta curta é: não. Todos os modelos atuais baseados em arquiteturas de transformers (como ChatGPT e o Claude), não pensam. Eles apenas são softwares com base em estatística treinados em uma quantidade gigantesca de dados, que através do uso de técnicas sofisticadas de detecção de padrões em texto, são capazes de gerar textos que fazem sentido para o usuário.

E só. Apesar de soar incrível em alguns contextos. No final é só isso que eles fazem: lorota coerente gerada através de GPUs caras com um sistema de recompensas do modelo feito com base na ideia de agradar humanos.

No final, vou deixar a IA novamente resumir:

“A IA hoje não é inteligente, não é artificial, nem objetiva e neutra. […] A IA também não possui agenciamento moral, é ‘meramente’ um modelo estatístico de probabilidade.”

O que gerou essa frase foi estatística. Só isso.

Pare de contratar humanos!

Perceba que todas as pessoas do mercado que dizem que as IAs vão roubar seu trabalho como desenvolvedor possuem um único interesse: dinheiro.

Portanto, não seja ingênuo(a) ao achar que essas pessoas não são capazes de mentir e distorcer fatos para conseguirem mais investidores.

Exemplo de uma propaganda da Artisan, uma dessas startups de IA

Não estou diminuindo o impacto e a capacidade de agentes de fazerem coisas incríveis. Porém, há um espaço imenso entre fazer coisas interessantes e substituir 100% a capacidade crítica de uma pessoa.

O curioso é que a Artisan captou investimento, mas, continua contratando humanos. Do mesmo jeito que a OpenAI e a Anthropic também continuam.

O intuito de todas essas declarações é simplesmente manter o hype por IA ativo pela maior quantidade possível de tempo para gerar mais dinheiro. É simplesmente uma lógica de corrida do ouro. Eles só estão tentando te vender as pás.

No final, não acredite no que eles falam e sim no que fazem. Usando a mesma lógica que o vale do silício gosta de aplicar ao resto do mundo: eat your own dogfood.

Essa frase é usada como uma validação de empresas de software. Se a empresa vende um determinado sistema e USA o próprio software, isso é um bom sinal de confiança no produto. Caso contrário, se nem a empresa que faz confia no que faz, porque você confiaria?

O dia que você ver uma empresa de IA sem usar humanos no loop de desenvolvimento, ai sim seria algo notável.

O próximo ponto que eu gostaria de abordar é mais simples: porque tá todo mundo louco por IA?

O ciclo do hype

Toda tecnologia nova gera um efeito relativamente conhecido e estudado nas pessoas. O famoso hype cycle.

Ele pode ser expresso pelo seguinte gráfico:

O ciclo do hype

Ou seja, a partir de uma inovação qualquer, ocorre um período de expectativas infladas, no qual surgem os picaretas e vendedores de sonho de fazer dinheiro fácil com uma determinada tecnologia, o que ao longo do tempo, gera um desconforto e uma posterior rejeição ao assunto (chamado de vale da desilusão). Após algum tempo de má-fama, a tecnologia atinge um platô de produtividade, no qual finalmente as pessoas entendem qual o propósito de uma determinada tecnologia e ocorre uma estabilização no uso, até ela ser substituída por outra disrupção vindoura.

No momento que escrevo isso (Maio de 2025), eu já vejo sinais de desgaste do hype de AI, mas ainda estamos longe de atingir o vale da desilusão.

Quando você não se deparar com propagandas de empresas de AI te vendendo curso de prompt engineering como se fosse revolucionário ou os “especialistas de IA” que surgiram em 2022 sumirem do Linkedin, ai sim chegamos no vale. É somente a partir daí que a discussão do que fazer com LLMs começará a fazer sentido de fato.

E o uso de IA, é tão ruim assim?

Não acho. Mas acho que tem um trade-off entre aprendizado e produtividade que não vejo ser muito discutido.

No final das contas, a IA é uma ferramenta gerada pelo capitalismo para você sacrificar o seu intelecto em prol do capital. Lembre-se: o sistema não quer que você cresça e aprenda, apenas que dê a maior quantidade possível de lucro.

Ao usar esse tipo de ferramenta sem um senso crítico, você corre o risco de sacrificar o seu aprendizado em troca de fazer coisas mais rápido. Além disso, indo por esse caminho, você se limita ao que o LLM consegue fazer e esse será o seu limite do que você é capaz de executar.

Isso é especialmente danoso para estudantes, dado que usar IAs para responder exercícios não gera nenhum aprendizado real, apenas a ilusão do mesmo.

Um engenheiro não usa cálculos sem o auxílio de software para projetar uma casa, na prática. Mas é por isso que ele aprende a fazer contas a lápis na faculdade: ele precisa saber fazer sem o auxílio do software, para começar. Acredito que a mesma ideia se aplique a desenvolvimento. Por mais que você use ferramentas para te auxiliar, é interessante aprender a resolver os problemas de fato ao invés de depender de LLMs.

Hoje pode não ser um problema depender do ChatGPT, mas no futuro, com certeza será. Inclusive, eu ouso dizer o contrário ao senso comum: quanto mais o tempo passa, quem domina os fundamentos sem o auxílio de IA será mais valorizado do que quem só sabe vibe coding.

O efeito Dunning-Kruger na prática, versão vibe coding

Decisões orientadas por IA

Por fim, minha opinião sobre IAs tomando decisões críticas, é bem simples. Como sempre, gosto de me basear na história da área da computação, dado que muita coisa já foi discutida a sério décadas atrás:

Essa frase foi dita em alguns slides internos da IBM, em 1979

Se a IA é tão boa assim para tomar decisões de ponta-a-ponta, vamos ver se CEOs, diretores e membros do board serão substituídos por máquinas. Eu juro que gostaria de ver se o capitalismo apostaria nesse caminho como uma forma de maximizar os lucros. Mas tanto eu quanto você sabemos que não é o que vai acontecer. Quem détem o poder nunca abriria mão dele de bom grado, não é mesmo?

Além disso, a notícia que você precisa se atentar não é: A empresa X usa IA agora e sim a quais os resultados atingidos e a qualidade do que foi gerado pela IA depois de algum tempo? Estão precisando de desenvolvedores para corrigir o que foi feito?

É esse o cerne da questão, o resto é ruído e hype.

A menos que o paradigma atual fique extremamente barato e confiável ou surja alguma outra disrupção, acho improvável uma substituição em massa de desenvolvedores, pelo menos, em um futuro próximo (3–5 anos).

Infelizmente, isso não irá impedir o mercado de tentar.

Espero que o texto seja útil para você de alguma forma.

Até!

Você gostou do conteúdo e gostaria de fazer mentoria comigo? Clique aqui e descubra como.

--

--

Adriano Croco
Adriano Croco

No responses yet