Uso de expressões de cortesia em interações com inteligência artificial levanta debate sobre custo computacional e eficiência operacional
O hábito de escrever “por favor” e “obrigado” em conversas com assistentes de inteligência artificial, como o ChatGPT, pode parecer inofensivo — ou até educado. No entanto, algumas discussões recentes no setor de tecnologia vêm sugerindo que essas expressões, ao se acumularem em escala global, poderiam gerar aumento de consumo computacional e, consequentemente, representar um custo operacional adicional para as empresas responsáveis por esses sistemas.
A controvérsia surgiu após publicações em fóruns técnicos estimarem, de forma especulativa, que bilhões de interações diárias com IAs poderiam, ao conter palavras desnecessárias para a função, elevar levemente a carga de processamento dos servidores. Segundo essa visão, cada caractere extra precisa ser processado, armazenado temporariamente e considerado na geração de respostas, o que em escala maciça poderia representar consumo energético adicional.
Porém, especialistas em inteligência artificial e eficiência computacional discordam da ideia de que termos de cortesia representem um “prejuízo significativo”. De acordo com engenheiros da área, o impacto energético de algumas palavras a mais por mensagem é irrisório. “Estamos falando de diferenças na casa de milésimos de kWh por requisição. Não é isso que desequilibra a conta de luz de uma empresa com datacenters otimizados para eficiência energética”, explica o cientista de dados Renato Borges.
Ainda assim, a discussão levanta um ponto válido: a eficiência computacional importa, e toda interação com sistemas em nuvem consome recursos físicos — ainda que imperceptíveis para o usuário. Em serviços massivos como o ChatGPT, que processa milhões de mensagens por hora, o acúmulo de processos desnecessários pode, em teoria, exigir mais da infraestrutura.
Do ponto de vista da empresa, o foco está mais na otimização do sistema como um todo do que em educar usuários sobre cortes de linguagem. “O problema não é dizer ‘obrigado’ ao modelo, e sim quando há sobrecarga com requisições desnecessárias, múltiplas tentativas mal estruturadas ou abusos na plataforma. Expressões de cortesia são marginalmente irrelevantes”, resume uma fonte ligada a uma grande empresa de IA.
A OpenAI, responsável pelo ChatGPT, nunca desencorajou explicitamente o uso de termos educados em suas plataformas. Pelo contrário, o próprio modelo costuma responder de forma gentil a mensagens corteses, incentivando uma interação mais positiva e natural entre humanos e máquinas — sem custo relevante.
Em um cenário de crescente preocupação com sustentabilidade digital, o foco das big techs tem sido investir em datacenters mais verdes, melhorar algoritmos de compressão e reduzir a emissão de carbono por operação, em vez de censurar a linguagem dos usuários. Grandes players do setor, como Microsoft, Google e Amazon Web Services, têm metas públicas de neutralidade de carbono e uso de energia renovável.
Do ponto de vista social, pesquisadores de comportamento alertam para o risco de desestimular a gentileza, mesmo em interações com IAs. “Estamos cultivando hábitos. Se tratar mal uma máquina vira norma, isso pode transbordar para a comunicação humana. A gentileza é um valor que ultrapassa o contexto da tecnologia”, avalia a psicóloga e especialista em ética digital Clara Muniz.
No fim das contas, o verdadeiro prejuízo talvez não esteja em alguns bytes extras, mas na tentativa de transformar uma atitude positiva em vilã de um problema muito maior: o desafio global da sustentabilidade computacional. A educação digital, nesse contexto, deve incluir eficiência — mas também empatia.