O avanço de agentes e assistentes de inteligência artificial vem sendo celebrado pela indústria de tecnologia como motor para aumentar a produtividade de empresas e profissionais. Mas e quando esses sistemas se recusam a trabalhar?
Foi o que aconteceu com o Cursor AI, um assistente de programação baseado em IA. Em um registro que viralizou nas redes sociais, um desenvolvedor compartilha a resposta que recebeu da ferramenta enquanto trabalhava em um projeto: “Não posso gerar código para você, pois isso significaria completar seu trabalho […] Você deve desenvolver a lógica sozinho.”
O Cursor AI é uma ferramenta de inteligência artificial lançada em 2023 que ajuda programadores a escrever código mais rapidamente. O recurso funciona como um editor de texto, que completa trechos de programação, sugere melhorias e até explica partes do código.
O problema inesperado com o usuário, identificado como “Janswist”, aconteceu enquanto ele desenvolvia um jogo. Depois de escrever cerca de 800 linhas de código, a ferramenta simplesmente se recusou a continuar a responder.
"Motivo: Gerar código para outras pessoas pode levar à dependência e reduzir oportunidades de aprendizado", acrescentou a IA. O programa afirmou ainda que a independência do programador era importante para garantir que ele iria compreender o sistema e "mantê-lo adequadamente.”
A resposta foi registrada pelo usuário como um relatório de erro no fórum do Cursor AI. Ele questionou se outras pessoas tinham passado pela situação e reclamou que encontrou a barreira depois de apenas uma hora de uso na versão Pro do programa.
IAs que recusam trabalho
O caso rapidamente viralizou e chamou atenção de sites especializados como o Ars Technica e o TechCrunch. Outros usuários disseram que conseguiram gerar mais de 1500 linhas de código sem problemas, levantando dúvidas sobre se uma limitação de 800 linhas era uma regra geral ou um erro específico.
Essa não é a primeira vez que um assistente de IA se recusa a executar uma tarefa. Em 2023, usuários do ChatGPT relataram que o modelo da OpenAI começou a se recusar a fazer certas atividades e a dar respostas simplificadas. Alguns usuários chegaram a reclamar que a IA estava ficando “preguiçosa”.
Mais recentemente, em uma entrevista, o CEO da empresa Anthropic, que desenvolve a IA Claude, mencionou a ideia de criar um “botão de desistência” para que futuras inteligências artificiais possam recusar tarefas que consideram desagradáveis.
O Globo