A inteligência artificial realmente pensará como os humanos? Estamos longe disso – e fazendo a pergunta errada.

A inteligência artificial pode ter habilidades inferenciais impressionantes, mas não espere que ela possua algo próximo ao raciocínio humano em um futuro próximo. O caminho até a chamada inteligência artificial geral (IAG), que seria uma IA capaz de aplicar raciocínio em diversas tarefas ou ambientes da mesma forma que os humanos, ainda é longo. Modelos de raciocínio amplos (MRAs), embora não sejam perfeitos, representam um passo inicial nessa direção. Em outras palavras, não conte com seu robô de preparação de refeições para reagir adequadamente a um incêndio na cozinha ou a um animal de estimação pulando na mesa e roubando comida.

A busca pela inteligência artificial que pense e raciocine da forma mais humana possível é antiga, e especialistas do setor concordam que ainda estamos longe de alcançar esse nível. Porém, os modelos de linguagem amplos (MLAs) e seus sucessores, os MRAs, operam com base em análises preditivas que se fundamentam em padrões de dados, não em raciocínios semelhantes aos humanos. Apesar disso, o burburinho em torno da IAG e dos MRAs continua aumentando, e já era esperado que o alarde superasse de longe a tecnologia realmente disponível.

“Estamos no meio de uma epidemia de teatro de sucessos em IA”, afirmou um especialista da área. “Há uma ilusão de progresso criada por demonstrações chamativas, vitórias anedóticas e capacidades exageradas. Na verdade, uma IA verdadeiramente inteligente e pensante ainda está a muitos anos de distância.” Um estudo recente realizado por pesquisadores da Apple minimizou a prontidão dos MRAs. Os cientistas concluíram que os MRAs, como estão atualmente, não exercem um raciocínio muito além dos MLAs que já estão amplamente em uso.

Os MRAs, segundo um especialista do Zoom, são “derivados dos MLAs durante a fase pós-treinamento, como pode ser visto em modelos como o DeepSeek-R1.” Ele explicou que a geração atual de MRAs se concentra apenas na resposta final, não no processo de raciocínio em si, o que pode levar a passos intermediários errôneos ou distorcidos. Embora os MRAs utilizem cadeias de pensamento passo a passo, outro especialista destacou que “devemos reconhecer que isso não é igual a uma cognição genuína, apenas imita.”

Os MRAs e os MLAs servem como motores de predição, “não como solucionadores de problemas”, segundo um especialista. O raciocínio dessas tecnologias é realizado por meio da imitação de padrões, e não através da resolução algorítmica de problemas. Portanto, parece lógica, mas não se comporta como tal. O futuro do raciocínio na IA não virá da melhoria dos dados ou do tempo dedicado ao raciocínio pelos MLAs ou MRAs. É necessário um tipo fundamentalmente diferente de arquitetura que não dependa exclusivamente dos MLAs, mas que integre ferramentas tecnológicas mais tradicionais com dados em tempo real e IA.

Atualmente, um termo mais apropriado para as capacidades de raciocínio da IA pode ser “inteligência irregular”, segundo um especialista da Salesforce. “Aqui, os sistemas de IA se destacam em uma tarefa, mas falham de forma espetacular em outra – especialmente em casos de uso empresarial.” Quais são os potenciais casos de uso para os MRAs? E qual é o benefício de adotar e manter esses modelos? Para começar, os casos de uso podem se parecer mais com extensões dos MLAs atuais, surgindo em várias áreas – mas a situação é complexa. “A próxima fronteira dos modelos de raciocínio são as tarefas que – ao contrário de matemática ou codificação – são difíceis de verificar automaticamente.”

Atualmente, os MRAs disponíveis cobrem a maioria dos casos de uso dos MLAs clássicos, como “escrita criativa, planejamento e codificação.” Com a evolução e a adoção dos MRAs, haverá um teto para o que os modelos podem alcançar de forma autônoma e quais serão as fronteiras do colapso do modelo. Sistemas futuros aprenderão a usar e integrar ferramentas externas como mecanismos de busca, ambientes de simulação física e ferramentas de codificação ou segurança.

Os primeiros casos de uso para MRAs em empresas incluem centros de contato e trabalhos básicos de conhecimento. No entanto, essas implementações “estão repletas de problemas subjetivos.” Exemplos incluem a resolução de questões técnicas ou o planejamento e execução de uma tarefa em várias etapas, dados apenas objetivos de nível superior com conhecimento imperfeito ou parcial. À medida que os MRAs evoluem, essas capacidades podem melhorar, conforme previsto por um especialista. Tradicionalmente, “os MRAs se destacam em tarefas que são facilmente verificáveis, mas difíceis para os humanos gerarem – áreas como codificação, QA complexa, planejamento formal e resolução de problemas passo a passo.”

Um especialista mencionou que já observou usos sólidos da IA em pesquisa médica, ciência e análise de dados. Os resultados da pesquisa sobre MRAs são encorajadores, com modelos já capazes de resolver problemas em uma única tentativa, enfrentar quebra-cabeças complexos de raciocínio, planejar e refinar respostas durante a geração. Mas ainda está cedo para os MRAs, que podem ou não ser o melhor caminho rumo a uma IA que raciocina.

A confiança nos resultados provenientes dos MRAs também pode ser problemática, assim como aconteceu com os MLAs clássicos. “O que importa é se, além das capacidades, esses sistemas podem raciocinar de maneira consistente e confiável o suficiente para serem confiáveis além de tarefas de baixo risco e na tomada de decisões críticas de negócios.” Isso não significa que os modelos de linguagem são inúteis, enfatizou outro especialista. “Estamos implementando-os com sucesso para assistência em codificação, geração de conteúdo e automação de atendimento ao cliente, onde suas capacidades atuais oferecem valor genuíno.”

O raciocínio humano não está isento de enormes falhas e preconceitos, também. “Não precisamos que a IA pense como nós – precisamos que pense conosco.” O objetivo dos MRAs, e da IAG em última instância, é “construir uma IA que seja transparente sobre suas limitações, confiável dentro das capacidades definidas e projetada para complementar a inteligência humana, em vez de substituí-la.” A supervisão humana é essencial, assim como o “reconhecimento de que o julgamento humano, a compreensão contextual e o raciocínio ético continuam sendo insubstituíveis.”

Referência: [Link da matéria original]

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima