Os chamados grandes modelos de linguagem (LLMs), os tipos mais populares de IA, não têm a mesma dinâmica da inteligência real, segundo vários cientistas listados em reportagem do site Olhar Digital. Ou seja, nem toda IA é necessariamente inteligente da forma humana.
Para os especialistas, plataformas atuais que trabalham com esse tipo de IA, caso do ChatGPT, seriam mecanismos de previsão de textos, exaustivamente treinados em grandes volumes de palavras.
O pensamento humano, de acordo com eles, é mais do que a linguagem, que é um mecanismo de comunicação. O melhor exemplo para distinguir as duas coisas é considerar as pessoas que sofreram danos cerebrais severos que afetam a fala. Apesar de incapacitados de se comunicar verbalmente, muitas delas mantiveram a habilidade de raciocinar, tirar deduções lógicas e resolver problemas.
Outro exemplo é do de crianças pequenas que ainda não dominam a capacidade de fala, mas podem ser altamente inventivas mesmo com essa limitação. Em resumo: a inteligência real é mais complexa.
Linguagem não equivale a pensamento

Dessa forma, ampliar a IA apenas baseada em modelos de linguagem não levaria ao avanço da chamada IA geral (AGI, da sigla em inglês), um conceito que igualmente poderia ser chamado de superinteligência, similar ao que os humanos detêm.
Algumas definições de AGI incluem a exigência de capacidades múltiplas, como memória, raciocínio, interpretação visual e planejamento, indo além das habilidades de leitura e escrita, que são comuns nos modelos de linguagem.
E mais: a AGI se iguala ou supera a inteligência humana em uma ampla gama de tarefas. Ao contrário dos sistemas de IA especializados, ela seria capaz de compreender, aprender e raciocinar em qualquer contexto, assim como os humanos. Ela não se destacaria apenas em tarefas específicas, mas poderia se adaptar dinamicamente, com base em novos cenários e desafios.
Os modelos de linguagem, por sua vez, dependem inteiramente do reconhecimento de padrões e de previsões estatísticas, o que significa que sua inteligência é uma ilusão, e não um processo cognitivo genuíno. A reportagem do site Futurism é ainda mais enfática sobre o tema e defende que, embora a IA baseada em texto possa imitar o comportamento criativo, sua capacidade criativa real é limitada ao nível de um ser humano médio. De acordo com a publicação, esse tipo de IA nunca poderá atingir os padrões profissionais ou de especialista considerando os princípios de desenvolvimento atuais.
