Opinião: Modelos de IA são “Criaturas” Misteriosas, e Até Mesmo Seus Criadores Não os Compreendem Totalmente

Image generated with OpenAI

Opinião: Modelos de IA são “Criaturas” Misteriosas, e Até Mesmo Seus Criadores Não os Compreendem Totalmente

Tempo de leitura: 6 minuto

O recente estudo da Anthropic sobre como funciona seu modelo Claude 3.5 Haiku promete revelações inovadoras e um lampejo de compreensão sobre como funcionam as tecnologias avançadas de IA. Mas o que eles querem dizer quando afirmam que os LLMs são “organismos vivos” que “pensam”?

Alguns dias atrás, a Anthropic lançou dois artigos com pesquisas inovadoras sobre como os Large Language Models (LLMs) funcionam. Enquanto os desenvolvimentos técnicos eram interessantes e relevantes, o que mais chamou minha atenção foi o vocabulário usado pelos especialistas em IA.

No estudo Sobre a Biologia de um Grande Modelo de Linguagem, os pesquisadores se compararam a biólogos que estudam complexos “organismos vivos” que evoluíram ao longo de bilhões de anos.

“Da mesma forma, embora os modelos de linguagem sejam gerados por algoritmos de treinamento simples e projetados pelo homem, os mecanismos nascidos desses algoritmos parecem ser bastante complexos,” escreveram os cientistas.

Nos últimos anos, os modelos de IA evoluíram significativamente. E temos presenciado sua rápida evolução nos últimos meses. Vimos o ChatGPT passar de um modelo apenas de texto para um companheiro falante, e agora para um agente multidimensional que também pode gerar impressionantes imagens ao estilo Studio Ghibli.

Mas, e se os modelos de IA atuais estiverem alcançando aquele nível de ficção científica de desenvolver um raciocínio tão avançado que nem mesmo seus criadores podem entender seus processos e sistemas? Existem vários mistérios em torno das tecnologias de IA que podem ser relevantes para revisitar – ou mergulhar – em 2025.

O Paradoxo Assustador da Caixa-Preta dos Modelos de IA

Existem várias discussões sobre a adoção de IA e a alfabetização em IA, e como aqueles que entendem como os modelos gerativos de IA funcionam são menos propensos a considerar chatbots como seus “amigos” ou aplicativos “mágicos”. No entanto, há outro debate – entre especialistas e pessoas mais familiarizadas com a tecnologia – sobre se devemos comparar ou considerar os LLMs como criações independentes. Quanto a este último, existe um ingrediente especial, um mistério conhecido como “o paradoxo da caixa preta da IA”, que desempenha um papel crucial na discussão.

Os sistemas de aprendizado profundo são treinados para reconhecer elementos e tendências de maneira semelhante aos humanos. Assim como ensinamos as crianças a reconhecer padrões e atribuir palavras específicas a diferentes objetos, os LLMs foram treinados para fazer conexões únicas e construir redes que se tornam cada vez mais complexas à medida que “crescem”.

Samir Rawashdeh, Professor Associado de Engenharia Elétrica e de Computação, é especialista em inteligência artificial e explica que, assim como acontece quando estudamos a inteligência humana, é quase impossível ver realmente como os sistemas de aprendizado profundo tomam decisões e chegam a conclusões. Isso é o que os especialistas chamam de “problema da caixa preta”.

Modelos de IA Desafiam a Compreensão Humana

O estudo recente da Anthropic jogou luz sobre a situação da caixa preta da IA, explicando como seu modelo “pensa” em certos cenários que eram anteriormente nebulosos ou até mesmo completamente errados. Mesmo que o estudo seja baseado no modelo Claude 3.5 Haiku, ele permite que os especialistas desenvolvam ferramentas e analisem características semelhantes em outros modelos de IA.

“Entender a natureza dessa inteligência é um profundo desafio científico, que tem o potencial de remodelar nossa concepção do que significa ‘pensar'”, afirma o artigo compartilhado pelos pesquisadores da Anthropic.

No entanto, o termo “pensar”, atribuído às tecnologias de IA, irrita certos especialistas no campo e faz parte das críticas à investigação. Um usuário do Reddit explicou por que isso incomoda um grupo de pessoas: “Há muita antropomorfização ao longo do artigo que ofusca o trabalho. Por exemplo, continua usando a palavra ‘pensar’ quando deveria dizer ‘computar’. Estamos falando sobre software de computador, não um cérebro biológico.”

Embora os termos “humanizados” ajudem as pessoas não técnicas a entender melhor os modelos de IA e gerem debate na comunidade, a verdade é que, seja dizendo “computar” ou “pensar”, o mesmo desafio permanece: não temos uma compreensão completa ou transparência total sobre como os LLMs operam.

O Que Esperar dos Modelos Avançados de IA no Futuro Próximo

Você consegue imaginar ignorando a existência de tecnologias avançadas de IA como ChatGPT, DeepSeek, Perplexity ou Claude – agora ou no futuro próximo? Todos os sinais apontam para o fato de que não há volta. IA gerativa e de raciocínio já transformaram nosso dia a dia, e só continuarão a evoluir.

Quase todos os dias na WizCase relatamos um novo desenvolvimento na indústria – um novo modelo de IA, uma nova ferramenta de IA, uma nova empresa de IA – que tem o potencial de causar um grande impacto em nossa sociedade. A ideia de fazer uma pausa para primeiro obter uma melhor compreensão desses modelos avançados e como eles operam – ou até mesmo desacelerar um pouco – parece impossível, dada a rápida velocidade da corrida da IA e o envolvimento de governos e das empresas mais poderosas do mundo.

“Os modelos de IA exercem uma influência crescente em como vivemos e trabalhamos, precisamos entendê-los bem o suficiente para garantir que seu impacto seja positivo”, afirma o paper da Anthropic. Mesmo que pareça um pouco irreal, os pesquisadores permanecem positivos: “Acreditamos que nossos resultados aqui, e a trajetória de progresso em que eles se baseiam, são evidências animadoras de que podemos enfrentar esse desafio.”

Mas quão rápido essas descobertas podem realmente avançar? O artigo também observa que os resultados cobrem apenas algumas áreas e casos específicos, e que não é possível construir conclusões mais gerais. Portanto, provavelmente não rápido o suficiente.

Enquanto os reguladores introduzem medidas como a Lei da IA da UE, exigindo mais transparência, atraindo acusações e reclamações de grandes empresas de tecnologia por supostamente desacelerar o progresso, modelos poderosos de IA continuam a avançar.

Como sociedade, devemos nos esforçar para encontrar um equilíbrio entre aprofundar nosso entendimento de como essas tecnologias funcionam e adotá-las de maneiras que tragam benefícios significativos e progresso para nossas comunidades. Isso é possível? A ideia de apenas rezar ou esperar que essas “criaturas” permaneçam “éticas” e “boas” não parece tão absurda agora.

Gostou desse artigo? Avalie!
Eu detestei Eu não gostei Achei razoável Muito bom! Eu adorei!

Estamos muito felizes que tenha gostado do nosso trabalho!

Como um leitor importante, você se importaria de nos avaliar no Trustpilot? É rápido e significa muito para nós. Obrigado por ser incrível!

Avalie-nos no Trustpilot
0 Votado por 0 usuários
Título
Comentar
Obrigado por seu feedback
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Deixe um comentário

Loader
Loader Mostrar mais...