Pular para o conteúdo

Por que o aumento das redes neurais muda seu comportamento: físico compara IA com leis de sistemas complexos

Homem explicando diagrama químico desenhado em quadro branco, com notebook e livro em mesa ao lado.

Redes neurais ganham novas propriedades com a especialização dos nós, enquanto nos sistemas físicos a informação permanece redundante

A formulação “Mais é diferente”, proposta pelo físico Philip Anderson em 1972, sustenta que as propriedades de sistemas complexos não podem ser deduzidas de forma direta das leis que descrevem seus componentes elementares. Em um novo estudo, o professor Ido Kanter, da Universidade Bar-Ilan, em Israel, examinou como essa ideia aparece nos sistemas modernos de inteligência artificial e os comparou com sistemas físicos.

A pesquisa analisa o comportamento de modelos de redes neurais sob a ótica da teoria da informação. No centro do estudo estão os elementos internos do modelo, chamados de nós, e a contribuição deles para a execução da tarefa geral. Kanter compara de que maneira a informação se distribui nesses sistemas à medida que eles aumentam de escala.

O trabalho mostra que, conforme a rede neural aprende, seus nós deixam de desempenhar funções idênticas e passam a se “especializar”. Alguns nós se concentram em reconhecer padrões específicos ou traços linguísticos. Essa especialização leva à divisão de funções dentro do sistema e à formação de certo grau de cooperação entre os elementos.

Segundo Kanter, “até mesmo um único nó dentro de um modelo de linguagem pode conter informação relevante sobre a tarefa, mas, quando os nós trabalham em conjunto, suas capacidades superam a soma das contribuições individuais”. Ele descreve esse comportamento como uma manifestação de emergência - o surgimento de novas propriedades do sistema pela interação entre suas partes -, em linha com o princípio de que “mais é diferente”.

Na física, de acordo com os resultados do estudo, o quadro é outro. Em muitos sistemas físicos, os componentes individuais carregam a mesma informação sobre o estado do sistema que o conjunto de componentes. A adição de novos elementos não amplia a quantidade de informação sobre o sistema, algo que Kanter resume como “mais é o mesmo”.

O autor também relaciona esses achados à neurobiologia. Com base em dados experimentais sobre o aprendizado dendrítico - mecanismo de processamento de sinais nos neurônios -, ele sugere que o cérebro biológico pode empregar elementos mais especializados e mais ricos em informação do que se supõe. O estudo conclui que a eficiência dos sistemas de inteligência artificial não depende apenas da escala, mas também da capacidade de seus componentes internos de se especializar e interagir. Essa abordagem permite descrever quantitativamente a diferença entre sistemas físicos e artificiais e refinar o papel das propriedades emergentes na formação da inteligência.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário