Redes neurais artificiais são mais parecidas com o cérebro do que parecem ser

Embora ainda não tenhamos aprendido muito sobre como a mente funciona, estamos no meio (ou talvez ainda no começo) de uma era de criação de nossa própria versão do cérebro humano. Após décadas de pesquisa e desenvolvimento, os pesquisadores conseguiram criar redes neurais profundas (RNP) (em inglês deep neural network), que às vezes combinam ou superam o desempenho humano em tarefas específicas.

Mas, um dos temas recorrentes nas discussões sobre inteligência artificial é se as redes neurais artificiais usadas na aprendizagem profunda (deep learning) funcionam de maneira semelhante às redes neurais biológicas de nossos cérebros. Muitos cientistas concordam que as redes neurais artificiais são uma imitação muito grosseira da estrutura do cérebro, e alguns acreditam que as RNPs são mecanismos de inferência estatística que não refletem as muitas funções do cérebro. O cérebro, eles acreditam, contém muitas maravilhas que vão além da mera conexão de neurônios biológicos.

Um artigo publicado recentemente na revista Neuron, revisada por pares, desafia a visão convencional das funções do cérebro humano. Intitulado “Direct Fit to Nature: An Evolutionary Perspective on Biological and Artificial Neural Networks” , o artigo discute que, ao contrário das crenças de muitos cientistas, o cérebro humano é um processador de big data de força bruta que ajusta seus parâmetros aos muitos exemplos que experimenta. Esse é o tipo de descrição geralmente dado a redes neurais profundas.

De autoria de pesquisadores da Universidade de Princeton, o artigo instigante fornece uma perspectiva diferente sobre redes neurais, analogias entre RNPs e suas contrapartes biológicas e orientações futuras para a criação de sistemas de inteligência artificial mais capazes.

Os neurocientistas geralmente acreditam que as complexas funcionalidades do cérebro podem ser divididas em modelos simples e interpretáveis.

As redes neurais artificiais, no entanto, são frequentemente consideradas como caixas-pretas ininterpretáveis. Elas não fornecem explicações valiosas sobre seu processo de decisão. Isso é especialmente verdade quando se trata de redes neurais profundas complexas, compostas por centenas (ou milhares de camadas) e milhões (ou bilhões) ou parâmetros.

Durante a fase de treinamento, as redes neurais profundas revisam milhões de imagens e seus rótulos associados e, em seguida, ajustam seus milhões de parâmetros aos padrões que extraem dessas imagens. Esses parâmetros ajustados permitem determinar a qual classe uma nova imagem pertence.

Os autores de “Direct Fit to Nature” reconhecem que as redes neurais - biológicas e artificiais - podem diferir consideravelmente em sua arquitetura de circuitos, regras de aprendizado e funções objetivas.

“Todas as redes, no entanto, usam um processo de otimização iterativo para perseguir um objetivo, dada sua entrada ou ambiente - um processo que chamamos de 'ajuste direto'”, escrevem os pesquisadores. O termo “ajuste direto” é inspirado no processo de encaixe cego observado na evolução, um processo de otimização elegante, mas irracional, em que diferentes organismos se adaptam ao ambiente por meio de uma série de transformações genéticas aleatórias realizadas por um período muito longo.

"Essa estrutura enfraquece as suposições das abordagens experimentais tradicionais e faz contato inesperado com debates de longa data na psicologia ecológica e do desenvolvimento", escrevem os autores.

Outro problema que a comunidade de inteligência artificial enfrenta é a troca entre interpretabilidade e generalização. Cientistas e pesquisadores estão constantemente procurando novas técnicas e estruturas que possam generalizar os recursos de IA em domínios mais vastos. E a experiência mostrou que, quando se trata de redes neurais artificiais, a escala melhora a generalização. Os avanços no processamento de hardware e a disponibilidade de grandes recursos de computação permitiram que os pesquisadores criassem e treinassem redes neurais muito grandes em prazos razoáveis. E essas redes provaram ser notavelmente melhores na execução de tarefas complexas, como a visão computacional e o processamento de linguagem natural.

O problema das redes neurais artificiais, no entanto, é que quanto maiores elas ficam, mais opacas elas se tornam. Com sua lógica espalhada por milhões de parâmetros, eles se tornam muito mais difíceis de interpretar do que um simples modelo de regressão que atribui um único coeficiente a cada recurso. Simplificar a estrutura das redes neurais artificiais (por exemplo, reduzir o número de camadas ou variáveis) facilitará a interpretação de como eles mapeiam diferentes recursos de entrada para seus resultados. Mas modelos mais simples também são menos capazes de lidar com os dados complexos e confusos encontrados na natureza.

A evolução por seleção natural é um processo de otimização irracional pelo qual os organismos são adaptados por muitas gerações de acordo com as restrições ambientais (ou seja, um nicho ecológico). Esta versão artística da árvore filogenética destaca como todos os organismos vivos na Terra podem ser rastreados até os mesmos organismos ancestrais. Humanos e outros mamíferos descendem de mamíferos parecidos com musaranhos que viveram mais de 150 milhões de anos atrás; mamíferos, pássaros, répteis, anfíbios e peixes compartilham um ancestral comum - vermes aquáticos que viveram 600 milhões de anos atrás; e todas as plantas e animais derivam de microrganismos semelhantes a bactérias que se originaram mais de 3 bilhões de anos atrás.

 

"Argumentamos que a computação neural é baseada no ajuste direto de força bruta, que se baseia em algoritmos de otimização super parametrizados para aumentar o poder preditivo (generalização) sem modelar explicitamente a estrutura gerativa subjacente do mundo", escrevem os autores de "Direct Fit to Nature".