Tuesday, June 12, 2007

Histórico da Inteligência Artificial

A Inteligência Artificial (IA) não é recente, sua história inicia nos idos dos anos 40, onde havia alguma pesquisa em torno de seqüências de estratégia e análise do funcionamento do cérebro com objetivos de formalização de seu comportamento. Estes dois ramos de pesquisa eram dissociados entre si, sem nenhuma preocupação com a construção de uma Inteligência Artificial. Buscavam-se, apenas, novas alternativas de utilização do computador, ainda em projeto.
Mas, com o passar dos anos, foram sendo distinguidas duas linhas de pesquisa: uma biológica, calcada em torno do funcionamento do cérebro e dos neurônios; e outra, fruto do estudo da cognição, do raciocínio.

Anos 40

Segunda guerra mundial. Há a necessidade do avanço tecnológico para fornecer mais instrumentos para o combate bélico. O dinheiro de pesquisas científicas está à disposição dos cientistas que se preocupem em desenvolver mecanismos para a morte em massa, de modo a fazer com que a guerra seja ganha pelo poder tecnológico. A maior arma idealizada na época (que matava mais gente em menos tempo) era a bomba atômica, mas para seu desenvolvimento seria necessária uma quantidade gigantesca de cálculos, os quais deveriam ser precisos. Neste contexto, e para que fosse possível o cálculo da bomba atômica, foi desenvolvido o computador. Como diz seu nome, uma máquina de fazer cômputos (cálculos).
Mas não somente para cálculos, o computador foi utilizado também em outros recursos voltados à morte: o planejamento de ações estratégicas de exércitos. Simulações do avanço de tropas era possível informando-se as variáveis envolvidas na ação, permitindo assim a elaboração automática de diversas hipóteses de estratégias. Tal como um jogo de guerra, combinações de possibilidades eram simuladas. Foi então o início dos jogos por computador, utilizados também para situações mais reais além de jogos de dama e xadrez... Eis aí o início da inteligência artificial tradicional, baseada em regras.
Por outro lado, havia outro ramo de pesquisas interessado na realização da representação das células nervosas do ser humano no computador, uma vez que o cérebro é formado de neurônios e é ele que realiza o processamento das informações do corpo.
Esta linha de pesquisas motivou o desenvolvimento de uma formalização matemática para o neurônio, estabelecendo o neurônio formal. Esta formalização permitiu a realização de diversas concepções matemática sobre a forma de aprendizado dos neurônios, ou seja, como os neurônios armazenam informações. Isso derivou na década seguinte em modelos de redes de neurônios artificiais.

Anos 50

Nesta década iniciou-se o estudo, na linha de pesquisa psicológica, da utilização da lógica de estratégia para finalidades matemáticas, como a prova de teoremas. Iniciou-se também a modelagem através de regras de produção, regras estas baseadas na lógica de predicados.
A introdução da programação através de comandos de lógica de predicados proporcionou um grande avanço para a programação de sistemas que utilizassem esquemas de raciocínio. Daí foi possível o aperfeiçoamento do que já existia: jogos, aplicações matemática e simuladores. E o avanço foi tanto que nos anos 60 houve uma euforia diante do potencial tecnológico vislumbrado.
Mas, passando à história da linha biológica, esta década foi de grande sucesso dada a implementação do primeiro simulador de redes neurais artificiais e do primeiro neurocomputador. A partir do modelo matemático de MacCulloc e Pitts (1943) e da teoria de aprendizado de Donald Hebb (1949), foi possível nesta década a união desses conhecimentos no modelo de rede neural artificial chamado Perceptron.

Anos 60

Na linha biológica, prosseguiram os desenvolvimentos de conceitos relativos às redes neurais artificiais com o aprimoramento do modelo Perceptron e o surgimento de uma variante, o Adaline. Ambos utilizavam as mesmas idéias de rede, porém a lógica de aprendizado os diferenciava.
Para a linha psicológica esta década foi à descoberta da Inteligência Artificial. Utopicamente, os pesquisadores desta linha acreditavam ser possível realizar tarefas humanas, tais como o pensamento e a compreensão da linguagem, através do computador. Realmente acreditava-se ser possível a reprodução pura e simplesmente do raciocínio humano no computador.
Neste sentido, foi tentada a interpretação da linguagem no computador, tal como compreendida pelo ser humano. No ímpeto da racionalização imposta pelo desenvolvimento de suas pesquisas, acreditaram que apenas através do raciocínio seria possível a interpretação da linguagem. Obviamente a linguagem humana não é fruto apenas da razão, mas de todo o aparato sensorial e lógico do ser humano.
Por outro lado, em 1969, Marvin Minsky e Sigmour Papert publicaram um livro denominado Perceptrons, o qual destinava-se a ridicularizar as pesquisas em torno das redes neurais artificiais. Os autores sustentavam a hipótese de que os modelos apresentados não tinham sustentação matemática para terem credibilidade. Tiveram êxito na sua empreitada, levando ao ostracismo os pesquisadores da linha biológica.

Anos 70

Para a linha biológica, esta foi uma década negra. Apesar disso, houve pesquisadores que, por outros caminhos, chegaram a novas concepções de redes neurais artificiais. Estas concepções analisavam o aprendizado de informações como sendo fruto de uma união das potencialidades de redes de neurônios interagindo entre si. Nasciam as redes neurais representadas na forma de mapas cerebrais, onde não havia o aprendizado de um neurônio, mas de toda uma rede, através do compartilhamento de recursos.
Já na linha psicológica, estudos mais aprofundados demonstraram o óbvio: que não seria possível a representação numa máquina dos estados mentais humanos responsáveis pelo pensamento. Ao menos naquele estado da tecnologia.
A saída para esta linha de desenvolvimento era dada por uma empresa: a Rand Corporation. Foi de sua equipe de pesquisa que partiram os sistemas especialistas, os quais foram responsáveis pela ampliação da Inteligência Artificial Tradicional.

Anos 80

As redes neurais artificiais tiveram seu reconhecimento recuperado através do físico John Hopfield, que em 1982 provou ser possível a simulação de um sistema físico através de um modelo matemático baseado na teoria das redes neurais.
Assim, em 1986, uma equipe de especialistas das mais diversas áreas reuniu-se para validar as pesquisas em torno das redes neurais, possibilitando a volta da pesquisa nesta linha. Uma das formas de recuperação do prestígio das redes neurais foi à proposta de um modelo, chamado Backpropagation, que ampliava o potencial do Perceptron de modo a permitir a superação das limitações do modelo primitivo.
Enquanto isso, na IA Tradicional, ampliavam-se as técnicas e aplicações dos sistemas especialistas. Além disso, houve o interesse de trabalho conjunto com outras áreas, tais como interfaces inteligentes, sistemas de apoio à decisão, controle de robôs, etc.

Anos 90

Nesta década, as redes neurais tiveram uma explosão exponencial de aplicações e desenvolvimento de modelos. São centenas de propostas de novos ou aperfeiçoamento de modelos a cada ano, tal o interesse pela área. A partir daí, consolidam-se as redes neurais como parte integrante do estudo da Inteligência Artificial propriamente dita.
Reconhece-se, também, que os paradigmas biológico e psicológico são complementares e necessários para sistemas mais evoluídos. Desta forma, começam nesta década a serem construídos os chamados Sistemas Híbridos. Estes sistemas são a união das concepções das duas linhas de pesquisa, permitindo a construção de grandes sistemas que pretendem abranger uma forma mais completa de representação do comportamento humano. Ideal este da própria Inteligência Artificial.

No comments: