sexta-feira, 8 de junho de 2012

Alquimia Digital

Este artigo foi originalmente publicado na Revista Horizontes da Sociedade Brasileira de Computação, edição de abril de 2012. Link para o artigo.




ALQUIMIA DIGITAL  

 

Cristina Duarte Murta

Resumo: Este artigo defende, baseando-se em avanços recentes da neurociência, que não é possível criar inteligência em um objeto não vivo, como o computador. Frente às novas descobertas, a tarefa de criar inteligência artificial parece se tornar ainda mais difícil.

A história da ciência reserva um capítulo especial à alquimia, cujos objetivos incluíram encontrar a pedra filosofal, que seria capaz de transformar metais não nobres, tais como o chumbo, em ouro. Séculos de tentativas resultaram em fracasso, mas produziram uma das ciências mais fascinantes e bem estabelecidas, a química. A produção sintética de ouro foi obtida posteriormente em reatores nucleares, em quantidades atômicas, a um custo muito superior ao seu valor comercial. Assim, esse objetivo alquímico não foi alcançado pois o ouro não foi produzido em quantidade e custo desejados. Os estudos em química continuam vigorosos, mas alquimia não é uma disciplina do currículo.
 
A comparação da promessa de inteligência artificial (IA) à alquimia foi feita pelo filósofo americano Hubert Dreyfus, professor da Universidade da Califórnia em Berkeley, em um artigo publicado em 1965 [1]. Neste artigo e em várias obras nas décadas seguintes, Dreyfus rejeita a possibilidade de um computador digital ser programado para exibir comportamento similar à inteligência humana [2,3]. Segundo ele, desenvolvimentos significativos em inteligência artificial devem aguardar a construção de computadores de um tipo completamente diferente.

A possibilidade da IA foi também rejeitada pelo cientista da computação Peter Naur, premiado com o ACM Turing Award em 2005. Naur estudou, durante mais de cinquenta anos, as relações entre a computação e o pensamento humano. Seu discurso de recepção do prêmio foi publicado em um artigo, no qual ele faz uma revisão de seu trabalho [4]. Naur inicia o artigo apontando a ironia de receber o prêmio Turing rejeitando as ideias de Alan Turing. Naur entende que a computação é uma ferramenta para descrição de algoritmos e programas, muito útil para representar uma grande variedade de fenômenos, mas o pensamento humano não está incluído. O pensamento é devido à plasticidade dos elementos do sistema nervoso, que não é encontrada em computadores. Para representar o pensamento humano é necessário ter uma forma material completamente diferente, não digital. Em grande medida, suas conclusões são similares às de Dreyfus.

Desde seus primórdios, o conceito referencial de inteligência para a IA é a inteligência humana, como explica John McCarthy, professor da Universidade Stanford, a quem é atribuída a criação do termo [5]. A inteligência humana caracteriza-se pela capacidade de compreender, abstrair, raciocinar, planejar, solucionar problemas, usar a linguagem, aprender e esclarecer-se. Ser inteligente é surpreender, é receber e responder ao novo [6]. Trata-se de razão e entendimento, capacidades que não existem nos computadores digitais, e também de emoção e sentimento, conforme apontam os estudos mais avançados em neurociências [7, 8, 9].

Há quem concorde que é impossível programar comportamentos inteligentes nos computadores e, ainda assim, defenda o uso da expressão “inteligência artificial” como mera estratégia de marketing científico. Afinal, a ideia tem grande apelo e vende bem. Para esses pesquisadores, o uso do termo é apenas e tão somente marketing, embora concordem que abandonar o rótulo faria mais bem à ciência e à sociedade do que mantê-lo. Mas a ciência não faz concessões quanto a sua principal premissa, a verdade. Para ter esse nome, a IA deve fazer exatamente o que promete: criar inteligência artificial, não arremedos, imitações ou simulações de inteligência.

Para demonstrar que os computadores são máquinas de processamento sintático e que não são capazes de compreender, John Searle propôs o chamado argumento do quarto chinês [10]. Esse argumento consiste em um experimento no qual uma pessoa que entende somente inglês é colocada em um quarto contendo cestas repletas de símbolos do idioma chinês. Há também nesse quarto um livro em inglês que explica como juntar os símbolos chineses com base em seu desenho. Pessoas fora do quarto enviam mensagens ao quarto em chinês. A pessoa que está no quarto consulta o livro de regras para saber o que fazer com os rabiscos recebidos e devolve outros símbolos em chinês. Quem está fora do quarto será capaz de dizer que o sistema que recebe as entradas e emite respostas entende chinês, o que não é verdade. A pessoa que está no quarto representa o computador, o livro de regras representa o programa e os símbolos recebidos e emitidos são a entrada e a saída.

Esse argumento demonstra que o computador é uma máquina de manipulação simbólica, que manipula símbolos de acordo com regras de programação. Os símbolos são puramente formais ou sintáticos e sem significado para o sistema computacional. Quando fazemos um teste, por exemplo, 4 < 5, pensamos na noção material de quantidade, quatro objetos e cinco objetos, enquanto o computador inspeciona os bits codificados para os caracteres 4 e 5. Esta inspeção de bits serve para dirigir o fluxo de execução, criando um desvio de uma linha de execução a outra.

Os programas são estruturas sintáticas e o sistema computacional é uma máquina de processamento sintático. Nessa máquina não existe computação semântica. Toda a computação dita semântica é feita com linguagens de marcação que são puramente sintáticas. A semântica dos símbolos está em nós, em nossa interpretação da informação, não no sistema. Por isso, ironicamente, o ser humano é reconhecido como “a aplicação essencial” (the killer application), pois é quem é capaz de oferecer a semântica que o sistema não tem. Como escreveu John Searle, não é fato que estamos no caminho para a computação semântica, o fato é que este jogo nem está sendo jogado [10]. Vencedor em um programa de perguntas na TV americana, o computador Watson é um exemplo contundente da ausência de contexto: jogou sem querer, ganhou sem saber.

Uma análise da literatura da área de IA revela uma série de armadilhas verbais e interpretações abusivas que iludem o leitor desatento. Em geral, as definições de IA são agrupadas em duas categorias: capacidade de pensar e capacidade de agir [11]. No entanto, um computador não pensa nem age. Para pensar e agir é preciso existir. Penso, logo existo, escreveu Descartes [12]. Existo, logo penso, corrigiu Damásio [7]. Nos dois casos há inequívoca associação entre a existência do ser vivente e o pensamento. Mas o computador não é um ser vivo, embora alguns pesquisadores defendam o contrário. Agir é um comportamento ativo, é tomar providências, atuar. Para isso é necessário raciocinar e decidir, coisas que o computador não faz [7,8,9].

Um sistema computacional não percebe, não toma decisões, não resolve problemas, nem aprende. Um computador não pode perceber um ambiente, pois ele não tem sentidos. Acoplado de sensores, ele pode fazer medições físicas em um ambiente, mas ele não é capaz de perceber um ambiente tal como nós o percebemos. Uma aeronave, por exemplo, é equipada com milhares de sensores, mas os engenheiros aeronáuticos não concordariam em dizer que a aeronave percebe o espaço em que voa.

Um computador não toma decisões. Ao fazer um comando de teste, o computador inspeciona bits que indicam o caminho de execução a seguir. Podemos, opcionalmente, entender que o sistema, ao executar um comando de teste, está avaliando para tomar decisão. Porém, essa é uma interpretação fantasiosa.

Um computador não aprende. Ele pode acumular informações em formatos binários, por exemplo, inserindo informações em uma estrutura de dados, tal como insere uma linha em um banco de dados. Entender que isso é aprendizado trata-se, de fato, de uma interpretação nossa, e não de um aprendizado real, um processo cognitivo. O aprendizado humano concretiza-se por modificações cerebrais de tal forma que grande parte da composição do cérebro humano é individual e única e reflete a história e as circunstâncias de vida de cada indivíduo [7].

Um computador não resolve problemas, ele é programado para resolvê-los. Cada programa contém instruções com a solução programada. Esses exemplos mostram, novamente, que a semântica é por conta dos humanos. A inteligência está em idealizar, arquitetar e construir os sistemas e não no sistema produzido. Ao construir sistemas, não atribuímos a eles nenhuma inteligência, nem produzimos inteligência nos sistemas. Projetar e construir um produto ou sistema bem elaborado, engenhoso e eficaz é uma ação inteligente, mas não transfere inteligência para o produto [6].

É possível simular a inteligência humana? É claro que em fantasia podemos simular tudo que quisermos nos sistemas computacionais. Os jogos demonstram essa possibilidade. A imaginação é o limite. Usando um computador, podemos ser reis, heróis, bandidos, leões, deuses, podemos governar o mundo, voar, viajar pelo espaço, criar novos mundos e novos seres, construir o que quisermos, do jeito que bem entendermos. Um único pixel piscando na tela pode nos parecer uma estrela longínqua, um coração batendo, ou um farol numa noite escura no mar. A sensibilidade das pessoas a estas representações é bastante variável. Há desde os que são completamente capturados por sua própria imaginação, confundindo-a com a realidade, até aqueles que não vêem nada mais do que um pixel e ficam esperando uma informação adicional para saber como interpretá-lo.

A simulação é uma ferramenta poderosa. Seu uso nas ciências e nas tecnologias é amplo e disseminado, e requer critérios. Simulação é o exercício de uso de um modelo. Para simular a inteligência é preciso ter um modelo de inteligência. Além disso, os modelos usados em simulação devem ser validados e verificados. Validação e verificação são processos muito bem definidos na teoria de simulação e precisam ser rigorosamente discutidos em trabalhos científicos.

Suponha que precisemos de um modelo que simula um ser vivo. Consideremos então um boneco. Suponha que esse boneco seja articulado, isto é, podemos mexer seus braços, suas pernas, sua cabeça. É suficiente para simular a vida? Suponha então que, além de ser articulado, ele pisca os olhos, fala e caminha. É o suficiente? Podemos dizer que ele simula um ser vivo? E se, além de tudo isso, ele come e salta? Se isso fosse suficiente, os laboratórios de biologia e medicina fariam experimentos em bonecos. Embora todas estas disposições implantadas no boneco imitem sinais visíveis normalmente associados à vida, falta o essencial neste modelo: falta a própria vida. Não é possível simular vida: ou temos vida de verdade ou não temos. O mesmo argumento pode ser aplicado à inteligência. Simular várias interpretações da inteligência, tal como o aprendizado, mesmo com rigor científico, não é o suficiente para conferir o rótulo de inteligente.

Poderíamos concluir que a questão “se um sistema é ou não inteligente” é uma questão de interpretação, o que é um ótimo argumento para explicar os decênios de polêmica em torno da IA. Fica a seu critério. Mas isso não é suficiente para a ciência. O discurso da inteligência artificial não pode valer somente para os cientistas da computação, é preciso ter aceitação universal. Explico: as leis da física são universais, valem para todos e não apenas para os físicos. Da mesma forma, as teorias morais e éticas buscam fundamentos universais, e não é o caso de terem como alvo somente os filósofos. Os princípios da medicina são reconhecidos pelos médicos e por todos nós. Precisamos entendê-los e concordar com eles para que sejam válidos universalmente.

A questão do consenso é essencial. No entanto, parece ser o caso de que poucos cientistas de outras áreas estejam dispostos a acreditar na possibilidade da inteligência artificial. Dificilmente um médico, um biólogo, um neurocientista ou um filósofo concordarão, após algum estudo, que o computador pode simular inteligência. Por exemplo, o neurocientista Miguel Nicolelis, profundo conhecedor do cérebro e dos computadores e autor de estudos pioneiros na área de interfaces cérebro-máquina [8], declarou reiteradas vezes que "o cérebro humano não é computável, não dá para simulá-lo com um algoritmo” [13].

A premissa implícita da IA é o dualismo mente corpo, que isola a inteligência humana na razão, ignorando os aspectos biológicos e emocionais do cérebro. Considerado por milênios, esse modelo não é mais aceito por muitos neurocientistas, médicos e filósofos. Potter nos convida a frequentar as aulas de neurociência e indica a bibliografia [9]. Damásio ensina que há uma relação indissociável entre emoção e razão e que as emoções não são barreiras para a tomada de decisão, pelo contrário, são componentes cruciais nesse processo [7]. Para ele, é impossível isolar sentimentos e emoções das decisões racionais. Os fenômenos mentais, incluindo a inteligência, têm bases biológicas e neurológicas que não podem ser desprezadas ou ignoradas, sem o risco de produzir abstrações caricatas e fantasiosas.

Assim como os desafios da alquimia aceleraram o desenvolvimento da química, os estudos em IA contribuem enormemente para a computação e para o desenvolvimento tecnológico. O resultado de tanta tecnologia é que somos desafiados o tempo todo. Muitos concordam que a tecnologia aumenta a nossa inteligência na medida em que nos desafia. Algoritmos não tornam inteligentes os computadores, mas podem contribuir para aumentar a inteligência humana. Em última análise, a IA resulta em inteligência, mas natural, não artificial.

Referências

[1] Dreyfus, H. Alchemy and Artificial Intelligence, Rand Corporation, 1965.
[2] Dreyfus, H. What Computers Can't Do: The Limits of Artificial Intelligence, Harper Colophon Books, 1979.
[3] Dreyfus, H. What Computers Still Can't Do: A Critique of Artificial Reason, MIT Press, 1992.
[4] Naur, P. Computing versus Human Thinking, Communications ACM, 50(1), January 2007.
[5] McCarthy, J. What is Artificial Intelligence?, http://www-formal.stanford.edu/jmc/whatisai.
[6] Murta, C. Não Existe Sistema Inteligente. Jornal da Ciência, edição 4313, http://bit.ly/oVTiav.
[7] Damásio, A. O Erro de Descartes, Companhia das Letras, 2a. edição, 2005.
[8] Nicolelis, M. Muito Além do Nosso Eu, Companhia das Letras, 2011.
[9] Potter, S. What Can AI Get from Neuroscience? LNAI 4850, Springer-Verlag, 2007.
[10] Searle, J. Is Brain's Mind a Computer Program? Scientific American, January 1990.
[11] Russell, S., Norvig, P. Artificial Intelligence: A Modern Approach, 3rd. Ed., Prentice-Hall, 2010.
[12] Descartes, R. Discurso do Método e Meditações, Martin Claret, 2008.
[13] Lopes, R. Máquina não simulará mente, diz cientista. Folha de São Paulo, http://bit.ly/iR0z3l.

Nenhum comentário:

Postar um comentário