











Estude fácil! Tem muito documento disponível na Docsity
Ganhe pontos ajudando outros esrudantes ou compre um plano Premium
Prepare-se para as provas
Estude fácil! Tem muito documento disponível na Docsity
Prepare-se para as provas com trabalhos de outros alunos como você, aqui na Docsity
Os melhores documentos à venda: Trabalhos de alunos formados
Prepare-se com as videoaulas e exercícios resolvidos criados a partir da grade da sua Universidade
Responda perguntas de provas passadas e avalie sua preparação.
Ganhe pontos para baixar
Ganhe pontos ajudando outros esrudantes ou compre um plano Premium
Comunidade
Peça ajuda à comunidade e tire suas dúvidas relacionadas ao estudo
Descubra as melhores universidades em seu país de acordo com os usuários da Docsity
Guias grátis
Baixe gratuitamente nossos guias de estudo, métodos para diminuir a ansiedade, dicas de TCC preparadas pelos professores da Docsity
Neste documento, os autores exploram as contribuições de alan turing para a análise da capacidade de máquinas de falar, analisando argumentos de turing a favor da inteligência mecânica, como o problema da incompletude e a questão da aprendizagem de máquina. O texto também discute as objeções de turing à ideia de máquinas pensantes, como a objeção da memória limitada e a objeção ética. Além disso, os autores discutem a importância do teste de turing e sua continua relevância na discussão sobre sistemas computacionais inteligentes.
O que você vai aprender
Tipologia: Notas de estudo
1 / 19
Esta página não é visível na pré-visualização
Não perca as partes importantes!
Ronaldo Martins^1 Mírian dos Santos^2
La più bella e sanguinosa conquista della machina è l’uomo. (PITIGRILLI. Il dito nel ventilatore )
Celebra-se, neste ano de 2012, o centenário de nascimento de Alan Turing, matemático britânico que é por muitos considerado o pai das ciências da computação e, mais especificamente, da Inteligência Artificial. Em 1950, dois anos antes de ser condenado à castração química por ser homossexual, e quatro anos antes de seu suicídio, Turing fez publicar, na revista Mind , o influente ensaio "Computing Machinery and Intelligence", cujo objetivo primeiro, declarado já na sentença de abertura, era analisar se a máquinas pode(ria)m pensar. Nosso objetivo aqui será retirar, do texto de Turing, algumas contribuições para a análise de outra questão que, entendemos, especifica a interrogação original e revela-se hoje chave para que possamos entender o funcionamento da linguagem nesta nova realidade digital: podem as máquinas falar? No que se segue, repercorremos o trajeto argumentativo do texto original de Turing e, analisamos, com mais profundidade, dois de seus argumentos a favor da possibilidade de uma inteligência mecânica: o problema da incompletude e a questão da aprendizagem de máquina. Por fim, reafirmamos, com o autor, que não há nenhum impedimento formal ou material para que as máquinas possam vir a emular habilidades linguísticas humanas.
Podem as máquinas pensar? Para exorcizar os demônios que se escondiam e ainda se escondem na polissemia inevitável de cada uma das componentes da questão "podem as máquinas pensar?" — e cujo melhor estratagema é convencer-nos de que não existem — Turing propõe uma nova formulação para o problema:
(^1) Professor do Programa de Pós-Graduação em Ciências da Linguagem da Universidade do Vale do Sapucaí 2 – Univás. Professora do Programa de Pós-Graduação em Ciências da Linguagem da Universidade do Vale do Sapucaí – Univás.
A nova formulação do problema ['podem as máquinas pensar?'] pode ser descrita em termos de um jogo a que nós chamamos "jogo da imitação". É jogado por três pessoas: um homem (A), uma mulher (B) e um interrogador (C), que pode ser de qualquer dos sexos. O interrogador permanece num quarto, separado dos outros dois. O objetivo do jogo, para o interrogador, é determinar em relação aos outros dois, qual o homem e qual a mulher. É permitido ao interrogador fazer perguntas a A e B, tais como: Será que X poderia me dizer qual o comprimento de seu cabelo? [...] O objetivo do jogo para A é tentar induzir C a uma identificação errada. [...] O objetivo do jogo para a terceira jogadora (B) é ajudar o interrogador. Sua melhor estratégia será provavelmente dar respostas verdadeiras. Ela pode acrescentar frases como: "Eu sou a mulher, não escute a ele". Mas isso será inútil, porque o homem pode dar respostas semelhantes. Agora formulamos a questão: "O que acontecerá quando uma máquina ocupar o lugar de A nesse jogo?" Será que o interrogador decidirá erroneamente com a mesma frequência, quando o jogo é jogado dessa forma, do que quando o fazia ao tempo em que o jogo era jogado entre um homem e uma mulher? Estas questões substituem a pergunta original: "Podem as máquinas pensar?". (Turing, [1950], p. 50-51) O jogo da imitação — que ficaria conhecido como "Teste de Turing" — vem superar o risco da vagueza metateórica que indisputavelmente contaminaria a discussão acerca da possibilidade de existência de uma inteligência artificial. Na impossibilidade de definir estruturalmente a inteligência humana, não restaria ao pesquisador senão definir o que é um comportamento inteligente. E, se não se pudesse mais distinguir, do ponto de vista de seu desempenho, a máquina e o homem, caberia afirmar que ao homem e à máquina, ainda que a partir de estruturas muito diferentes, poderiam ser consignadas as mesmas categorias comportamentais, entre elas o adjetivo “inteligente”. O sucesso no Teste não significa, portanto, que homem funcionaria tal qual a máquina, ou que a máquina mimetizaria, ponto por ponto, os processos efetivamente verificáveis para os homens. A máquina seria tão-somente uma réplica (ou um modelo) que, como réplica, guardaria semelhanças de resultados, sem que se mantivesse qualquer compromisso com semelhanças de processos em relação ao original. No entanto, Turing identificava nove grandes objeções à sua postulação. Seriam elas argumentos clássicos que desautorizariam não apenas a possibilidade de uma inteligência extra-humana (ou extracerebral), mas mesmo a ideia e a validade do teste que o autor propunha. Reportamos brevemente cada uma dessas objeções e a correspondente resposta de Turing. A primeira, a objeção teológica, afirmaria, segundo ele, que o pensamento é uma função da alma humana imortal, dádiva de Deus. A objeção é descartada porque envolveria uma contradição: a impossibilidade de as máquinas pensarem implicaria uma séria restrição à onipotência do Todo-Poderoso.
aprender. Pela sua importância, também voltaremos a este argumento mais adiante, na quarta seção deste texto. A sétima objeção remete à continuidade do sistema nervoso: a máquina discreta seria incapaz de imitar o comportamento do cérebro humano (reconhecidamente contínuo). A refutação da objeção, especialmente se considerada a proposta de Putnam (1995), que afirma a independência do software sobre o hardware , pode ser considerada ingênua: Turing simplesmente anuncia a possibilidade de uma máquina não discreta (o analisador diferencial). A oitava objeção é o argumento da informalidade (imprevisibilidade) do comportamento humano. Na medida em que o comportamento da máquina é previsível, máquinas não poderiam ser confundidas com homens. A resposta de Turing se dá em duas direções: há leis de comportamento que, diferentemente de leis de conduta, são fortemente previsíveis (e constituem o objeto de estudo da Psicologia); e a previsibilidade do comportamento da máquina somente pode ser afirmada, em muitos casos, pelo seu próprio programador. Voltaremos também à questão da "imprevisibilidade" quando analisarmos, com mais detalhes, o teorema de Gödel, na terceira seção. A nona e última objeção expõe o argumento da percepção extrassensorial. Turing rejeita a desautorização sumária do argumento e postula sua pertinência, mas acredita que a interferência de fatores de ordem extrassensorial poderia ser controlada na experiência proposta. Como se pode perceber, a resposta final de Turing para a pergunta inicial é positiva: sim, as máquinas podem (vir a) pensar, porque não há objeções insuperáveis à reprodução artificial da inteligência humana. Essa hipótese, evidentemente, ainda não é pacífica. Mais de 50 anos após sua publicação, o Teste de Turing continua sendo objeto de intensa crítica, que tem hoje se concentrado em torno de três pontos principais: o fato de que o Teste não permite diferenciar entre "inteligência real" e "inteligência simulada", ou seja, entre "ser inteligente" e "parecer inteligente"^3 ; o fato de que os resultados do Teste possuem validade muito limitada, porque dependem também da
(^3) Este, que é talvez o mais forte argumento contra o Teste de Turing, foi exposto por John Searle (1980) por meio do célebre exemplo da câmara chinesa, em que um tradutor, dispondo de uma tábua de correspondências, traduzia um texto sem "entender" efetivamente seu conteúdo. Para Searle, os computadores poderiam pensar se, e somente se, tivessem uma "mente".
"inteligência" do interrogador, que é muito variável^4 ; e o fato de que o Teste não avalia efetivamente a "inteligência" de uma máquina, mas apenas sua capacidade de parecer humana^5. Observa-se, no entanto, que todas essas novas objeções reeditam o problema terminológico que, desde o início, Turing quis deliberadamente evitar ao propor a ideia de um "teste de imitação" para a avaliação da inteligência artificial. Queremos crer que a discussão poderia ser imediatamente interrompida se afirmássemos que o computador não tem nenhuma "mente" e não é efetivamente "inteligente", no sentido que estes termos podem alcançar no estudo da psicologia humana. Isso não impede, contudo, a constatação de que este computador – que não tem nenhuma "mente" e que não é "inteligente" – possa ser confundido, em um teste como o proposto, com alguém que está equipado com uma “mente” e a quem pode ser atribuído o adjetivo “inteligente”. E este, em última análise, é todo o objetivo: desenvolver máquinas que possam provocar este tipo de equívoco. Em que medida esta “inteligência computacional” seria ainda uma inteligência e em que medida esta “mente computacional” estaria relacionada aos estados mentais do homem, embora possam ser questões extremamente pertinentes para os que investigam a psicologia humana, são absolutamente irrelevantes do ponto de vista do desenvolvedor e do usuário de sistemas computacionais. O fato, porém, é que o Teste de Turing, mais de 50 anos após sua publicação, representa ainda o principal ponto de partida para a discussão e a avaliação de sistemas computacionais ditos "inteligentes", embora esses sistemas tenham abdicado, pelo menos por enquanto, da pretensão de uma inteligência mais geral, e venham se concentrando no desenvolvimento de máquinas que trabalham com objetivos muito mais modestos e específicos. À exceção do controvertido prêmio Loebner, que premia anualmente o melhor sistema de "chatterbox" (ou "máquina de conversar") capaz de "enganar" um humano, a pesquisa em Inteligência Artificial é hoje flagrantemente mais especializada: em lugar de reproduzir toda a inteligência humana, busca-se reproduzir determinados comportamentos inteligentes, como o de jogar xadrez, por exemplo. Ou o de executar determinadas tarefas linguísticas, como as de corrigir, resumir e traduzir
(^4) Interrogadores mais ingênuos ou mais cooperativos (como os que, por exemplo, já tendem a antropomorfizar seus dispositivos eletrônicos, com quem já conversam e em que identificam sentimentos e disposições tipicamente "humanos", por mais estúpidos que esses dispositivos possam ser) tendem a "aprovar", no Teste de Turing, mecanismos que seriam rejeitados por outros interrogadores, mais céticos ou mais experientes. 5 Segundo essa perspectiva, nem todo comportamento humano seria, necessariamente, "inteligente".
avaliarmos sua inteligência — agora "inteligência linguística" — por recurso à incidência desse equívoco. Não nos importa, aqui, se as máquinas de fato "entenderam" os textos que eram objeto de análise; se foram capazes de formular, a partir deles, os mesmos sentidos que um humano formularia; se foram ou não afetadas por eles, como um humano o seria. Interessa-nos apenas verificar se a máquina soube produzir, como resultado de uma tarefa linguística, um produto que pudesse ser confundido (e mais bem avaliado) do que o produzido por um humano. Como no teste comportamental de Turing, não nos interessam os "estados interiores" da máquina ou do humano, mas apenas o produto externo, público, mensurável de uma determinada atividade linguística. Nesta perspectiva, nossa análise se reduz ainda a um critério behaviorista para a inteligência humana, que já se provou inadequado para que se possam explicar inúmeros fenômenos linguísticos, como a própria aquisição da linguagem humana^6. Mas nosso objetivo, uma vez mais, não é iluminar aspectos obscuros da fala humana. Trata-se tão-somente de verificar se falantes mecânicos podem ser confundidos com falantes humanos em uma competição que envolvesse o desempenho em tarefas linguísticas que envolvem, não apenas a manipulação do significante, mas também a manipulação do significado. Se concordarmos, com Turing, que nenhuma das objeções elencadas constitui impedimento efetivo para que a máquina possa vir a ser bem sucedida neste novo jogo, poderíamos também concluir que, sim, as máquinas podem falar. Mas a questão, aqui como lá, não parece efetivamente ser "se" as máquinas podem ou não pensar (ou falar); a verdadeira questão, que se insinua no texto de Turing e que começa aqui a reclamar também alguma atenção, é "como" as máquinas poderiam vir a fazê-lo. Mas para que possamos avançar mais sobre esse ponto, será necessário que examinemos, com mais profundidade, dois dos impedimentos reportados por Turing: o teorema de Gödel e o argumento de Lady Lovelace.
Da incompletude
(^6) O célebre argumento sobre a pobreza dos estímulos primários, apresentado por Chomsky (1980), reafirma a necessidade de uma faculdade linguística inata – dos "estados mentais internos" ignorados pelas abordagens behavioristas – que habilite as crianças a induzir a gramática de uma língua a partir da experiência linguística muito precária e fragmentária do "motherese", a "língua da mãe" a que elas são normalmente expostas durante o processo de aquisição da linguagem.
Segundo o primeiro teorema da incompletude de Gödel [1931]^7 , os sistemas formais não podem ser ao mesmo "consistentes" e "completos": se são consistentes, são incompletos; se são completos, são inconsistentes. Não é possível flagrar, em um sistema formal, um estado de coisas em que cada uma delas possa ser exclusivamente definida por oposição às outras, ou seja, diferencialmente. Deverá haver sempre um conjunto de conceitos (os axiomas) que fazem referência a elementos extrassistêmicos (os postulados), ou, dito de outra forma, dentro de um sistema de relações há sempre elementos que devem ser definidos positivamente. O teorema prova a existência das chamadas "proposições indecidíveis", ou seja, que não podem ser provadas verdadeiras ou falsas em um dado sistema axiomático. O teorema de Gödel, que representa a terceira objeção repertoriada por Turing, constituiria, pois, um sério impedimento à ideia de máquinas pensantes, que deveriam ser ao mesmo tempo "consistentes" e "completas", ou seja, autossuficientes, sob o risco de se tornarem dependentes do humano e, por extensão, incapazes de um processamento completamente automático, como o que esperamos das máquinas. Ainda que pudéssemos criar um sistema consistente que (re)produzisse os mesmos resultados produzidos pelos humanos, esse sistema seria incompleto e dependeria, em algum ponto, de informações definidas fora do sistema, ou seja, que foram nele inscritas pela inteligência humana, mas que não podem ser ali representadas. Em resumo: todo sistema formal contém, necessariamente, "falhas". A principal implicação do teorema de Gödel é a ideia de que a inteligência humana não é completamente "formalizável", ou de que haverá sempre uma distância intransponível entre as línguas naturais e línguas artificiais desenhadas para mimetizá- las. De que as máquinas são, também elas, e apesar de toda a mitologia que se constituiu sobre elas, ferramentas imperfeitas. A refutação de Turing, reportada na primeira seção deste texto, é curiosamente atual. Turing afirma que a inteligência humana, como uma eventual inteligência
(^7) O primeiro teorema de Gödel, também conhecido como teorema da incompletude ou da indecidibilidade, expresso em notação matemática, foi assim traduzido por Kleene: "Any effectively generated theory capable of expressing elementary arithmetic cannot be both consistent and complete. In particular, for any consistent, effectively generated formal theory that proves certain basic arithmetic truths, there is an arithmetical statement that is true, but not provable in the theory." (Kleene 1967, p. 250).
diante aqui de duas formas de "memória" distintas em suas materialidades: a "memória histórica", característica do homem, que é limitada em sua extensão e marcada pela "falha", pelo esquecimento, mas que é, por isso mesmo, condição do "possível" e do "vir-a-ser", ou seja, da "produção", da "formulação", da "re-significação"; e a "memória metálica", característica da máquina, que seria aquela "que não falha", "ilimitada em sua extensão", mas que, exatamente pela ausência de falhas, do esquecimento, apenas "produz o mesmo em sua variação", a "fórmula", o "rearranjo". Se admitirmos, porém, que a "falha" é também característica da máquina — ou seja, de que a memória da máquina, embora ilimitada em sua extensão, não é estática, mas dinâmica, e encontra uma formulação, sempre provisória, em uma língua que, embora lógico-matemática, não é, porém, desmemoriada, porque também ela incompleta, e regularmente autofecundada pelas interações do sistema —, se reconhecemos, enfim, que as máquinas também têm "história", representada em seus diferentes estados de memória, cumpriria admitir que, sim, as máquinas também poderiam ser bem sucedidas em uma tarefa linguística que procurasse emular, por exemplo, a "produtividade linguística" do falante humano. Há pelo menos um exemplo notável dessa "incompletude" da máquina: o mecanismo de retroalimentação que caracteriza a chamada Web 2.0, a geração de serviços digitais "colaborativos", ou seja, que se distinguem pela incorporação continuada da opinião e de dados do usuário. Diferentemente da geração anterior, de sistemas invariáveis e impermeáveis às interações com os usuários, em que a informação fluía em único sentido, dos servidores para os terminais, os serviços atuais são bidirecionais e muito mais porosos: utilizam a história do usuário (ou da comunidade de usuários) para produzir resultados consideravelmente variáveis. Os atuais motores de busca, por exemplo, utilizam parâmetros dinâmicos (tais como o histórico de páginas visitadas, os dados geoestacionários do usuário e a avaliação da comunidade de usuários) como critérios de busca, de forma que a mesma pesquisa, feita por usuários diferentes, ou em dias ou lugares diferentes, pode produzir resultados diferentes. Um segundo exemplo: os anúncios publicitários que pululam nas páginas da internet são quase sempre "customizados" (ou seja, "escolhidos" para cada usuário) a partir de dados normalmente coletados nas inúmeras redes sociais, como o Twitter e o Facebook. Como um último exemplo, citem-se os sistemas de tradução automática, como o Google Translate, que operam hoje com uma memória incremental,
cotidianamente atualizada pelo acréscimo de novos corpora, de novas bases de conhecimento, de novos glossários terminológicos e memórias de tradução, além, evidentemente, do feedback dos usuários. Em todos esses casos, a máquina já não é mais o lugar da mera repetição. O fato é que o ciberespaço já não é hoje, definitivamente, o espaço do "mesmo", e sofre um agudo processo de dialetação e idioletação da informação que parece nos conduzir, em breve, para a singularização de nossa interação com a máquina: os resultados serão individualizados, construídos a partir de uma memória digital personalizada, embora parte de memórias mais gerais, e nem sempre armazenada apenas nos dispositivos do usuário. A questão que se coloca é, pois, se essa memória, tão dinâmica e tão variada, não será capaz de produzir a "re-significação", tão caracteristicamente humana. Queremos crer que essa memória coincide ainda com a "memória discursiva", no sentido que este termo recebe em Pêcheux (1999):
A memória discursiva seria aquilo que, face a um texto que surge como acontecimento a ser lido, vem restabelecer os ‘implícitos' (quer dizer, mais tecnicamente, os pré-construídos, elementos citados e relatados, discursos- transversos, etc.) de que sua leitura necessita: a condição do legível em relação ao próprio legível. (p. 52)
Apenas ela "significa", por exemplo, as diferenças entre os resultados de um mesmo motor de busca para uma mesma pesquisa, ou entre os diferentes anúncios publicitários exibidos na mesma página do Facebook de diferentes usuários, ou as diferentes traduções que se obtêm frequentemente para os mesmos textos. Mas compreendemos também que o funcionamento dessa que vai se tornando uma "hiper- memória", caracterizada por uma extensão incremental e ilimitada, e produto de uma progressiva particularização, estaria associado, não à falha do esquecimento, mas à permanente reorganização do sistema, pela incorporação de mais e novas informações. No entanto, não nos parece que estejamos ainda diante de uma outra memória. Trata-se, com certeza, de uma memória que não esquece, e que vai acumulando os "já-ditos"; mas esta acumulação não é a-histórica: o novo é "interpretado" à luz do que já está armazenado, e que é continuamente ressituado dentro do sistema. Não se trata, pois, de mero empilhamento de enunciados. Ou seja, o não esquecimento, qual no caso de
Lovelace, não seriam tão mecânicos, ou contariam com um grau considerável de imprevisibilidade — que explicaria, por exemplo, a questão da variação — que desautorizaria essa aproximação. A refutação ao argumento de Lady Lovelace tem duas faces: a primeira, interna, já foi considerada nos comentários sobre as objeções ao teste do Turing e, pode ser definida, essencialmente, pela crítica à ideia de “imprevisibilidade” – “imprevisível” pode muito bem ser definido como “qualidade do que ainda não pôde ser previsto”, em lugar de “qualidade do que não poderá nunca ser previsto”. Não haveria, portanto, nenhuma espécie de impedimento original à proposta de uma máquina pensante. No entanto, o argumento de Lady Lovelace deve ser interpretado à luz de uma questão mais prática, ou seja, somente se poderá ensinar a máquina a pensar quando estiver extremamente claro o funcionamento da inteligência humana. A possibilidade de uma máquina que pensa estaria associada à previsibilidade total do comportamento humano, o que é ainda uma quimera. Em última análise, o que Lady Lovelace afirma é que a máquina será como um homem apenas quando o homem puder ser definido como uma máquina. Trata-se, evidentemente, de uma possibilidade – quem garantirá que não se estabelecerão modelos totais do comportamento humano? – , mas de uma possibilidade hoje improvável e muito remota. Lady Lovelace duvida, portanto, que se possa representar integralmente, satisfatoriamente, robustamente, todo o conhecimento do homem, condição sine qua non para uma máquina pensante. O texto de Simon expõe, porém, outra refutação ao argumento de Lady Lovelace. Trata-se da segunda estratégia para fazer com que as máquinas pensem: ensinar a máquina a aprender a pensar. Essa segunda resposta, contra a primeira [ensinar a máquina a pensar], procura evitar exatamente o desenvolvimento de uma plataforma de trabalho que dependa excessivamente do conhecimento de mundo acumulado pelo homem ao longo de sua história. Desconfia-se, deste lado, que é impossível representar todo o conhecimento humano, porque esse conhecimento está em permanente transformação; e que essa síntese, ainda que fosse possível, seria uma síntese não- computacional (não-formalizável). É forçoso reconhecer que o argumento de Lady Lovelace, em função dessa nova posição, perde o vigor. Não seria necessário esperar que o homem pudesse ser definido como máquina para que as máquinas pudessem funcionar como homens. Bastaria que se estabelecesse um modelo de aprendizagem que, na máquina, replicaria o que se passa com o homem. Nas palavras de Turing:
No processo de tentar imitar a mente humana adulta, temos de refletir bastante sobre o processo que a levou até o ponto onde se encontra. Cumpre atentar para três componentes: (a) O estado inicial da mente, isto é, ao nascer; (b) A educação que recebeu; (c) Outras experiências, que não são as descritas como educação, a que foi submetida; Em vez de tentar produzir um programa que simule a mente adulta, por que não tentar produzir um que simule a mente infantil? Se ele fosse então submetido à educação apropriada, ter-se-ia um cérebro adulto. Presumivelmente, o cérebro da criança é algo assim como um desses cadernos que se compram em papelaria. Pouco mecanismo e muitas folhas em branco. Nossa esperança é a de que haja tão pouco mecanismo no cérebro da criança que algo que se lhe assemelhe pode ser programado. (...) Dividimos assim nosso problema em duas partes: o programa infantil e o processo de educação. Estas duas partes permanecem intimamente ligadas. Não podemos esperar encontrar uma boa máquina-criança logo na primeira tentativa. Deve-se experimentar ensinar uma máquina tal para ver como ela aprende. Pode-se então tentar ensinar outra para ver se sai melhor ou pior. Há uma conexão óbvia entre esse processo e a evolução, por via destas identificações: Estrutura da máquina-criança = material hereditário Mudanças na máquina-criança = mutações Seleção natural = juízo do experimentador (TURING [1950], p. 77-78)
Há seguramente, também aqui, várias inconsistências. A primeira delas diz respeito à eleição dos primitivos, dos pontos de partida, à montagem da “estrutura da máquina-criança”. A questão não é nem um pouco trivial e remete ao debate, secular, sobre o que é inato e o que é adquirido no comportamento humano. Que o cérebro da criança possa ser definido “como um desses cadernos que se compram em papelaria” já representa uma assunção hoje extremamente perigosa, porque corre o risco de reproduzir uma postura excessivamente passiva para o sujeito, que tem se revelado, desde Piaget e Chomsky, inadequada, por exemplo, para explicar o desenvolvimento da linguagem pela criança. A questão talvez pudesse ser contornada se insistíssemos sobre o papel ativo dos “mecanismos” em detrimento das “folhas em branco”, mas este tem sido o ponto indecidível onde se confrontam inatistas, construtivistas e interacionistas. Há um segundo problema que deriva da formalização das mutações responsáveis pelas mudanças na máquina-criança. A dificuldade aqui talvez se revele inferior porque há já disponíveis regras de aprendizagem para modelos matemáticos (a regra de Hebb, por exemplo) que podem ser facilmente implementadas computacionalmente (e de fato o foram nos modelos conexionistas, sob a forma do perceptron , cf. Rumelhart 1996).
de caracteres, a síntese de fala, o reconhecimento de voz em modo de ditado, entre outros, já são normalmente "aprovados" em testes como o proposto. Obviamente, há larga distância entre o reconhecimento de caracteres e o processamento de alto nível da linguagem. A complexidade, que lá já não é pequena, revela-se inextricável quando se pensa, por exemplo, na construção de analisadores morfológicos e sintáticos, e absolutamente inabordável quando da formalização de analisadores semânticos, pragmáticos e discursivos. O que não pode significar que a máquina seja intrinsecamente incapaz de processar a língua natural. A complexidade do fazer linguístico aponta apenas para a impossibilidade procedimental de a máquina falar (ou pensar) tal qual fazem os homens; não compreende, porém, sua capacidade — e esta a contribuição de Turing — de atingir alguns dos mesmos resultados de forma completamente diferente da realizada pelos humanos. É célebre, por exemplo, o argumento de Putnam (1975) para reiterar o dualismo psicofísico que pelo menos desde Descartes contamina o pensamento ocidental: assim como não se estabelecem restrições proibitivas ou relações determinísticas entre hardware e software, no caso da máquina, também não seria lícito aprisionar na neurologia (res extensa) a psicologia humana (res cogitans). O pensamento humano — e a inteligência — independeriam, portanto, do cérebro do homem, podendo ser sintetizados pela máquina. É interessante ressaltar, porém, que a metáfora, aqui, pouco tem a ver com a concepção mecanicista da mente que inaugura a Inteligência Artificial. Não se trata, absolutamente, da mente como máquina, do cérebro como hardware, mas da mente e da máquina como meios diferentes para se atingirem os mesmos resultados. A ausência de qualquer especularidade entre a arquitetura da mente humana e a do computador repele, já de início, a possibilidade de qualquer paralelismo e aproximação entre desempenho humano e desempenho computacional. Trata-se, na verdade, agora e sempre, do mesmo paradoxo: a possibilidade de existirem dois caminhos — o humano e o computacional — para se chegar ao mesmo resultado: o comportamento linguístico inteligente. Essa polêmica redefinição de inteligência como epifenômeno, que constitui o centro de gravidade do texto de Turing, instala a necessidade de se investigarem vias de acesso que não passem, necessariamente, pelo que se passa efetivamente com o falante quando fala. Esse objetivo se sobrepõe, muitas vezes, ao programa de pesquisa da semântica formal, mas não se confunde, em princípio, com as abordagens clássicas. Em primeiro
lugar, porque o que lá é o ponto de partida — a possibilidade de formalização da linguagem — aqui é (incerto) ponto de chegada. Em segundo lugar, porque, embora a perspectiva psicológica já não constitua o principal viés de análise, as restrições de desempenho — relacionadas aqui à máquina — sempre conduzirão a pesquisar muito mais modelos de performance do que teorias da competência. E, por fim, porque a singularidade da tarefa proposta consiste, exatamente, em tentar evitar o desenvolvimento de plataformas fixas ou estacionárias de representação do conhecimento linguístico. Parte-se do pressuposto de que não se pode representar satisfatoriamente, robustamente, todo o conhecimento linguístico para a máquina e, somente então, fazê-la funcionar. Em primeiro lugar, porque não é certo que seja possível representar todo o conhecimento linguístico; além disso, porque este funcionamento estaria ontogeneticamente limitado ao conjunto de informações representadas, negligenciando a produtividade que é característica básica da linguagem. Interessa, pois, pensar a formalização de um modelo de processamento da linguagem não-supervisionado capaz de fundar suas próprias orientações de pesquisa e universos categoriais. Interessa, não dotar a máquina de um aparato teórico pronto e acabado, mas investigar a possibilidade de investi-la de uma autonomia que a torne capaz de replicar o dinamismo e a instabilidade que são próprios da linguagem. Em última instância, interessa pesquisar a formulação de estratégias computacionalmente implementáveis de aquisição (e não de manipulação) da linguagem. Não se trata, evidentemente, de um percurso rápido. O trajeto, percebe-se desde o ponto de partida, é sinuoso e escarpado. Como diria Turing, no encerramento de seu ensaio: "podemos avistar só um pequeno trecho do caminho à nossa frente". Porque ensinar a máquina a aprender a linguagem será, sobretudo, ensiná-la a organizar seu passado como memória, os já-ditos como discurso, o enunciado como enunciação. E apenas começamos a fazê-lo. Mas Turing, é importante lembrar, nos encoraja a ir adiante: "[podemos avistar só um pequeno trecho do caminho à nossa frente] mas ali já vemos muito do que precisa ser feito".
Referências CHOMSKY, Noam. Rules and representations. Oxford: Basil Blackwell, 1980.
Para citar essa obra: MARTINS, Ronaldo; SANTOS, Mírian. Podem as máquinas falar?. In. DIAS, Cristiane. Formas de mobilidade no espaço e-urbano: sentido e materialidade digital [online]. Série e-urbano. Vol. 2, 2013, Consultada no Portal Labeurb – http://www.labeurb.unicamp.br/livroEurbano/ Laboratório de Estudos Urbanos – LABEURB/Núcleo de Desenvolvimento da Criatividade – NUDECRI, Universidade Estadual de Campinas – UNICAMP. Endereço : LABEURB - LABORATÓRIO DE ESTUDOS URBANOS UNICAMP/COCEN / NUDECRI CAIXA POSTAL 6166 Campinas/SP - Brasil CEP 13083- 892 Fone/ Fax: (19) 3521- 7900 www.labeurb.unicamp.br/contato