Preocupado com a IA senciente? Considere o polvo

[ad_1]

APor mais previsível que seja o regresso das andorinhas a Capistrano, os recentes avanços na IA têm sido acompanhados por uma nova onda de receios de alguma versão da “singularidade”, aquele ponto de inovação tecnológica descontrolada em que os computadores são libertados do controlo humano. Aqueles que temem que a IA nos jogue no lixo, no entanto, podem olhar para o mundo natural em busca de uma perspectiva sobre o que a IA atual pode ou não fazer. Pegue o polvo. Os polvos vivos hoje são uma maravilha da evolução: eles podem moldar-se em praticamente qualquer forma e estão equipados com um arsenal de armas e camuflagem furtiva, bem como uma aparente capacidade de decidir qual usar dependendo do desafio. No entanto, apesar de décadas de esforço, a robótica não chegou nem perto de duplicar este conjunto de capacidades (o que não é surpreendente, uma vez que o polvo moderno é o produto de adaptações ao longo de 100 milhões de gerações). A robótica está muito mais longe de criar Hal.

O polvo é um molusco, mas é mais do que um complexo brinquedo de corda, e a consciência é mais do que aceder a uma vasta base de dados. Talvez a visão mais revolucionária da consciência animal tenha vindo de Donald Griffin, o falecido pioneiro do estudo da cognição animal. Décadas atrás, Griffin me disse que pensava que uma gama muito ampla de espécies tinha algum grau de consciência simplesmente porque era evolutivamente eficiente (um argumento que ele repetiu em diversas conferências). Todas as espécies sobreviventes representam soluções bem-sucedidas para os problemas de sobrevivência e reprodução. Griffin sentiu que, dada a complexidade e a natureza em constante mudança da mistura de ameaças e oportunidades, era mais eficiente para a seleção natural dotar até mesmo as criaturas mais primitivas de algum grau de tomada de decisão, em vez de programar cada espécie para cada eventualidade.

Isto faz sentido, mas requer uma advertência: o argumento de Griffin (ainda) não é consensual e o debate sobre a consciência animal continua controverso como tem sido há décadas. Independentemente disso, a suposição de Griffin fornece uma estrutura útil para a compreensão das limitações da IA ​​porque sublinha a impossibilidade de implementar respostas num mundo complexo e em mudança.

A estrutura de Griffin também coloca um desafio: como pode uma resposta aleatória a um desafio no ambiente promover o crescimento da consciência? Mais uma vez, procure uma resposta no polvo. Os cefalópodes vêm se adaptando aos oceanos há mais de 300 milhões de anos. São moluscos, mas com o tempo perderam a concha, desenvolveram olhos sofisticados, tentáculos incrivelmente hábeis e um sistema sofisticado que lhes permite mudar a cor e até a textura da pele numa fração de segundo. Assim, quando um polvo encontra um predador, ele possui o aparato sensorial para detectar a ameaça e tem que decidir se deve fugir, camuflar-se ou confundir o predador ou a presa com uma nuvem de tinta. As pressões seletivas que aprimoraram cada uma dessas habilidades também favoreceram os polvos com controle mais preciso sobre tentáculos, coloração, etc., e também favoreceram aqueles com um cérebro que permite ao polvo escolher qual sistema, ou combinação de sistemas, implantar. Estas pressões selectivas podem explicar porque é que o cérebro do polvo é o maior de qualquer invertebrado e muito maior e mais sofisticado do que o dos moluscos.

Há outro conceito que entra em jogo aqui. É a chamada “capacidade ecologicamente excedente”. O que isto significa é que as circunstâncias que favorecem uma adaptação específica, como, por exemplo, as pressões selectivas que favorecem o desenvolvimento do sistema de camuflagem do polvo, também podem favorecer os animais com neurónios adicionais que permitem o controlo desse sistema. Por sua vez, a consciência que permite o controlo dessa capacidade pode ir além da sua utilidade na caça ou na prevenção de predadores. É assim que a consciência pode emergir de origens inteiramente práticas, até mesmo mecânicas.

Leia mais: Ninguém sabe como testar a segurança da IA

Por mais prosaico que pareça, a quantidade de informação utilizada na produção do polvo moderno supera a capacidade colectiva de todos os computadores do mundo, mesmo que todos esses computadores estivessem dedicados à produção de um polvo de tomada de decisões. As espécies de polvos actuais são o produto bem-sucedido de milhares de milhões de experiências que envolvem todas as combinações concebíveis de desafios. Cada um desses bilhões de criaturas passou a vida processando e reagindo a milhões de bits de informação a cada minuto. Ao longo de 300 milhões de anos, isso resulta num número inimaginavelmente grande de experiências de tentativa e erro.

Ainda assim, se a consciência pode emergir de capacidades puramente utilitárias e, com ela, a possibilidade de personalidade, carácter, moralidade e comportamento maquiavélico, porque é que a consciência não pode emergir dos vários algoritmos utilitários de IA que estão a ser criados neste momento? Mais uma vez, o paradigma de Griffin fornece a resposta: embora a natureza possa ter-se movido em direcção à consciência ao permitir que as criaturas lidassem com situações novas, os arquitectos da IA ​​optaram por se empenhar na abordagem integrada. Em contraste com o polvo, a IA hoje é um brinquedo de corda muito sofisticado.

Quando eu escrevi, O polvo e o orangotango em 2001, os pesquisadores já tentavam há anos criar um cefalópode robótico. Eles não estavam muito avançados, de acordo com Roger Hanlon, um dos maiores especialistas em biologia e comportamento do polvo, que participou desse trabalho. Mais de 20 anos depois, vários projetos criaram partes do polvo, como um braço robótico macio que tem muitas das características de um tentáculo, e hoje há uma série de projetos desenvolvendo robôs macios semelhantes a polvos para fins especiais, projetados para tarefas como como exploração em alto mar. Mas um verdadeiro polvo robótico continua a ser um sonho distante.

No caminho atual que a IA tomou, um polvo robótico continuará a ser um sonho. E, mesmo que os pesquisadores tenham criado um verdadeiro polvo robótico, o polvo, embora seja um milagre da natureza, não é Bart ou Harmony de Farol 23nem Samantha, o sistema operacional sedutor em Delaou mesmo Hal do filme de Stanley Kubrick 2001. Simplificando, o modelo conectado que a IA adotou nos últimos anos é um beco sem saída em termos de computadores se tornarem sencientes.

Explicar o porquê exige uma viagem no tempo, para uma era anterior de entusiasmo pela IA. Em meados da década de 1980, fui consultor da Intellicorp, uma das primeiras empresas a comercializar IA. Thomas Kehler, um físico que foi cofundador da Intellicorp, bem como de várias empresas de IA subsequentes, observou a progressão das aplicações de IA, desde sistemas especializados que ajudam as companhias aéreas a definir preços de assentos de forma dinâmica, até os modelos de aprendizado de máquina que impulsionam o Chat GPT. Sua carreira é uma história viva de IA. Ele observa que os pioneiros da IA ​​passaram muito tempo tentando desenvolver modelos e técnicas de programação que permitissem aos computadores resolver problemas da mesma forma que os humanos. A chave para um computador que pudesse demonstrar bom senso, pensava-se, era compreender a importância do contexto. Pioneiros da IA, como Marvin Minsky, do MIT, desenvolveram maneiras de agrupar os vários objetos de um determinado contexto em algo que um computador pudesse interrogar e manipular. Na verdade, este paradigma de empacotamento de dados e informações sensoriais pode ser semelhante ao que acontece no cérebro do polvo quando este tem de decidir como caçar ou escapar. Kehler observa que esta abordagem à programação tornou-se parte da estrutura do desenvolvimento de software – mas não levou a uma IA senciente.

Um dos motivos é que os desenvolvedores de IA posteriormente recorreram a uma arquitetura diferente. À medida que a velocidade e a memória do computador se expandiram enormemente, também aumentou a quantidade de dados que se tornaram acessíveis. A IA começou a utilizar os chamados grandes modelos de linguagem, algoritmos que são treinados em vastos conjuntos de dados e utilizam análises baseadas em probabilidades para “aprender” como os dados, palavras e frases funcionam em conjunto para que a aplicação possa então gerar respostas adequadas às perguntas. Em poucas palavras, este é o encanamento do ChatGPT. Uma limitação desta arquitetura é que ela é “frágil”, pois é completamente dependente dos conjuntos de dados utilizados no treinamento. Como Rodney Brooks, outro pioneiro da IA, colocou em um artigo na Revisão de tecnologia, esse tipo de aprendizado de máquina não é um aprendizado tipo esponja ou bom senso. O ChatGPT não tem capacidade de ir além de seus dados de treinamento e, nesse sentido, só pode fornecer respostas programadas. É basicamente um texto preditivo com esteróides.

Recentemente, revi uma longa história sobre IA que escrevi para TEMPO em 1988 como parte de um pacote de capa sobre o futuro dos computadores. Em uma parte do artigo escrevi sobre a possibilidade de robôs entregarem pacotes – algo que está acontecendo hoje. Noutro, sobre cientistas do famoso Centro de Investigação da Xerox em Palo Alto, que estavam a examinar os fundamentos da inteligência artificial para desenvolver “uma teoria que lhes permitirá construir computadores que possam ultrapassar os limites de uma experiência específica e compreender a natureza e contexto dos problemas que enfrentam.” Isso foi há 35 anos.

Não se engane, a IA de hoje é muito mais poderosa do que as aplicações que deslumbraram os capitalistas de risco no final da década de 1980. As aplicações de IA estão difundidas em todos os setores, e com a difusão vêm perigos – perigos de diagnósticos errados na medicina, ou negócios ruinosos em finanças, de acidentes de carro autônomos, de avisos de alarme falso de ataque nuclear, de desinformação viral e desinformação, e assim por diante. sobre. Estes são problemas que a sociedade precisa de resolver, e não se os computadores acordam um dia e dizem: “Ei, porque precisamos dos humanos?” Terminei aquele artigo de 1988 escrevendo que poderia levar séculos, ou nunca, até que pudéssemos construir réplicas de nós mesmos em computador. Ainda parece certo.

[ad_2]

Leave a Comment