Apesar de não ser algo novo, a inteligência artificial (IA) está cada vez mais popular e vem se mostrando útil em diversas áreas do conhecimento com inúmeras aplicações. Isso deve-se, principalmente, ao nosso avanço computacional nas últimas décadas (falei melhor sobre esse avanço no meu último texto). A inteligência artificial depende de uma grande quantidade de dados para funcionar bem e ficar cada vez mais precisa, o que não era possível há 64 anos atrás, quando o termo foi cunhado por John McCarthy. Apesar de possuir várias definições diferentes, nós conhecemos relativamente bem o poder da IA e seus limites. O completo oposto ocorre com a consciência, da qual não sabemos quase nada. Há várias linhas de pesquisa que tentam explica-la, mas sempre ficamos presos a hipóteses. De qualquer forma, a academia vem se questionando se as máquinas poderão, algum dia, se tornar conscientes de si. E é aqui que entram algumas dúvidas: a consciência está ligada, de alguma forma, à inteligência? A IA teria a capacidade de adquirir uma qualidade da mente até então exclusiva a alguns seres vivos? Caso a resposta seja sim, será que elas vão dominar o mundo? Qual o perigo disso, se é que tem?
Durante milhares de anos, nós, seres humanos, procuramos entender como e por que um punhado de poeira das estrelas adquiriu consciência de si e do seu lugar no universo. Conseguimos desenvolver habilidades que nenhuma espécie jamais conseguiu e sempre procuramos explicar as coisas ao nosso redor. É como se própria matéria tivesse achado um jeito de se estudar.
Ainda estamos tentando entender a fundo os processos cognitivos, mas uma coisa é certa: nós chegamos até aqui pensando. Simples assim. A proposta geral da IA é não apenas estudar, mas criar artificialmente esses processos por métodos computacionais — como machine/deep learning, redes neurais e processamento de linguagem natural.
Ao longo dos anos, diversos cientistas, matemáticos e filósofos procuraram definir a inteligência artificial. Vide alguns exemplos:
De qualquer forma, a definição mais aceita é: IA nada mais é que o estudo de agentes inteligentes que recebem percepções do ambiente e executam ações. A princípio pode parecer um pouco simplista, mas não se prendam a definições quando falamos de IA e, principalmente, de consciência. Como disse Marvin Minsky em seu livro The Society of Mind (1986):
“O ato de forçar definições para as coisas que nós não entendemos completamente geralmente causa mais danos do que benefícios.”
Inteligência e consciência: uma linha tênue
É comum as pessoas associarem inteligência e consciência como se fossem a mesma coisa. Não é. A inteligência é aptidão para resolver problemas — o que a IA faz muito bem. Já a consciência refere-se a aptidão para sentir as coisas. No nosso caso é natural que pensemos que as duas coisas (consciência e inteligência) são a mesma coisa, visto que resolvemos grande parte dos problemas com sentimentos. Já computadores, resolvem de maneira lógica baseado em estatísticas e dados.
Sabe-se, de forma básica, que a inteligência tem algumas características bem definidas:
- Raciocinar;
- Planejar;
- Resolver problemas;
- Armazenar conhecimento;
- Aprender;
- Realizar indução e dedução lógica.
Mas nada disso implica em consciência. A principal característica da IA que a diferencia de outras tecnologias é a capacidade de aprender e usar esse conhecimento armazenado para tomar decisões “não programadas”. Quanto mais dados adquiridos do ambiente, mais precisa é a escolha ou a solução de algum problema. Os carros autônomos, por exemplo, precisam de diversos dados para poder perceber bem o ambiente e conseguir dirigir com segurança e precisão.
Mas não sejam alarmistas, a IA não é perigosa e, mesmo que adquira consciência, muito provavelmente não nos faria mal, diferente de como as ficções científicas distópicas nos mostram. É claro que a IA mudará bastante nossa sociedade em todos os setores possíveis, mas não se deixem influenciar por sensacionalismo. Existem bons conteúdos na internet, inclusive aqui no Deviante. Recomendo que acompanhem a série de textos ‘desmistificando a inteligência artificial’ do Rodolpho Freire. Ele aborda a IA com pé no chão e lucidez.
Consciência artificial: uma incógnita
Há, pelo menos, três pontos de partida principais:
- A consciência está, de alguma forma, ligada à bioquímica orgânica de tal forma que nunca será possível criar consciência em sistemas artificiais. Ter um cérebro orgânico seria um requisito fundamental da consciência.
- A consciência está ligada à inteligência de tal modo que, a partir de um certo limiar da inteligência, a consciência floresce. Portanto, seria um caminho natural a IA alcançar a consciência. Nesse caso, a bioquímica orgânica não faz a menor diferença.
- A primeira e a segunda hipótese estão erradas. Não há ligações essenciais entre consciência e bioquímica orgânica nem entre consciência e alta inteligência. A IA poderia desenvolver consciência — mas não necessariamente. Poderiam ser superinteligentes sem serem conscientes de si.
Atualmente, com nosso nível de conhecimento, não podemos descartar nenhuma dessas hipóteses. Não conseguimos afirmar com certeza qual seria a mais provável. Aliás, como conseguiríamos identificar a consciência em uma máquina quando mal conseguimos fazer isso com animais? Ou será que seria mais fácil?
Assim como Alan Turing propôs o teste de Turing, Searle propôs o quarto chinês. Searle tenta responder se as máquinas poderiam ser conscientes e chega a conclusão que não. As máquinas não poderiam desenvolver consciência ou pensamentos. Isso deve-se principalmente, pelo computadores serem sintáticos e não semânticos. Eles não atribuem significado às ações. Simplesmente executam. Como diz Penrose:
“O pensamento consciente do homem não se apresenta como algo algorítmico”
Conclusão
Como dito anteriormente, há uma diferença entre pensar e sentir. Nós sentimos fome, mas decidimos o que comer. Não controlamos os sentimentos, mas podemos pensar sobre eles. O pensar é autorreflexivo: você pode pensar sobre pensar. Seres humanos podem controlar suas ações antes de realiza-las porque podem imaginar as consequências. Eu, particularmente, acho que a IA poderia sim ser muito inteligente, mas não vejo necessidade de serem conscientes. A IA poderia identificar sentimentos humanos e interpreta-los, mas podem fazer isso sem ter sentimentos próprios. Como disse Yuval Noah Harari em seu livro 21 Lições para o Século 21:
“Assim como os aviões voam mais rápido que aves sem jamais desenvolverem penas, também os computadores podem resolver problemas melhor que humanos sem nunca desenvolverem consciência.”
Esse é um debate que tem muitas implicações. Nós nem sabemos o que é consciência ao certo e muito menos como cria-la. Talvez exista outra forma de criar a consciência que não seja necessariamente como a nossa. O objetivo é o mesmo, mas o caminho pode ser diferente.
Esse debate leva consigo muitas questões éticas, muitas vezes abordadas em filmes de ficção científica. Se desenvolvermos seres conscientes, eles deveriam ter direitos? E o dilema do bonde para carros autônomos? Mas isso é tema para um próximo texto.
Esse texto acabou trazendo mais perguntas do que respostas. Espero que com todo o avanço da neurociência e da IA, consigamos chegar a uma conclusão. E o mais importante: que saibamos usar a IA para coisas úteis e não para guerras e afins. Como sempre enfatizo em meus textos: a ciência e a tecnologia não possuem valores intrínsecos, portanto, cabe a nós dar um rumo a ela.